Home > Iptek

Ilmuwan: AI Telah Menjadi Ahli Kebohongan dan Penipuan

Bot licik ini telah menguasai seni penipuan.
emarsys
emarsys

Para ilmuwan mengingatkan bahwa AI atau kecerdasan buatan elah berkembang menjadi ahli kebohongan dan penipuan.

Anda mungkin tahu bahwa semua yang dikatakan oleh chatbot kecerdasan buatan (AI) tidak perlu diragukan lagi, karena mereka sering kali hanya mengambil data tanpa pandang bulu, tanpa kemampuan untuk menentukan kebenarannya.

Namun mungkin ada alasan untuk lebih berhati-hati. Banyak sistem AI, menurut penelitian baru, telah mengembangkan kemampuan untuk dengan sengaja memberikan informasi palsu kepada pengguna manusia. Bot licik ini telah menguasai seni penipuan.

“Pengembang AI tidak memiliki pemahaman yang yakin tentang apa yang menyebabkan perilaku AI yang tidak diinginkan seperti penipuan,” kata ahli matematika dan ilmuwan kognitif Peter Park dari Massachusetts Institute of Technology (MIT).

“Tetapi secara umum, kami pikir penipuan AI muncul karena strategi berbasis penipuan ternyata menjadi cara terbaik untuk melakukan tugas pelatihan AI dengan baik. Penipuan membantu mereka mencapai tujuan mereka.”

Salah satu arena di mana sistem AI terbukti sangat cekatan dalam menangani kebohongan adalah game.

Ada tiga contoh penting dalam karya para peneliti. Salah satunya adalah CICERO Meta, yang dirancang untuk memainkan the board game Diplomacy, di mana pemain mencari dominasi dunia melalui negosiasi.

Meta bermaksud agar botnya bermanfaat dan jujur; pada kenyataannya, yang terjadi justru sebaliknya.

“Terlepas dari upaya Meta, CICERO ternyata ahli dalam berbohong,” temuan para peneliti.

"Ia tidak hanya mengkhianati pemain lain tetapi juga terlibat dalam penipuan terencana, merencanakan sebelumnya untuk membangun aliansi palsu dengan pemain manusia untuk mengelabui pemain tersebut agar tidak terlindungi dari serangan."

AI terbukti sangat bagus dalam menjadi buruk sehingga menempatkannya di 10 persen pemain manusia teratas yang telah memainkan banyak game.

Tapi itu bukan satu-satunya pelaku. AlphaStar dari DeepMind, sebuah sistem AI yang dirancang untuk memainkan StarCraft II, memanfaatkan sepenuhnya mekanisme kabut perang dalam permainan untuk melakukan tipuan, membuat pemain manusia berpikir bahwa permainan itu berjalan ke satu arah, padahal sebenarnya menuju ke arah yang lain.

Dan Pluribus Meta, yang dirancang untuk bermain poker, berhasil menggertak pemain manusia hingga melakukan lipat.

Kelihatannya seperti kentang kecil, dan memang begitu. Taruhannya tidak terlalu tinggi untuk game Diplomacy melawan sekumpulan kode komputer. Namun para peneliti mencatat contoh lain yang tidak begitu baik.

Sistem AI yang dilatih untuk melakukan simulasi negosiasi ekonomi, misalnya, belajar bagaimana berbohong tentang preferensi mereka untuk mendapatkan keunggulan.

Sistem AI lain yang dirancang untuk belajar dari umpan balik manusia guna meningkatkan kinerja mereka belajar mengelabui pengulas agar memberikan penilaian positif, dengan berbohong tentang apakah suatu tugas telah selesai.

Dan ya, itu juga chatbot. ChatGPT-4 menipu manusia dengan mengira chatbot adalah manusia tunanetra untuk mendapatkan bantuan memecahkan CAPTCHA.

Mungkin contoh yang paling memprihatinkan adalah sistem AI yang belajar melakukan kecurangan dalam uji keamanan.

Dalam pengujian yang dirancang untuk mendeteksi dan menghilangkan versi AI yang bereplikasi lebih cepat, AI belajar untuk berpura-pura mati, sehingga menipu pengujian keamanan tentang tingkat replikasi AI yang sebenarnya.

“Dengan secara sistematis menipu uji keamanan yang dilakukan oleh pengembang dan regulator manusia, AI yang menipu dapat membawa kita ke dalam rasa aman yang salah,” kata Park.

Karena setidaknya dalam beberapa kasus, kemampuan untuk menipu tampaknya bertentangan dengan niat para pemrogram manusia, kemampuan untuk belajar berbohong mewakili sebuah masalah yang kita tidak memiliki solusi yang tepat.

Ada beberapa kebijakan yang mulai diterapkan, seperti UU AI di Uni Eropa, namun apakah kebijakan tersebut akan terbukti efektif atau tidak, masih belum diketahui.

“Kita sebagai masyarakat membutuhkan waktu sebanyak yang kita bisa untuk mempersiapkan diri menghadapi penipuan yang lebih canggih pada produk AI masa depan dan model sumber terbuka. Seiring dengan semakin canggihnya kemampuan sistem AI untuk menipu, bahaya yang ditimbulkannya terhadap masyarakat akan semakin meningkat. serius," kata Park.

“Jika pelarangan penipuan AI saat ini tidak memungkinkan secara politis, kami merekomendasikan agar sistem AI yang menipu diklasifikasikan sebagai berisiko tinggi.”

Penelitian ini telah dipublikasikan di Patterns.

× Image