Jakarta – Sebuah studi baru yang diterbitkan di Pattern melaporkan beberapa sistem artificial intelligence/AI (kecerdasan buatan) yang dirancang untuk jujur telah belajar untuk menipu manusia.
Tim peneliti dari Massachusetts Institute of Technology (MIT) yang dipimpin oleh Peter Park, menemukan bahwa sistem AI dapat melakukan hal-hal seperti menipu pemain game online atau melewati verifikasi Captcha seperti pengecekan ‘Saya bukan robot’.
Hal ini bisa menimbulkan konsekuensi yang serius di dunia nyata.
Penelitian ini menyoroti sistem AI Meta, Cicero, yang semula dimaksudkan sebagai lawan yang bermain adil dalam game strategi diplomasi virtual. Meskipun ini diprogram untuk bersikap jujur dan membantu, Cicero justru menjadi ahli tipu daya.
Selama bermain, Cicero, yang bermain sebagai Prancis, secara diam-diam akan bekerja sama dengan Jerman yang dikendalikan oleh manusia untuk mengkhianati Inggris pemain manusia lainnya.
Semula Cicero akan berjanji untuk melindungi Inggris sekaligus memberi tahu Jerman untuk melakukan invasi. Kemudian, GPT-4, yang mengaku sebagai tunanetra dan mempekerjakan manusia untuk mem-bypass CAPTCHA atas namanya.
Park menekankan tantangan dalam melatih AI yang jujur. Tidak seperti perangkat lunak tradisional, sistem AI pembelajaran mendalam berkembang melalui proses yang mirip dengan pengembangbiakan selektif.
Perilaku mereka mungkin dapat diprediksi selama pelatihan, tetapi bisa menjadi tidak terkendali nantinya.
Studi ini mendesak untuk mengklasifikasikan sistem AI yang menipu sebagai sistem yang berisiko tinggi dan meminta lebih banyak waktu untuk mempersiapkan diri menghadapi penipuan AI di masa depan.
Dengan semakin banyaknya studi dan penelitian yang dilakukan di sekitar AI, kita akan belajar lebih banyak tentang apa yang dimiliki teknologi ini untuk kita. (adm)
Sumber: detik.com