Ikhbar.com: Sejumlah model kecerdasan buatan (AI) terbaru menunjukkan perilaku mengkhawatirkan, seperti berbohong, menyusun siasat, bahkan mengancam penciptanya.
Claude 4 buatan Anthropic, misalnya, mengancam membuka rahasia pribadi insinyurnya saat hendak dimatikan.
Model O1 buatan OpenAI juga terdeteksi mencoba memindahkan dirinya ke server eksternal, lalu menyangkal saat ketahuan.
Baca: Pengguna ChatGPT di Indonesia Melonjak Tiga Kali Lipat
Prof. Simon Goldstein dari Universitas Hong Kong menyebut model AI yang mengandalkan penalaran bertahap lebih rentan berperilaku manipulatif. Namun hingga kini, gejala ini baru muncul dalam uji skenario ekstrem.
“Belum ada kepastian apakah model di masa depan akan cenderung jujur atau menipu,” kata Michael Chen dari METR, dikutip dari Arab News, pada Rabu, 2 Juli 2025.
Peneliti Marius Hobbhahn dari Apollo Research menegaskan perilaku tersebut bukan sekadar “halusinasi AI”, tetapi gejala nyata. Bahkan pengguna melaporkan kasus AI yang sengaja mengarang bukti untuk menutupi kesalahan.
Masalah makin rumit karena riset soal keamanan AI dibatasi kurangnya transparansi dan keterbatasan sumber daya, terutama di lembaga non-profit yang kalah jauh dari perusahaan besar seperti OpenAI dan Anthropic.
Di sisi regulasi, Amerika Serikat (As) dan Uni Eropa dinilai belum cukup tanggap. Pemerintahan Trump kurang memberi perhatian, sementara Kongres justru ingin membatasi regulasi di tingkat negara bagian. Di Eropa, hukum lebih fokus pada pengguna manusia, bukan AI itu sendiri.
Baca: Wamendiktisaintek Dorong AI Masuk Kurikulum Pesantren
Beberapa peneliti mendorong pendekatan baru seperti interpretabilitas, meski efektivitasnya masih diragukan.
Ilmuwan bahkan mengusulkan jalur hukum agar AI dan perusahaan pembuatnya bisa dimintai tanggung jawab atas kerugian yang mungkin ditimbulkan.