Waspada! Ini Sederet Modus Penipuan Pakai AI

Ilustrasi modus penipuan. Foto: Canva

Ikhbar.com: Masyarakat diimbau untuk lebih waspada terhadap modus penipuan baru yang memanfaatkan kecanggihan kecerdasan buatan atau Artificial Intelligence (AI) alias kecerdasan buatan. Pasalnya, belum lama ini Otoritas Jasa Keuangan (OJK) mengungkap bahwa teknologi ini mulai disalahgunakan untuk menipu masyarakat, khususnya di sektor jasa keuangan.

Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Pelindungan Konsumen OJK, Friderica Widyasari Dewi menjelaskan bahwa modus penipuan yang kini marak adalah voice cloning, yakni peniruan suara menggunakan AI.

“Dengan teknologi ini, para pelaku penipuan bisa merekam lalu meniru suara orang-orang terdekat korban seperti teman, keluarga, atau rekan kerja. Kemudian mereka menggunakannya untuk melakukan percakapan yang terdengar meyakinkan,” ujar Friderica dalam konferensi pers Rapat Dewan Komisioner Bulanan (RDKB) OJK Juni 2025 yang digelar secara daring pada Senin, 4 Agustus 2025.

Baca: Komdigi Sebut IQ AI Capai 300, Ungguli Manusia?

Celah di medsos

Friderica menambahkan bahwa tingginya aktivitas masyarakat di media sosial (medsos) turut membuka peluang penyalahgunaan data suara. Konten-konten dengan suara asli yang diunggah ke platform digital bisa direkam dan dimanfaatkan oknum penipu untuk merekayasa percakapan seolah berasal dari orang yang dikenal korban.

“Teknologi ini membuat peniruan suara sangat mudah dilakukan, dan digunakan untuk menipu masyarakat dengan pendekatan personal,” ungkapnya.

Modus Deepfake

Tidak hanya suara, pelaku kejahatan siber kini juga memanfaatkan teknologi deepfake untuk meniru wajah seseorang secara digital. Dengan teknik ini, mereka membuat video palsu yang menyerupai penampilan orang-orang yang dekat dengan korban.

“Mereka membuat video yang tampak seperti asli, baik wajah maupun suaranya. Korban bisa saja percaya bahwa mereka sedang berkomunikasi dengan keluarga, anak, atau teman dekat padahal itu palsu,” jelas Friderica.

Deepfake membuat penipuan semakin sulit dikenali karena visual dan audio tampak sangat meyakinkan. Oleh karena itu, kewaspadaan ekstra sangat dibutuhkan.

Cara menghindari penipuan berbasis AI

Untuk melindungi diri dari kejahatan digital berbasis AI ini, OJK menyarankan beberapa langkah penting, di antaranya:

1. Lakukan verifikasi langsung

Jika ada pihak yang menghubungi dan mengaku sebagai orang terdekat lalu meminta uang atau data, segera hubungi langsung pihak yang bersangkutan melalui jalur komunikasi resmi.

2. Jaga kerahasiaan data pribadi

Jangan sembarangan membagikan informasi pribadi, terutama yang berkaitan dengan keuangan, di media sosial atau platform digital lainnya.

3. Waspadai suara dan video yang terasa janggal

Jika mendapati suara atau video yang terasa tidak alami atau mencurigakan, segera lakukan pengecekan lebih lanjut.

OJK menegaskan bahwa masyarakat perlu memahami risiko dari penyalahgunaan teknologi seperti AI, agar tidak menjadi korban penipuan modern yang kian berkembang.

Ikuti dan baca artikel kami lainnya di Google News.