Deteksi Deepfake, Jurus Ampuh Cegah KBGO dan Eksploitasi Digital

Grafiti "Fake" mengingatkan kepada realitas digital yang mengaburkan antara kenyataan dan manipulasi digital. Foto: UNSPLASH.

Reportase oleh: Agung Firmansyah

“Kita tahu dunia takkan lagi sama. Sebagian orang tertawa, sebagian yang lain menangis. Namun kebanyakan orang memilih diam.”

Ucapan fisikawan teoritis, Julius Robert Oppenheimer itu tercetus dalam sebuah dokumenter yang ditayangkan NBC News bertajuk The Decision to Drop the Bomb (1965), 20 tahun setelah karyanya yang perkasa, bom atom, menghilangkan nyawa 120 ribu orang seketika dalam insiden Hiroshima dan Nagasaki, Jepang.

Ucapan sentimental itu tidak hanya dipenuhi penyesalan dan kekecewaan kepada dirinya sendiri, tetapi juga keprihatinan atas ketidakpedulian dunia merespons kejahatan akbar tersebut.

Buah tangan sains, yang selalu dimaksudkan untuk menciptakan masa depan manusia dan kemanusiaan yang lebih indah, tak melulu digunakan secara benar, dan berakhir baik.

Baca: Nightshade, Alat Perang agar Karya tak ‘Dicuri’ AI

Manusia dengan akses dan niat yang jahat, mampu secara tega memperbudak teknologi (atau sebaliknya, rela diperbudak teknologi), dan memutarbalikkan tujuan asal penciptaannya.

Jauh sebelum kelahiran teknologi tingkat lanjut yang dapat berpikir seperti manusia, yakni artificial intelligence (AI), filsuf Jerman, Martin Heidegger telah mewanti-wanti bahwa penggunaan teknologi secara berlebihan dapat membuat kita melihat dunia dan manusia hanya sebagai objek yang bisa dieksploitasi, sehingga mengabaikan nilai-nilai kemanusiaannya.

Teknologi, bagaimanapun rupa eksistensi kebendaannya, memiliki implikasi yang signifikan terhadap kemanusiaan. Ahli etika teknologi, Shannon Vallor dalam Technology and the Virtues berpendapat bahwa, pengembang teknologi harus mengembangkan kebajikan seperti kebijaksanaan, keberanian, dan keadilan, agar tujuan kemanusiaan dapat diutamakan dalam penggunaan teknologi. Hak-hak dan martabat individu harus diletakkan sebagai prioritas.

Sebagai ilustrasi, dalam mengembangkan AI, penting untuk memastikan bahwa teknologi tidak melanggar privasi atau mendukung diskriminasi.

Kekerasan Berbasis Gender Online (KBGO) adalah masalah serius yang semakin mengemuka, seiring dengan perkembangan teknologi digital.

KBGO mencakup berbagai bentuk pelecehan, ancaman, dan kekerasan yang ditargetkan pada individu berdasarkan gender mereka melalui platform digital. Fenomena ini didominasi perempuan sebagai korban.

Hal ini diperparah oleh media dan budaya populer yang menghadirkan perempuan sebagai objek seksual, suatu pandangan yang sudah begitu kuat terpatri dalam kesadaran kolektif masyarakat.

Tidak hanya merendahkan posisi perempuan, representasi ini juga memperkuat eksploitasi digital dapat lebih mudah terjadi, dengan frekuensi yang lebih tinggi.

Penerapan AI cenderung memperkuat persepsi negatif terhadap perbedaan gender. Sebagai contoh, sering kali karakter perempuan dalam game atau aplikasi digambarkan secara over-sexualized alias berlebihan dengan unsur-unsur seksual atau stereotipikal, sedangkan karakter laki-laki cenderung lebih sering digambarkan sebagai pahlawan atau pemimpin.

Dalam banyak kasus, AI justru menjadi fasilitator pelaku kejahatan siber, daripada sebagai pelindung korban. AI bisa diibaratkan sebagai symbiote seperti Venom dalam semesta komik Marvel. Meskipun memiliki kemampuan yang istimewa, kehendaknya tergantung kepada kontrol dan hasrat inangnya, yaitu manusia. Baik dan buruk tindakan yang tercipta tidak diputuskan oleh dirinya sendiri.

Baca: Kecerdasan Buatan di Mata Pemeriksa Fakta

Potensi kejahatan yang timbul dari penggunaan AI tidak dapat lagi disepelekan. Pew Research Center melaporkan pada 2019, bahwa sebanyak lebih dari 28% pengguna internet pernah mengalami kejahatan siber, seperti pencurian identitas dan penipuan digital.

Risiko ini meningkat ketika AI digunakan untuk mengumpulkan dan memanipulasi data dari media sosial. Data seperti foto dan video yang tampak remeh dapat disalahgunakan untuk menciptakan deepfake yang berdampak negatif, mulai dari Non-Consensual Dissemination of Intimate Images (NCII) atau Penyebaran Konten Intim tanpa persetujuan, hingga penipuan tingkat lanjut.

Di samping pengguna dengan niat yang berbeda, isu utama AI juga berasal dari algoritma yang memiliki bias gender. Ruhi Khan, seorang peneliti dari London School of Economics dan Political Science (LSE), menjelaskannya sebagai Patriarchal AI. Bias ini sebenarnya adalah refleksi dari sifat manusia itu sendiri.

AI dibangun berdasarkan dataset yang bisa mencapai jutaan bahkan miliaran data, serta melibatkan desain algoritma yang dikembangkan oleh para pengembang. Apabila data yang digunakan hanya terbatas pada pengalaman kelompok spesifik, maka algoritma akan mengabaikan, atau salah memperhitungkan pengalaman kelompok lainnya.

Di tengah derasnya arus teknologi informasi, kasus-kasus kekerasan berbasis gender online (KBGO) semakin menyeruak. Salah satu modus operandi yang kini sering digunakan adalah teknologi deepfake.

Deepfake adalah sebuah inovasi yang menggunakan algoritma machine learning, sebagai cabang dari artificial intelligence (AI), untuk melakukan manipulasi media seperti gambar dan audio.

Teknologi ini menggunakan deep learning untuk mempelajari dan menganalisis kumpulan data besar dengan tujuan menghasilkan hasil yang sangat mirip dengan keadaan aslinya.

Menurut Chief of Technology Officer (CTO) di Data Science Center LST FMIPA Universitas Indonesia (UI), Agung Sutikno, mengatakan, umumnya deepfake mendapatkan konotasi negatif karena seringkali digunakan untuk kejahatan.

Meski begitu, teknologi ini adalah netral, dan bergantung pada cara kita memanfaatkannya, entah itu untuk kebaikan atau kejahatan.

“Deepfake adalah machine learning yang memanfaatkan deep neural network. AI ini mengambil source lalu diolah dengan sedemikian rupa, dengan metode Generative Adversarial Network atau GAN,” ungkap Sutikno.

Sutikno menunjukkan bahwa deepfake memiliki potensi untuk membantu seseorang mengingat orang terkasih yang telah meninggal dengan membuat replika suara dan gambar mereka.

Walau begitu, terdapat pula banyak potensi bahaya yang dimiliki deepfake, seperti untuk melakukan tindakan kejahatan KBGO.

“Gambar seseorang, biasanya perempuan, dicangkokkan dengan gambar bergerak atau video yang mengarah kepada pornografi, karena motif revenge porn, misalnya, atau sekadar iseng,” ungkap Sutikno.

Contoh lain, teknologi ini juga dapat digunakan untuk melakukan penipuan dengan mengklaim menjadi orang lain, atau membuat video yang menampilkan kesaksian palsu.

“Deepfake juga dapat digunakan dengan tujuan merugikan dalam sektor politik, sosial, dan ekonomi,” tambah dia.

Sutikno menyarankan agar masyarakat lebih teliti dalam mengamati detail media tersebut guna mendeteksi apakah itu merupakan sebuah deepfake atau asli.

“Dengan memperhatikan ketidaksesuaian dalam pencahayaan, pergerakan bayangan, dan konsistensi intonasi dalam audio, kita bisa mengetahui apakah media tersebut dimanipulasi atau tidak,” jelasnya.

Di samping itu, ia juga mengusulkan agar pengguna menggunakan alat deteksi deepfake yang tersedia secara luas di internet, seperti Video Authenticator dari Microsoft, atau teknologi reverse engineering oleh Facebook. Tools ini dapat membantu masyarakat umum dalam mengenali media yang telah dimanipulasi.

Selain itu, Sutikno menyoroti bagaimana kesadaran dan kewaspadaan berperan penting dalam melakukan kegiatan di era digital.

Dia mengingatkan untuk tidak terlalu mudah mempercayai dan membuka tautan yang tak dikenal, serta selalu menjaga kerahasiaan data pribadi.

“Banyak orang terjebak phising karena mereka kurang memiliki pengetahuan tentang teknologi dan keamanan. Kita perlu tetap waspada dan tidak boleh mudah terperdaya oleh manipulasi digital,” ujarnya.

Penting untuk selalu seimbangkan penggunaan teknologi dengan kesadaran etis dan tanggung jawab, sesuai dengan pendapat Oppenheimer dan Heidegger.

AI dan teknologi lainnya dapat memberikan manfaat yang besar, tetapi jika digunakan oleh orang yang salah, mereka bisa menjadi alat destruktif. Salah satu contoh dari teknologi deepfake adalah ketika semua pihak yang terlibat perlu secara bijaksana mengevaluasi manfaat dan risikonya.

Ikuti dan baca artikel kami lainnya di Google News.