Di Balik Kecerdasan Google Gemini, Ada Ribuan Pelatih AI Berupah Rendah

Ilustrasi pelatih AI Google Gemini. Foto: Unsplash/Kaitlyn Baker

Ikhbar.com: Penulis teknis dari Texas, Rachael Sawyer, mengungkap bahwa pekerjaannya sebagai “generalist rater” di Google justru membuatnya harus menilai dan memoderasi konten hasil kecerdasan buatan (AI), termasuk materi kekerasan dan seksual tanpa peringatan atau pelatihan memadai.

Sawyer adalah satu dari ribuan pekerja lepas yang dikontrak melalui GlobalLogic, anak perusahaan Hitachi, untuk memeriksa keluaran chatbot Gemini dan AI Overviews.

“Saya kaget karena pekerjaan ini melibatkan konten yang begitu mengganggu,” ujar Sawyer, dikutip dari The Guardian, pada Jumat, 12 September 2025.

Baca: ChatGPT Rilis Fitur Kontrol Orang Tua usai Gugatan Kasus Bunuh Diri Remaja

Mereka dibayar sekitar Rp263.000 per jam untuk generalist rater dan Rp345.000 per jam untuk super rater—jauh di bawah gaji insinyur di Mountain View, tetapi lebih tinggi dibanding pekerja pelabel data di Afrika dan Amerika Selatan.

“AI bukanlah sihir. Itu dibangun di atas kerja keras manusia yang kelelahan dan dibayar rendah,” kata Sawyer.

Banyak pekerja mengaku mengalami tekanan berat akibat target yang semakin ketat, dari 30 menit menjadi hanya 15 menit per tugas, hingga menimbulkan serangan panik.

“Kami tidak diberi cukup informasi tentang tujuan pekerjaan kami,” kata salah satu rater yang masih bekerja di perusahaan itu.

Peneliti sosiologi Antonio Casilli dari Institut Politeknik Paris menilai faktor sosial berperan besar.

“Biasanya mereka yang punya modal budaya atau motivasi lebih tinggi dapat memengaruhi keputusan kelompok, sehingga hasil bisa bias,” ujarnya.

Baca: Gen Z Lebih Pilih Cari Info di TikTok Dibanding Google

Meskipun Google menegaskan kebijakan AI terkait ujaran kebencian tidak berubah, para rater menyebut pagar pembatas keamanan semakin longgar, memungkinkan model mengulang ujaran kebencian atau konten seksual selama itu berasal dari pengguna.

Peneliti di Distributed AI Research Institute, Adio Dinika, menyebut fenomena ini sebagai paradoks etika industri.

“Janji keselamatan AI runtuh ketika keselamatan mengancam keuntungan,” kata Dinika.

Sejak awal 2025, GlobalLogic memangkas jumlah pekerja menjadi sekitar 1.500. Banyak dari mereka kini menghindari penggunaan LLM atau memblokir ringkasan AI karena kehilangan kepercayaan pada produk yang mereka bantu bangun.

Ikuti dan baca artikel kami lainnya di Google News.