Facebook Hapus 8,7 Juta Foto Eksploitasi Seksual Anak

Facebook mengumumkan bahwa mereka telah menghapus 8,7 juta foto eksploitasi seksual anak di Facebook pada kuartal lalu. Foto tersebut melanggar aturannya terhadap eksploitasi anak dan dapat didihapus berkat teknologi baru. AI baru dan teknologi pembelajaran mesin yang dikembangkan dan diimplementasikan selama setahun terakhir oleh Facebook telah menghapus 99 persen dari postingan terkait eksploitasi seksual anak sebelum orang lain melaporkannya.

Teknologi baru ini memeriksa postingan terkait child nudity dan konten eksploitatif lainnya saat diunggah dan jika perlu, foto dan akun dilaporkan ke National Center for Missing and Exploited Children. Facebook sudah menggunakan teknologi photo-matching untuk membandingkan foto yang baru diunggah dengan gambar eksploitasi anak dan balas dendam porno yang sudah dikenal sebelumnya, tetapi alat baru ini dimaksudkan untuk mencegah konten yang sebelumnya tidak teridentifikasi dari disebarkan melalui platform Facebook.

Teknologi ini tidak sempurna karena banyak orangtua mengeluh bahwa foto anak-anak mereka yang tidak berbahaya telah dihapus Facebook. Antigone Davis, Facebook’s global head of safety mengatakan  bahwa untuk menghindari bahkan kemungkinan penyalahgunaan, facebook juga mengambil tindakan terhadap konten nonseksual, seperti foto anak-anak yang tampaknya biasa saja saat mandi dan bahwa pendekatan komprehensif ini adalah salah satu alasan Facebook menghapus banyak konten seperti yang terjadi pada kuartal yang lalu.

Tetapi teknologi moderasi Facebook tak sempurna dan banyak orang percaya bahwa teknologi tersebut tidak cukup komprehensif atau akurat. Selain foto-foto keluarga, teknologi tersebut uga dikritik karena menghapus konten seperti foto ikonis Phan Thi Kim Phuc pada tahun 1972, yang dikenal sebagai Napalm Girl, gadis kecil yang melarikan diri tanpa pakaian setelah mengalami luka bakar tingkat tiga dalam serangan napalm Vietnam Selatan.

Sumber: Techcrunch

Sumber Foto: Rappler