Algoritma untuk Mendeteksi Ujaran Kebencian Bias terhadap Orang Kulit Hitam

Platform seperti Facebook, YouTube, dan Twitter mendukung pengembangan teknologi kecerdasan buatan untuk membantu menghentikan penyebaran ujaran kebencian di jaringan mereka. Idenya adalah bahwa algoritma yang kompleks yang menggunakan pemrosesan bahasa alami akan menandai ujaran rasis atau kekerasan lebih cepat dan lebih baik daripada yang bisa dilakukan manusia. Melakukan ini secara efektif lebih mendesak daripada sebelumnya mengingat penembakan massal dan kekerasan baru-baru ini yang terkait dengan juaran kebencian online.

Akan tetapi dua studi baru menunjukkan bahwa AI yang dilatih untuk mengidentifikasi ujaran kebencian sebenarnya bisa memperkuat bias rasial. Dalam satu studi, para peneliti menemukan bahwa model AI terkemuka untuk memproses ujaran kebencian satu setengah kali lebih mungkin untuk menandai tweets sebagai ofensif atau kebencian ketika mereka ditulis oleh orang Afrika-Amerika dan 2,2 kali lebih mungkin untuk menandai tweets yang ditulis dalam Afrika Amerika Inggris (yang umum dituturkan oleh orang kulit hitam di AS). Studi lain menemukan bukti luas yang serupa tentang bias rasial terhadap ucapan orang kulit hitam di lima set data akademik yang banyak digunakan untuk mempelajari ujaran kebencian yang berjumlah sekitar 155.800 posting di Twitter.

Hal ini karena sebagian besar apa yang dianggap ofensif tergantung pada konteks sosial. Istilah yang menghina saat digunakan dalam beberapa pengaturan seperti n-word atau queer mungkin tidak ada pada yang lain. Tetapi algoritma dan moderator konten yang menilai hasil data tes yang mengajarkan algoritma bagaimana melakukan pekerjaan mereka, biasanya tidak tahu konteks komentar yang mereka tinjau.

Kedua makalah, dipresentasikan pada konferensi tahunan bergengsi baru-baru ini untuk linguistik komputasi, menunjukkan bagaimana pemrosesan bahasa alami AI yang sering diusulkan sebagai alat untuk mengidentifikasi bahasa ofensif secara objektif dapat memperkuat bias yang sama dengan yang dimiliki manusia. Mereka juga membuktikan bagaimana data uji yang memberikan feed kepada algoritma memiliki bias bawaan sejak awal.

Tidak ada yang tahu pasti apakah sistem moderasi konten yang digunakan Facebook, Twitter, dan Google menunjukkan bias yang sama persis dalam studi ini. Hal ini karena teknologi yang digunakan perusahaan tersebut untuk memoderasi konten adalah hak milik dan tak dibagi ke publik. Tetapi raksasa teknologi sering beralih ke akademisi untuk panduan tentang bagaimana menegakkan standar yang lebih baik di sekitar ujaran kebencian. Jadi, jika para peneliti top menemukan kekurangan dalam set data akademik yang banyak digunakan, hal tersebut akan menghadirkan masalah yang signifikan bagi industri teknologi pada umumnya.

Sumber: Vox via Recode

Sumber Foto: The Guardian NG