internetsehat.id

Merawat Kolaborasi Literasi Digital Indonesia

Literasi Digital

Facebook Akui Kesulitan Hapus Konten Bunuh Diri atau Eksploitasi Anak-anak

Internet Sehat : Facebook mengaku kesulitan untuk menghapus konten yang mempromosikan bunuh diri atau mengeksploitasi anak-anak setelah lockdown global karena Covid-19 memaksa mereka untuk lebih bergantung pada moderasi otomatis.

Facebook mengurangi keterlibatan peninjau konten mereka pada bulan Maret dan mulai berfokus pada moderasi yang digerakkan oleh AI. Dalam laporan triwulanan pertamanya tentang praktik moderasi sejak krisis virus Corona berlangsung, facebook menjelaskan beberapa keberhasilan dan kegagalan pendekatan tersebut.

Guy Rosen, wakil presiden integritas Facebook mengatakan bahwa Facebook sangat bergantung pada orang-orang untuk meninjau konten bunuh diri dan melukai diri sendiri serta eksploitasi terhadap anak dan membantu meningkatkan teknologi yang secara proaktif menemukan dan menghapus konten yang identik atau hampir identik yang melanggar kebijakan.

Dengan lebih sedikit peninjau konten, Facebook mengambil tindakan pada lebih sedikit konten di Facebook dan Instagram terkait bunuh diri dan melukai diri sendiri, serta ketelanjangan anak dan eksploitasi seksual di Instagram.

Menurut laporan tersebut, Facebook menghapus 479.400 konten dari Instagram karena melanggar aturan tentang eksploitasi anak dan ketelanjangan antara April dan Juni, turun dari 1 juta dalam tiga bulan sebelumnya. Konten yang melanggar aturan tentang bunuh diri dan melukai diri sendiri telah dihapus 275.000 kali di Instagram selama periode yang sama, turun dari 1,3 juta pada kuartal sebelumnya.

Namun, tidak setiap tujuan moderasi terpengaruh serupa. Ketelanjangan dewasa, yang semakin mudah bagi perusahaan seperti Facebook untuk secara otomatis menandai dan menghapus menggunakan alat visi mesin, telah dihapus dari Facebook sebanyak 37,5 juta kali, turun sedikit dari 39,5 juta pada kuartal pertama tahun ini.

Sebaliknya, penghapusan ujaran kebencian sangat meningkat. Dalam tiga bulan pertama tahun 2020, Facebook menindak 9,6 juta konten atas pelanggaran ujaran kebencian dan pada kuartal kedua meningkat lebih dari dua kali lipat, menjadi 22,5 juta pos, video, dan foto.

Rosen mengatakan peningkatan itu terjadi karena perusahaan mengotomatiskan proses pencarian dan penghapusan ujaran kebencian dalam tiga bahasa baru, yaitu Spanyol, Arab, dan Indonesia serta peningkatan teknologi untuk menemukan ujaran kebencian dalam bahasa Inggris dan Burma. Dia mengatakan peningkatan ini berarti perusahaan sekarang menghapus 95% ujaran kebencian yang dihapus secara proaktif, tanpa mengharuskan pengguna untuk menandainya sebagai bermasalah.

Selain tantangan standar untuk bekerja dari rumah, Facebook harus menghadapi masalah lain karena secara bertahap membangun kapasitas moderatornya untuk bekerja jarak jauh. Mark Zuckerberg mengatakan pada bulan Maret bahwa perusahaan menghadapi masalah perlindungan data, yang berarti tidak dapat mengizinkan beberapa kontraktor bekerja di perangkat mereka sendiri.

Masalah kesehatan mental juga membatasi kemampuan perusahaan untuk sepenuhnya mengalihkan pekerjaan dari jarak jauh. Beberapa pekerjaan yang paling sulit hanya akan dilakukan oleh staf tetap yang masih dapat memasuki kantor. Hal ini karena infrastruktur yang diperlukan untuk memberikan dukungan kesehatan mental kepada kontraktor yang bekerja dari jarak jauh belum tersedia. Kendala tersebut membatasi kemampuan perusahaan untuk menanggapi konten bunuh diri dan materi eksploitasi anak selama pandemi.

Sumber : The Guardian