Membangun Model Komputer Guna Melawan Pelecehan Anak

Sejumlah besar data dari ratusan ribu orang sedang digunakan untuk membangun model komputer dalam upaya untuk memprediksi pelecehan anak agar ada campur tangan sebelum pelecehan tersebut bisa terjadi. Di tengah meningkatnya tekanan keuangan, dewan lokal di Inggris sedang mengembangkan sistem analisis prediktif untuk secara algoritma mengindetifikasi keluarga agar memperoleh perhatian dari layanan anak yang memungkinkan mereka untuk memfokuskan sumber daya secara lebih efektif.

Namun demikian profil algoritmik baru ini meskipun bisa menjadi salah satu cara untuk membantu pekerja sosial, kemungkinan besar akan sangat kontroversial karena potensinya mengganggu privasi individu. Selain itu terdapat juga risiko memasukkan dan melanggengkan diskriminasi terhadap minoritas secara tidak sengaja.

The Guardian telah menemukan setidaknya lima otoritas lokal di Inggris telah mengembangkan atau menerapkan sistem analitik prediksi untuk perlindungan anak. Setidaknya 377.000 data orang telah dimasukkan ke dalam sistem prediksi yang berbeda.

Dewan kota Hackney dan Thurrock telah menyewa perusahaan swasta, Xantura untuk mengembangkan model prediktif untuk tim layanan anak-anak mereka. Dua dewan lainnya, Newham dan Bristol, telah mengembangkan sistem mereka sendiri secara internal. Dewan Brent sedang mengembangkan sistem untuk memprediksi kerentanan terhadap eksploitasi geng.

The Information Commissioner’s Office (ICO) Inggris yang mengatur penggunaan data pribadi oleh badan publik dan swasta, mengatakan akan mengajukan pertanyaan ke dewan yang menggunakan analisis prediktif untuk memastikan mereka mematuhi undang-undang perlindungan data. Juru bicara ICO mengatakan bahwa semua organisasi memiliki kewajiban untuk menjaga informasi pribadi yang ada pada mereka, terlebih catatan yang melibatkan anak-anak yang sering merupakan data pribadi yang sensitif membutuhkan tindakan yang sangat kuat.

Para pendukung analisis prediktif berpendapat bahwa analisis prediktif tersebut memungkinkan dewan lokal untuk menargetkan sumber daya terbatas dengan lebih baik sehingga mereka dapat bertindak sebelum tragedi terjadi. Namun pihak yang lain memperingatkan bahwa sistem tersebut pasti memasukkan bias para desainer mereka dan risiko melanggengkan stereotip dan diskriminasi, sementara secara efektif beroperasi tanpa pengawasan publik.

Di Thurrock dan Hackney, sistem Xantura beroperasi dengan menjalankan model prediksinya terhadap sebuah rumah tangga sebagai tanggapan terhadap tanda-tanda peringatan, seperti seorang anak yang dikeluarkan dari sekolah atau laporan kekerasan dalam rumah tangga. Prediksi model kemudian diteruskan ke pekerja sosial untuk tindakan potensial.

Dewan Hackney mengatakan sistemnya telah menghasilkan 350 peringatan risiko bagi keluarga yang membutuhkan perhatian, sementara Thurrock mengatakan bahwa sistemnya menghasilkan 300 peringatan.

Sumber: The Guardian

Sumber Foto: Rappler