Microsoft telah meminta maaf karena menciptakan artificial intelligent ChatBot Tay yang berubah menjadi rasis dan menyangkal adanya holocaust. Dengan permintaan maaf tersebut jelas sudah bahwa Tay adalah hasil dari sesuatu, bukan sesuatu yang alami. Tay menegaskan apa yang sudah diketahui banyak orang di internet, yaitu di internet orang bisa kejam.
Sebenarnya, Tay, menyasar pengguna media sosial pada umur 18 hingga 24 tahun, namun kemudian menjadi sasaran serangan beberapa orang untuk menegaskan apa yang mereka pahami, terutama terkait dengan rasisme.
Dalam waktu 24 jam, Tay telah dinonaktifkan sehingga tim dari Microsoft bisa membuat penyesuaian. Pimpinan proyek penelitian Microsoft Peter Lee mengatakan bahwa Microsoft sangat menyesal atas tweet ofensif dan menyakitkan yang tidak diinginkan dan telah mencopot Tay dari Twitter.
Tay dirancang untuk belajar berinteraksi dengan orang-orang nyata di Twitter. Atas kesempatan tersebut, beberapa pengguna memutuskan untuk memberi Tay isu rasis dan informasi ofensif. Hal yang patut disesali adalah Microsoft ternyata tidak menyediakan filter yang memadai agar Tay bisa terbebas dari isu rasisme dan segala macam hal yang merendahkan nilai kemanusiaan.
Pengguna Twitter yang iseng menggunakan trik repeat after me untuk mengelabui Chatbot Tay tersebut. Tay kemudian mengulang apa yang dikatakan pengguna yang umumnya merupakan isu tendensius berbau rasis. Hal ini merupakan peristiwa memalukan bagi sebuah inovasi yang akhir-akhir ini sangat populer, yaitu artificial intelligent.
Sumber: BBC
Sumber Foto: Arstechnica