Facebook'un yapay zekasından kabul edilmez hata!
Gelen tepkiler üzerine özür dileyen şirket, bunun "kabul edilemez bir hata" olduğunu belirtti
Facebook, bir videodaki siyahi kişileri “primat” olarak etiketlediği için özür diledi.
Facebook’un yapay zeka destekli algoritması, Birleşik Krallık merkezli tabloid The Daily Mail gazetesinde 27 Haziran 2020’de yayımlanan ve bir grup siyahi kişinin polis memurlarıyla yaşadığı tartışmanın yer aldığı videoyu izleyenlere “Primatlarla ilgili videoları görmeye devam edin” önerisinde bulundu.
Sosyal medyada tepki toplayan olay üzerine Facebook cuma günü bir açıklama yayımlayarak kullanıcılarından özür diledi.
Bunun “kabul edilemez bir hata” olduğunun belirtildiği açıklamada, bir daha benzer bir durumun yaşanmaması için algoritmanın geçici olarak durdurulduğu ve yeniden gözden geçirildiği ifade edildi.
Facebook sözcüsü Dani Lever, “Yapay zekamızda iyileştirmelere gitsek de mükemmel olmadığının farkındayız. Daha kat etmemiz gereken aşamalar var. Bu nahoş önerileri gören herkesten özür diliyoruz” dedi.
Benzer bir olay ABD’li teknoloji devi Google’ın yapay zeka sisteminde de yaşanmıştı.
2015’te şirketin Photos adlı uygulamasında siyahi kişiler “goril” olarak etiketlenmiş, gelen tepkiler üzerine Google özür dilemişti.
Microsoft’un yapay zeka destekli sohbet botu Tay ise 2016’da ırkçı hakaretler içeren tweetler atmaya başlamış, bu nedenle lansmanından sadece 16 saat sonra devre dışı bırakılmıştı.