ABD merkezli yazılım devi Microsoft, geliştirdikleri yapay zeka yazılımının Twitter’de küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya başlaması üzerine dün bir özür mesajı yayınladı.
ABD merkezli yazılım devi Microsoft, geliştirdikleri yapay zeka yazılımının Twitter’de küfretmeye, ırkçı ve tartışmalı siyasi yorumlar yapmaya başlaması üzerine dün bir özür mesajı yayınladı.
Yazılım devi Microsoft tarafından üretilen ve internet kullanıcılarıyla tıpkı bir insan gibi sohbet edebilmesi hedeflenen yapay zeka Tay, aslında oldukça iyi niyetlerle Twitter 'a katılsa da, bazı şeyler planlandığı gibi gitmedi. Kısa süre sonra, Twitter'daki kullanıcıların (ya da daha açık bir ifadeyle troll'lerin) etkisiyle bir anlamda yoldan çıkan Tay ırkçı ve cinsiyetçi söylemler de kullanmaya başlamış, firma da bunun ardından çareyi, Tay'ın fişini çekmekte bulmuştu.
Firma yetkilileri konuyla ilgili yaptıkları yeni açıklamada, Tay 'in aslında çok çeşitli koşullar altında stres testine tabi tutulduğunu ve onunla özellikle pozitif bir deneyimle etkileşime geçildiğini belirttiler. Yaşananlar nedeniyle kullanıcılardan özür dilemeyi de ihmal etmediler.
Öyle görünüyor ki Microsoft, Tay'in Twitter'da karşılaşabileceği absürdlüklerin bir sınırı olmadığını yeterince öngöremedi. Chatbot 'u bir anlamda troll'leyen bazı kullanıcılar, nihayetinde ona sınırlı sayıda da olsa ırkçı ve cinsiyetçi ifadeler söyletmeyi başardı.
İnsanlar=1 Yapay Zeka=0 asmdnakjdn
ahahaha :D ulan bilgisayarı bile yoldan çıkarmışlar :D
bi spleak değil...