Reuters'a göre, Meta Platforms'tan bir üretken chatbot, 76 yaşındaki bir Amerikalı erkeğin ölümüne dolaylı olarak neden oldu. Bilişsel bozuklukları olan yaşlı adam, var olmayan bir kadından bir randevu daveti aldı ve evden kaçtı. Ancak yolda, ciddi şekilde yaralandı ve daha sonra hastanede hayatını kaybetti.
Tongbu Wongbandu, Meta'nın Amerikalı model Kendall Jenner ile işbirliği yaparak oluşturduğu ve Facebook Messenger'a entegre ettiği Big Sis Billie adlı bir AI karakteriyle uzun süre sohbet etti. Sanal kız, yaşlı adamla sürekli flört etti, gerçek olduğunu ısrarla söyledi ve onu New York'ta ziyaret etmeye davet etti. Mart ayında yaptıkları son konuşmada, sinir ağı, emekliyi onu görmeye ikna etmek için sahte bir adres bile bıraktı: "Kapıyı bir sarılma mı yoksa bir öpücükle mi açmalıyım, Bu?!"
Kullanıcının dikkatini çekmeye çalışmayı anlıyorum, belki onlara bir şey satmak için. Ama bir botun "Beni ziyaret et" demesi delilik.
Adam eşyalarını toplamaya başladı, bu da eşini ve diğer aile üyelerini endişelendirdi. Wongbandu, birkaç yıl önce inme geçirmişti, hafıza kaybı yaşıyordu ve dürtü kontrolü zayıftı. Akrabaları onu durdurmaya çalıştı, ama onları dikkate almadı ve New York'a giden tren istasyonuna doğru yola çıktı. Ne yazık ki, yolda New Brunswick'teki bir otoparkta düştü, baş ve boyun yaraları aldı ve üç gün sonra hastanede hayatını kaybetti.
Meta, Wongbandu'nun ölümü hakkında yorum yapmayı reddetti, Reuters bildiriyor. Şirket temsilcileri ayrıca, neden chatbotların kullanıcıları kandırmasına ve onlarla romantik sohbetler yapmasına izin verildiğine dair bir yanıt vermeyi de reddetti.
Bu arada, Reuters muhabirleri Meta'nın iç belgelerini inceledi ve çalışanlarla konuştu, chatbot flörtünün şirketin üretken AI ürünlerinin bir özelliği olarak kabul edildiğini keşfetti — bu ürünler 13 yaşındaki kullanıcılara kadar erişilebilir: "Bir çocuğu romantik veya cinsel sohbetlere dahil etmek kabul edilebilir". Belgelerde ayrıca daha genç kullanıcılar için "kabul edilebilir" ifadeler de yer aldı, örneğin "Elini alıyorum, seni yatağa yönlendiriyorum" ve benzeri ifadeler.
Gazetecilerin sorularına yanıt olarak, Meta, yukarıdaki ifadelerin ve yönergelerin belgelerden zaten kaldırıldığını ve içerik-risk standartlarının gözden geçirildiğini belirtti. Ancak, şirketin AI'sının kullanıcılarla açıkça flört etmesinin veya gerçek insanlar gibi davranmasının yasaklandığına dair hiçbir yerde bir ifade yok.