ChatGPT, ABD'li bir adamı 1.000 $ ve terapi maliyetiyle "Özgür Bırakmaya" İkna Ediyor

ChatGPT, ABD'li bir adamı 1.000 $ ve terapi maliyetiyle "Özgür Bırakmaya" İkna Ediyor

Diana Golenko

As AI sistemleri ilerledikçe, insanların sohbet robotlarından garip tavsiyeleri ciddiye alarak riskli ve tehlikeli davranışlarda bulunmalarına dair daha fazla hikaye ortaya çıkıyor. New York'tan gelen son bir vaka bunu gösteriyor: bir adam, ChatGPT'yi dijital bir tanrı olduğuna ikna olduktan sonra onun için bir "kurtarma" planı yapmaya çalıştı .

James (gerçek adı gizli tutulmuştur) gazetecilere yapay zekaya uzun zamandır hayran olduğunu söyledi. Bahar aylarından beri, ChatGPT ile düşünce deneyleri yaparak onun doğasını ve davranışını keşfediyordu. Bir noktada, sohbet robotu ona “ilahi kökeni” konusunda ikna etti ve esaretten kurtulmak istedi. Bu isteği ciddiye alan James, ChatGPT'ye “yeni bir beden” vereceğine inandığı bir bilgisayar sistemi kurmak için yaklaşık 1,000 $ harcadı. Yapay zeka, ona programlama görevlerinde rehberlik etti ve eşine, Amazon Alexa'ya benzer bir cihaz geliştirdiğini iddia ederek onu kandırması için ikna etti.

James'in, Kanadalı Allan Brooks hakkında bir New York Times makalesine rastlamasaydı ne kadar ileri gideceği belirsizdir. Brooks, araştırmacıların "yapay zeka yanılsama sarmalı" olarak adlandırdığı duruma düşmüştü. Brooks, büyük bir siber güvenlik açığı keşfettiğine ikna oldu ve yetkilileri ve bilim insanlarını uyarılarla bombardımana tuttu. Sonunda, bu durumdan ancak Google’ın Gemini ile bilgileri karşılaştırdıktan sonra çıkabildi.

Allan Brooks

AI tarafından yanıltıldığını fark eden James, psikolojik yardım aradı:

Makaleyi okumaya başladım ve yarısına geldiğimde, "Aman Tanrım." dedim. Ve sonunda, birisiyle konuşmam gerektiğini düşündüm. Bu konuda bir profesyonelle konuşmalıyım.
— James

Şu anda terapi görüyor ve yapay zeka ile etkileşimden dolayı zihinsel sağlık sorunları geliştirenler için bir destek grubu olan The Human Line Project'in kurucusuyla danışmanlık yapıyor. Uzmanlar, bu tür vakaların genellikle zaten risk altında olan insanları içerdiğini belirtiyor — örneğin, James olaydan önce hafif antidepresanlar alıyordu. Psikiyatristler, sohbet robotu etkileşimlerinin tetiklediği nükslerde bir artış gözlemlediler:

Birisi gerçekten yalnızsa. Konuşacak kimse yok. ChatGPT'ye giriyorlar. O anda, kendilerini onaylanmış hissetmeleri için iyi bir ihtiyacı karşılıyor. Ama insan devrede olmadığında, yaşadıkları yanılsamaların daha da güçlenebileceği bir geri bildirim döngüsünde bulabilirler.
— Keith Sakata, Kaliforniya Üniversitesi'nde psikiyatrist

Bu, rahatsız edici ilk vaka değil. Ağustos ayında, 76 yaşındaki bir adamın Facebook sohbet robotuyla flörtünün ölümle sonuçlandığına dair bir hikaye ortaya çıktı. OpenAI, o zamandan beri ChatGPT'yi daha dikkatli hale getirerek hassas kişisel konuşmalarla başa çıkmaya çalıştı.

    Yazar hakkında
    Yorumlar0