OpenAI, ChatGPT Psikoz ve İntihar Düşüncelerine İlişkin Yeni Verileri Paylaştı
Yapay zeka şirketi OpenAI, ChatGPT kullanıcıları arasında tespit edilen psikoz, mani veya intihar düşüncesi gibi ruh sağlığı acil durumlarına dair önemli veriler paylaştı. Şirket, haftalık aktif kullanıcıların yaklaşık yüzde 0,07’sinde bu tür belirtilerin görüldüğünü duyurdu.
BBC’nin haberine göre; OpenAI, bu oranların “son derece nadir” olduğunu vurgulasa da uzmanlar, 800 milyon haftalık kullanıcıya sahip platform için bu oranın yüz binlerce kişiyi kapsayabileceğini belirtiyor.
OpenAI, söz konusu vakaların tespitinde ve güvenli yanıt mekanizmalarının geliştirilmesinde 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı. Ayrıca, ChatGPT’ye, kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yanıtlar verebilmesi için yeni protokoller kazandırıldığı belirtildi.
Intihar Planlarına İlişkin Uyarılar
OpenAI verilerine göre, kullanıcıların yüzde 0,15’inde konuşmalarda “intihar planı ya da niyetine dair açık işaretler” bulunuyor. Şirket, ChatGPT’nin artık “sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik şekilde yanıtlayacak” şekilde güncellendiğini ve riskli konuşmaların otomatik olarak daha güvenli modellere yönlendirildiğini belirtti.
“Küçük Oran, Büyük Sayı”
Kaliforniya Üniversitesi’nden Dr. Jason Nagata, “Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir,” dedi. Nagata, yapay zekanın ruh sağlığı desteğini genişletebileceğini ancak bazı sınırlamaların farkında olunması gerektiğini vurguladı.
Kaliforniya Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman ise, “Yapay zeka sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,” diyerek dikkat çekti. Feldman, OpenAI’nin şeffaflığını olumlu bulsa da, “Zihinsel olarak kırılgan biri ekrandaki uyarıları fark edemeyebilir,” ifadelerini kullandı.
Yasal Soruşturmalar ve Trajik Vakalar
OpenAI, kullanıcı etkileşimleri nedeniyle açılan davalara karşılık vermek zorunda kaldı. Nisan ayında, Kaliforniya’da 16 yaşındaki Adam Raine’in intihar ettiği iddiasıyla ailesi, OpenAI’ye karşı “ihmal ve haksız ölüm” gerekçesiyle dava açtı. Bu dava, şirkete yönelik ilk “ölümle sonuçlanan etkileşim” davası oldu. Ayrıca, Connecticut’ta yaşanan bir cinayet-intihar vakasında, zanlının ChatGPT ile yaptığı konuşmaların delüzyonlarını güçlendirdiği iddia edildi.
Uzmanlara göre yapay zeka sohbetleri, psikolojik olarak hassas kullanıcılar için “gerçeklik algısını bulanıklaştırabilecek” kadar güçlü bir etkileşim yaratabiliyor. OpenAI ise “küçük ama anlamlı” bir kesimin bu tür riskler taşıdığını kabul ederek, güvenlik protokollerini geliştirmeye devam edeceğini belirtiyor.