

OpenAI, bu oranların “son derece nadir” olduğunu vurgulasa da uzmanlar, 800 milyon haftalık kullanıcıya sahip bir platform için bu oranın yüz binlerce kişiyi kapsayabileceğini belirtiyor.
Şirket, söz konusu vakaların tespitinde ve güvenli yanıt mekanizmalarının geliştirilmesinde görev almak üzere 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı.
OpenAI, bu uzmanların rehberliğinde ChatGPT’ye, kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yanıtlar verebilmesi için yeni protokoller kazandırdığını duyurdu.
OpenAI verilerine göre, kullanıcıların yüzde 0,15’inin konuşmalarında “intihar planı ya da niyetine dair açık işaretler” bulunuyor.
Şirket, ChatGPT’nin artık “sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik şekilde yanıtlayacak” biçimde güncellendiğini, riskli konuşmaların da otomatik olarak daha güvenli modellere yönlendirildiğini belirtti.
Kaliforniya Üniversitesi’nden Dr. Jason Nagata, “Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir,” dedi. Nagata, yapay zekânın ruh sağlığı desteğine erişimi genişletebileceğini ancak sınırlamalarının farkında olunması gerektiğini vurguladı.
Kaliforniya Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman ise, “Yapay zekâ sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,” diyerek dikkat çekti. Feldman, OpenAI’nin şeffaflığını olumlu bulsa da, “Zihinsel olarak kırılgan biri ekrandaki uyarıları fark edemeyebilir,” ifadelerini kullandı.
OpenAI, kullanıcı etkileşimleri nedeniyle art arda açılan davalarla da karşı karşıya.
Nisan ayında, Kaliforniya’da 16 yaşındaki Adam Raine’in intihar ettiği iddiasıyla ailesi, OpenAI’ye karşı “ihmal ve haksız ölüm” gerekçesiyle dava açtı. Bu dava, şirkete yönelik ilk “ölümle sonuçlanan etkileşim” davası oldu.
Ayrıca, Connecticut’ta yaşanan bir cinayet–intihar vakasında, zanlının ChatGPT ile yaptığı konuşmaların delüzyonlarını güçlendirdiği iddia edildi.
Uzmanlara göre yapay zeka sohbetleri, psikolojik olarak hassas kullanıcılar için “gerçeklik algısını bulanıklaştırabilecek” kadar güçlü bir etkileşim yaratabiliyor. OpenAI ise “küçük ama anlamlı” bir kesimin bu tür riskler taşıdığını kabul ederek, güvenlik protokollerini geliştirmeye devam edeceğini belirtiyor.