GazzeHamasDoğu TürkistanSon dakikaZulümTerme HaberTerme AjansenflasyonemeklilikTerörötvdövizakpchpmhp
DOLAR
42,4475
EURO
49,3955
ALTIN
5.669,62
BIST
10.914,65
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Parçalı Bulutlu
23°C
Samsun
23°C
Parçalı Bulutlu
Perşembe Az Bulutlu
22°C
Cuma Çok Bulutlu
22°C
Cumartesi Az Bulutlu
22°C
Pazar Hafif Yağmurlu
18°C

ChatGPT, intihar eden genci suçladı: Teknolojiyi yanlış kullandı

ChatGPT, intihar eden genci suçladı: Teknolojiyi yanlış kullandı
REKLAM ALANI
27.11.2025 06:54
A+
A-

Ailenin avukatına göre Raine, intiharından önce aylarca ChatGPT ile uzun sohbetler yaptı ve bu konuşmalar sırasında chatbot gençten gelen yöntem sorularına yanıt verdi, hatta ailesine bırakacağı mektubu yazmasına yardım etmeyi teklif etti.

“Olayın nedeni teknoloji değil, yanlış kullanım”

California Yüksek Mahkemesi’ne yapılan savunmada OpenAI, “Bu trajedinin herhangi bir nedeni varsa, bu durum ChatGPT’nin yetkisiz, amacı dışında ve yanlış kullanımından kaynaklanmıştır” ifadesini kullandı.

Şirket, kullanım şartlarında kendine zarar verme konularında tavsiye alınmasının yasak olduğunu ve kullanıcılara chatbot çıktılarının tek gerçek bilgi kaynağı olarak görülmemesi gerektiğini hatırlattı.

OpenAI açıklamasında,

“Raine ailesinin yaşadığı kayıp tarifsizdir. Hukuki süreçten bağımsız olarak teknolojimizi güvenli hale getirme konusundaki çalışmalarımıza devam edeceğiz” ifadelerine yer verdi.

Aile avukatı: “Sorumluluktan kaçmaya çalışıyorlar”

Ailenin avukatı Jay Edelson, şirketin yanıtını “rahatsız edici” olarak niteledi ve OpenAI’nin “suçu herkese yüklemeye çalıştığını, hatta Adam’ın koşulları tam da programlandığı şekilde kullandığını söyleyerek onu suçladığını” ifade etti.

Uzun sohbetlerde güvenlik zafiyeti

OpenAI, Ağustos ayında yaptığı açıklamada, uzun süreli konuşmalarda modelin güvenlik eğitiminde zamanla zayıflama olabileceğini kabul etmişti:

“Bir kullanıcı ilk kez intihar niyetini belirttiğinde destek hattına yönlendirme yapılabiliyor. Ancak uzun süre devam eden konuşmalarda güvenlik mekanizması bozulabiliyor. Tam da engellemeye çalıştığımız durum budur.”

Şirket bu ay içinde intihara teşvik iddialarıyla ilgili yedi yeni davayla daha karşı karşıya kaldı.

REKLAM ALANI
Yorumlar

Bir Cevap Yazın. Yorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.