GazzeHamasDoğu TürkistanSon dakikaZulümTerme HaberTerme AjansenflasyonemeklilikTerörötvdövizakpchpmhp
DOLAR
41,9391
EURO
48,7999
ALTIN
5.540,56
BIST
10.941,79
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Az Bulutlu
20°C
Samsun
20°C
Az Bulutlu
Pazar Az Bulutlu
18°C
Pazartesi Çok Bulutlu
30°C
Salı Az Bulutlu
21°C
Çarşamba Az Bulutlu
18°C

Araştırma: Yapay zeka asistanları haber içeriklerini yanlış aktarıyor

Araştırma: Yapay zeka asistanları haber içeriklerini yanlış aktarıyor
REKLAM ALANI
22.10.2025 06:48
A+
A-

14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.

Sonuçlara göre, yanıtların yüzde 45’inde en az bir ciddi hata, yüzde 81’inde ise bir tür sorun tespit edildi.

Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde “eksik, yanıltıcı veya hatalı kaynak gösterimi” bulundu.

Google’ın Gemini asistanında bu oran yüzde 72’ye kadar çıkarken, diğer tüm platformlarda bu oran yüzde 25’in altında kaldı. Ayrıca, incelenen tüm yanıtların yaklaşık yüzde 20’sinde güncel olmayan veya yanlış bilgi bulundu.

Şirketler: “Geliştirmeye devam ediyoruz”

Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtti. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen, yapay zekânın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini daha önce açıklamıştı.

Perplexity, “Derin Araştırma” (Deep Research) modunun yüzde 93,9 doğruluk oranına sahip olduğunu iddia ediyor.

Hatalı örnekler dikkat çekti

Araştırmada, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı.

Çalışmaya, Kanada’dan CBC/Radio-Canada da dâhil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.

“Güven erozyonu demokrasiyi zayıflatabilir”

EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yaptığı açıklamada, “İnsanlar neye güveneceklerini bilmediklerinde hiçbir şeye güvenmemeye başlıyorlar. Bu da demokratik katılımı caydırabilir.” dedi.

EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, “Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır.” ifadelerini kullandı.

REKLAM ALANI
Yorumlar

Bir Cevap Yazın. Yorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.