enflasyonemeklilikötvdövizakpchpmhp
DOLAR
38,6329
EURO
43,7913
ALTIN
4.149,90
BIST
9.228,57
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Az Bulutlu
27°C
Samsun
27°C
Az Bulutlu
Cuma Hafif Yağmurlu
20°C
Cumartesi Yağmurlu
14°C
Pazar Çok Bulutlu
16°C
Pazartesi Çok Bulutlu
15°C

OpenAInin son yapay zekaları halüsinasyonlar görmeye başladı

OpenAInin son yapay zekaları halüsinasyonlar görmeye başladı
REKLAM ALANI
08.05.2025 07:48
1
A+
A-

Yapay zeka sohbet robotları (chatbotlar) ilk ortaya çıktığından bu yana, yanıltıcı bilgiler ya da “halüsinasyonlar” sürekli bir sorun olmuştur.

Her yeni modelde, bu halüsinasyonların azalması beklenmişti. Ancak, OpenAI’nin son bulguları, bunun tersine, halüsinasyonların daha da arttığını gösteriyor.

Bir kamu figürleri testinde, GPT-o3, yanıtlarının yüzde 33’ünde yanlış bilgiler verdi; bu oran, önceki model GPT-o1’in hata oranının iki katı. Daha kompakt olan GPT o4-mini ise daha da kötü bir performans sergileyerek %48 oranında yanıltıcı bilgi üretti.

Yapay zeka çok mu düşünüyor?

Önceki modeller, akıcı metinler üretmekte oldukça başarılıydı, ancak o3 ve o4-mini, insan mantığını taklit etmek amacıyla adım adım düşünme programlamasıyla geliştirildi.

Ironik bir şekilde, bu yeni “düşünme” tekniği, sorunun kaynağı olabilir. Yapay zeka araştırmacıları, ne kadar fazla düşünme yaparsa, modelin yanlış yola sapma olasılığının o kadar arttığını belirtiyor.

Yüksek güvenli yanıtlara sahip eski sistemlerin aksine, bu yeni modeller karmaşık kavramlar arasında köprü kurmaya çalışırken yanlış ve tuhaf sonuçlara ulaşabiliyor.

Daha gelişmiş yapay zeka modelleri neden daha az güvenilir oluyor?

OpenAI, yapay zeka halüsinasyonlarındaki artışı, doğrudan düşünme biçimiyle değil, modellerin anlatımındaki kelime bolluğu ve cesaretle ilişkilendiriyor. Yapay zeka, faydalı ve kapsamlı olmaya çalışırken bazen tahminlerde bulunuyor ve teoriyi gerçekle karıştırabiliyor. Sonuçlar son derece ikna edici olabiliyor, ancak tamamen yanlış olabiliyor.

Yapay zeka halüsinasyonlarının gerçek dünya riskleri

Yapay zeka, hukuki, tıbbi, eğitim veya devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Bir mahkeme belgesinde ya da tıbbi raporda yanıltıcı bir bilgi, felakete yol açabilir.

Günümüzde ChatGPT nedeniyle avukatlar, uydurulmuş mahkeme alıntıları sağladıkları için yaptırımlara uğradılar. Peki ya bir iş raporunda, okul ödevinde veya devlet politikası belgesinde yapılan küçük hatalar?

Yapay zeka ne kadar hayatımıza entegre olursa, hata yapma olasılığı o kadar azalır. Ancak paradoks şudur: Ne kadar faydalı olursa, yapacağı hataların tehlikesi de o kadar büyür.

REKLAM ALANI
Yorumlar

Bir Cevap YazınYorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.