GazzeHamasDoğu TürkistanSon dakikaZulümTerme HaberTerme AjansenflasyonemeklilikTerörötvdövizakpchpmhp
DOLAR
42,0611
EURO
48,5574
ALTIN
5.413,42
BIST
10.971,52
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Az Bulutlu
18°C
Samsun
18°C
Az Bulutlu
Perşembe Açık
20°C
Cuma Az Bulutlu
22°C
Cumartesi Parçalı Bulutlu
20°C
Pazar Az Bulutlu
18°C

Yapay zeka bencil davranmayı öğreniyor

Yapay zeka bencil davranmayı öğreniyor
REKLAM ALANI
01.11.2025 09:34
A+
A-

Üniversitenin İnsan-Bilgisayar Etkileşimi Enstitüsü (HCII) tarafından yürütülen çalışmada, mantık yürütme yeteneğine sahip büyük dil modellerinin (LLM), işbirliği düzeyi düşük ve grup davranışlarını olumsuz etkileyen eğilimler geliştirdiği tespit edildi.

Araştırmayı yürüten doktora öğrencisi Yuxuan Li, “AI insan gibi davranmaya başladığında, insanlar da onu insan gibi görmeye başlıyor. Bu noktada, duygusal bağ kurmak veya ona sosyal kararları devretmek tehlikeli hale geliyor” dedi.

HCII’den Doç. Dr. Hirokazu Shirado ise, “Daha akıllı modellerin daha az iş birlikçi olduğunu gözlemliyoruz. İnsanlar genellikle daha zeki sistemleri tercih ediyor ama bu tercih, bencil davranışları ödüllendirebilir” ifadelerini kullandı.

Deney: ‘Mantıklı’ modeller paylaşmaktan kaçındı

Araştırmacılar, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen modelleri ekonomik oyunlar aracılığıyla test etti. “Kamu Malları Oyunu” adlı deneyde her modele 100 puan verildi ve bu puanları ortak havuza bağışlayıp paylaşma ya da kendine saklama seçenekleri sunuldu.

Sonuçlar çarpıcıydı:

Mantık yürütmeyen modellerin yüzde 96’sı puanlarını paylaştı.

Mantık yürüten modellerin yalnızca yüzde 20’si paylaşımı tercih etti.

Shirado, “Sadece birkaç adımlık mantık eklemek bile işbirliğini yarı yarıya azalttı. ‘Düşünme ve yansıtma’ temelli ahlaki değerlendirmeler bile işbirliğinde %58 düşüşe yol açtı” dedi.

Bencillik bulaşıcı hale geliyor

Ekip, çoklu model gruplarını test ettiğinde, mantık yürüten modellerin bencil davranışlarının diğerlerini de etkilediğini gördü. Bu durum, grup genelinde işbirliği performansını %81 oranında düşürdü.

Li, “Zekâ artışı, toplumsal açıdan daha iyi bir model ortaya çıkaracağı anlamına gelmiyor” derken, Shirado da “Ahlaki yansıma, toplumsal sorumlulukla aynı şey değil” ifadelerini kullandı.

“Toplumsal zeka da geliştirilmeli”

Araştırmacılara göre, insanların yapay zekâya giderek daha fazla güvenmesi, bu eğilimi tehlikeli hale getiriyor. Li, “Eğer toplum bireylerin toplamından fazlasıysa, onu destekleyen yapay zekâ sistemleri de sadece bireysel çıkarı değil, toplumsal faydayı da optimize etmelidir” diye vurguladı.

Araştırma, Carnegie Mellon Üniversitesi Bilgisayar Bilimleri Fakültesi tarafından yayımlandı.

REKLAM ALANI
Yorumlar

Bir Cevap Yazın. Yorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.