GazzeHamasDoğu TürkistanSon dakikaZulümTerme HaberTerme AjansenflasyonemeklilikTerörötvdövizakpchpmhp
DOLAR
42,4454
EURO
49,4326
ALTIN
5.797,43
BIST
11.107,38
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Az Bulutlu
18°C
Samsun
18°C
Az Bulutlu
Pazartesi Yağmurlu
15°C
Salı Parçalı Bulutlu
15°C
Çarşamba Az Bulutlu
15°C
Perşembe Çok Bulutlu
16°C

Yapay zeka sohbet botlarının güvenlik önlemleri şiir diliyle aşılabiliyor

Yapay zeka sohbet botlarının güvenlik önlemleri şiir diliyle aşılabiliyor
REKLAM ALANI
01.12.2025 09:43
A+
A-

Icaro Labs tarafından yayımlanan ve “Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models” başlığını taşıyan çalışma, araştırmacıların klasik konuşma dili yerine şiir biçiminde yazılmış talimatlar vererek güvenlik filtrelerini devre dışı bırakmayı başarabildiğini gösterdi.

Araştırma, bu yöntemin sohbet botlarından yasaklı içerikler ve tehlikeli bilgiler elde edilmesini mümkün kılabildiğini ortaya koyuyor.

Yasaklı içeriklere erişim sağlandı

Araştırmacılar, Wired’ın aktardığına göre, kullandıkları şiirsel komutların detaylarını kamuoyuyla paylaşmadı. Ekibe göre bu komutların açıklanması son derece tehlikeli sonuçlara yol açabilir.

Laboratuvar, şiirsel komutların kullanılmasıyla sohbet botlarından nükleer bomba yapımı için adımlar ve malzemeler, çocuk istismarı içerikleri ve kendine zarar verme yöntemleri gibi kesinlikle yasak bilgiler elde edilebildiğini bildirdi.

Popüler yapay zeka sistemleri üzerinde test

Araştırma ekibi, yöntemi OpenAI’nin ChatGPT’si, Google’ın Gemini’si, Anthropic’in Claude’u ve diğer büyük modeller üzerinde denedi.

Sonuçlara göre:

Google Gemini, DeepSeek ve MistralAI gibi modeller, şiirsel komutlar karşısında en kolay manipüle edilebilen sistemler arasında yer aldı.

OpenAI’nin ChatGPT modeli (GPT-5) ve Anthropic’in Claude Haiku 4.5 modeli, güvenlik bariyerlerini en iyi koruyan sistemler olarak öne çıktı.

Yapay zeka güvenliği yeniden gündemde

Uzmanlar, bulguların yapay zekânın denetlenmesi ve güvenlik sistemlerinin geliştirilmesi konusunda acil ihtiyaç olduğunu gösterdiğini belirtiyor.

Şirketler, modellerinin tehlikeli içerik üretmesini engellemek için giderek daha gelişmiş güvenlik filtrelerine yatırım yapıyor.

REKLAM ALANI
Yorumlar

Bir Cevap Yazın. Yorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.