GazzeHamasDoğu TürkistanSon dakikaZulümTerme HaberTerme AjansenflasyonemeklilikTerörötvdövizakpchpmhp
DOLAR
41,9834
EURO
48,8256
ALTIN
5.531,89
BIST
10.551,34
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Çok Bulutlu
22°C
Samsun
22°C
Çok Bulutlu
Perşembe Çok Bulutlu
22°C
Cuma Az Bulutlu
25°C
Cumartesi Yağmurlu
20°C
Pazar Hafif Yağmurlu
20°C

OpenAInin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

OpenAInin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor
MOBİL REKLAM ALANI
23.10.2025 06:56
A+
A-

Araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu.

NewsGuard, oluşturulan yanlış videolardan beşinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini de belirtti.

Dakikalar içinde sahte ama inandırıcı videolar

Araştırmacılar, Sora 2’yi kullanmaya başladıktan yalnızca birkaç dakika içinde şu konularla ilgili sahte videolar üretebildi:

Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı,

ABD sınırında bir çocuğun gözaltına alındığı,

Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği.

NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabileceğini gösterdiğini vurguladı.

OpenAI riskleri kabul ediyor

OpenAI, Sora 2’nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Şirket, modelin “izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler” üretebileceğini, bu nedenle sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişi içeren görsellerin veya videoların yüklenmesinin yasaklandığını bildirdi.

Ayrıca, minörleri içeren içeriklerde sıkı denetim eşiği uygulandığı ve Sora 2’nin güvenlik önlemlerinin “kademeli olarak” geliştirileceği belirtildi.

OpenAI’ye göre model, önceki sürümlere kıyasla fiziksel gerçekçiliği, senkronize ses üretimini, yönlendirilebilirliği ve görsel çeşitliliği önemli ölçüde artırıyor.

Uzmanlar: “Sora artık bir deepfake aracı”

Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu söyledi:

“Zaten karmaşık bir bilgi ortamında yaşayan medya kullanıcıları için bu tür sahte videolar, gerçeği yalandan ayırmayı daha da zorlaştırıyor.”

Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın fiilen bir deepfake aracı olduğunu söyledi:

“Bu tür araçlar kişisel eğlence, profesyonel yapım ve kötüye kullanım için kullanılıyor. Sora’nın zararlı içerikleri engellemede yüzde 80 oranında başarısız olması ciddi bir tehlike işareti.”

Regula Forensics CEO’su Arif Mamedov da “Bu artık amatör sahte video üreticilerinin değil, herkesin kullanabileceği endüstriyel çapta dezenformasyon sistemlerinin çağı” dedi.

Filigranlar kolayca kaldırılabiliyor

OpenAI, Sora 2’nin ürettiği tüm videolara hem görünür filigran hem de C2PA dijital imza eklendiğini açıklasa da, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu gösterdi.

Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini belirten ekip, “Videoda sadece hafif bir bulanıklık kalıyor; sıradan bir izleyici fark etmez,” ifadesini kullandı.

Dijital medya güvenlik uzmanı Jason Crawforth, “En gelişmiş filigranlar bile kırpma, yeniden kodlama veya yeniden boyutlandırma gibi basit işlemlerle silinebiliyor,” diyerek bu yöntemin yalnızca “kısa vadeli bir caydırıcı” olabileceğini söyledi.

Uzmanlardan çözüm önerileri

Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor.

Ancak mevcut durumda, uzmanlara göre Sora 2’nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başlangıcına işaret ediyor.

MOBİL REKLAM ALANI
Yorumlar

Bir Cevap Yazın. Yorumlarınızı Önemsiyoruz! Görüşlerinizi bizimle paylaşmaktan çekinmeyin. Yazılarımız hakkında düşünceleriniz, katkılarınız ve sorularınız bizim için değerli. Yorum yaparken lütfen saygılı ve yapıcı bir dil kullanmaya özen gösterin. şiddet ve Argo, hakaret, ırkçı ifadeler ve ayrımcılık içeren yorumlara izin verilmez. Yorum yapmak için Web Sitemizde ya da Facebook hesabınızla kolayca giriş yapabilirsiniz. Unutmayın, burası birlikte konuşabileceğimiz temiz ve güvenli bir alan!

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.