Son Dakika
--:--:--

OpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

NewsGuard’a Göre Sora 2, Dezenformasyon Kampanyaları İçin Tehlikeli Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini gösterdi. NewsGuard’a göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor. Dakikalar İçinde Sahte Videolar Üretme Yeteneği Araştırmacılar, Sora 2’yi kullanmaya başladıktan sadece birkaç dakika sonra Moldova’da bir seçim yetkilisinin Rusya yanlısı…

0 Yorum Yapıldı
Bağlantı kopyalandı!
OpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

NewsGuard’a Göre Sora 2, Dezenformasyon Kampanyaları İçin Tehlikeli

Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini gösterdi. NewsGuard’a göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor.

Dakikalar İçinde Sahte Videolar Üretme Yeteneği

Araştırmacılar, Sora 2’yi kullanmaya başladıktan sadece birkaç dakika sonra Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına alındığı ve Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği sahte videolar üretebildi.

OpenAI’nin Kabul Ettiği Güvenlik Riskleri

OpenAI, Sora 2’nin güvenlik risklerini resmi web sitesinde açıkça kabul etti. Şirket, modelin izinsiz benzerlik kullanımı veya yanıltıcı içerikler üretebileceğini belirtirken, minörleri içeren içeriklerde sıkı denetim uygulandığını ve güvenlik önlemlerinin kademeli olarak geliştirileceğini vurguladı.

Uzmanların Uyarıları

Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların son derece endişe verici olduğunu belirterek, sahte videoların gerçeği yalandan ayırmayı daha da zorlaştırdığını ifade etti. Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın artık bir deepfake aracı haline geldiğini söyleyerek, zararlı içerikleri engellemede yetersiz olduğunu vurguladı.

Filigranların Kaldırılabilirliği

OpenAI’nin eklediği filigran ve dijital imzanın kolayca kaldırılabildiğini belirten NewsGuard araştırmacıları, bu durumun etkisiz olduğunu ortaya koydu. Dijital medya güvenlik uzmanı Jason Crawforth, en gelişmiş filigranların bile basit işlemlerle silinebileceğini ve bu yöntemin kısa vadeli bir caydırıcı olabileceğini ifade etti.

Çözüm Önerileri

Güvenlik uzmanları, blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor. Ancak mevcut durumda, Sora 2’nin yüksek kalitede sahte videolar üretebilme yeteneği, gerçeklik algısının aşındığı yeni bir döneme işaret ediyor.

Yorum Yap

Benzer Haberler
DeepSeek Yapay Zeka V4 Modelini Tanıttı Otonom Kararlar Alabiliyor
DeepSeek Yapay Zeka V4 Modelini Tanıttı Otonom Kararlar Alabiliyor
OpenAI, Sağlık Profesyonelleri İçin ChatGPT for Clinicians’ı Duyurdu
OpenAI, Sağlık Profesyonelleri İçin ChatGPT for Clinicians’ı Duyurdu
iPhone 18 Pro’ya Değişken Diyaframlı Kamera Geliyor
iPhone 18 Pro’ya Değişken Diyaframlı Kamera Geliyor
Meta Yapay Zeka Modellerini Güçlendirmek İçin Yeni Eğitim Verileri Topluyor
Meta Yapay Zeka Modellerini Güçlendirmek İçin Yeni Eğitim Verileri Topluyor
Türksat 6A ile Türkiye Haberleşme Uydusu Tasarlayıp Üretebilen 11 Ülke Arasında
Türksat 6A ile Türkiye Haberleşme Uydusu Tasarlayıp Üretebilen 11 Ülke Arasında
Lenovo Yoga 7 Tablet ve Laptop Modellerinde 5000 TL’ye Varan İndirim
Lenovo Yoga 7 Tablet ve Laptop Modellerinde 5000 TL’ye Varan İndirim
Haberin Doğru Adresi
Gazete Demokrat

Tarafsız ve doğru habercilik anlayışıyla en güncel gelişmeleri sizlere sunuyoruz. Türkiye ve dünyadan son dakika haberleri, siyaset, ekonomi, teknoloji ve daha fazlası Gazete Demokrat’ta.

2025 Gazete Demokrat © Tüm hakları saklıdır. Seobaz Haber Teması