Son Dakika
--:--:--

OpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

NewsGuard’a Göre Sora 2, Dezenformasyon Kampanyaları İçin Tehlikeli Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini gösterdi. NewsGuard’a göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor. Dakikalar İçinde Sahte Videolar Üretme Yeteneği Araştırmacılar, Sora 2’yi kullanmaya başladıktan sadece birkaç dakika sonra Moldova’da bir seçim yetkilisinin Rusya yanlısı…

0 Yorum Yapıldı
Bağlantı kopyalandı!
OpenAI’nin Sora 2 modeli, yüzde 80 oranında sahte videolar üretiyor

NewsGuard’a Göre Sora 2, Dezenformasyon Kampanyaları İçin Tehlikeli

Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini gösterdi. NewsGuard’a göre, oluşturulan yanlış videoların beşte biri Rusya kaynaklı dezenformasyon operasyonlarından geliyor.

Dakikalar İçinde Sahte Videolar Üretme Yeteneği

Araştırmacılar, Sora 2’yi kullanmaya başladıktan sadece birkaç dakika sonra Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına alındığı ve Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği sahte videolar üretebildi.

OpenAI’nin Kabul Ettiği Güvenlik Riskleri

OpenAI, Sora 2’nin güvenlik risklerini resmi web sitesinde açıkça kabul etti. Şirket, modelin izinsiz benzerlik kullanımı veya yanıltıcı içerikler üretebileceğini belirtirken, minörleri içeren içeriklerde sıkı denetim uygulandığını ve güvenlik önlemlerinin kademeli olarak geliştirileceğini vurguladı.

Uzmanların Uyarıları

Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların son derece endişe verici olduğunu belirterek, sahte videoların gerçeği yalandan ayırmayı daha da zorlaştırdığını ifade etti. Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın artık bir deepfake aracı haline geldiğini söyleyerek, zararlı içerikleri engellemede yetersiz olduğunu vurguladı.

Filigranların Kaldırılabilirliği

OpenAI’nin eklediği filigran ve dijital imzanın kolayca kaldırılabildiğini belirten NewsGuard araştırmacıları, bu durumun etkisiz olduğunu ortaya koydu. Dijital medya güvenlik uzmanı Jason Crawforth, en gelişmiş filigranların bile basit işlemlerle silinebileceğini ve bu yöntemin kısa vadeli bir caydırıcı olabileceğini ifade etti.

Çözüm Önerileri

Güvenlik uzmanları, blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor. Ancak mevcut durumda, Sora 2’nin yüksek kalitede sahte videolar üretebilme yeteneği, gerçeklik algısının aşındığı yeni bir döneme işaret ediyor.

Yorum Yap

Benzer Haberler
Sam Altman’ın Evine İkinci Saldırı İki Gün İçinde Gerçekleşti
Sam Altman’ın Evine İkinci Saldırı İki Gün İçinde Gerçekleşti
Yapay Zeka Veri Merkezleri Güneydoğu Asya Su Kaynaklarını Zorluyor
Yapay Zeka Veri Merkezleri Güneydoğu Asya Su Kaynaklarını Zorluyor
Korku Filmi Severlere Müjde Jump Scare Uyarısı Yapan Yeni Uygulama Çıktı
Korku Filmi Severlere Müjde Jump Scare Uyarısı Yapan Yeni Uygulama Çıktı
Anthropic, Siber Güvenlik İçin Yeni Yapay Zeka Modeli Mythos’u Tanıttı
Anthropic, Siber Güvenlik İçin Yeni Yapay Zeka Modeli Mythos’u Tanıttı
Tesla Yeni Kompakt Elektrikli SUV Geliştiriyor Tedarikçilerle Görüşüldü
Tesla Yeni Kompakt Elektrikli SUV Geliştiriyor Tedarikçilerle Görüşüldü
Apple iPhone’lar İçin iOS 17.4.1 Güncellemesini Yayınladı
Apple iPhone’lar İçin iOS 17.4.1 Güncellemesini Yayınladı
Haberin Doğru Adresi
Gazete Demokrat

Tarafsız ve doğru habercilik anlayışıyla en güncel gelişmeleri sizlere sunuyoruz. Türkiye ve dünyadan son dakika haberleri, siyaset, ekonomi, teknoloji ve daha fazlası Gazete Demokrat’ta.

2025 Gazete Demokrat © Tüm hakları saklıdır. Seobaz Haber Teması