Ara

Işıktaki Gizli Kodlar: Sahte Videolarla Mücadelede Yeni Silah Teknoskop’ta!

Günümüzde video manipülasyonu giderek kolaylaşırken, gerçekle kurguyu ayırt etmek de bir o kadar zorlaşıyor. Ancak Teknoskop olarak, bu teknolojik yarışta önemli bir gelişmeyi sizlere duyurmaktan mutluluk duyarız. Cornell Üniversitesi'nde görevli bilim insanları, ışık dalgalanmalarına gizli bir "filigran" yerleştiren yeni bir yazılım geliştirdi. Bu sayede, bir videonun ne zaman manipüle edildiği ortaya çıkarılabiliyor.

Araştırmacılar, bu çığır açan çalışmayı geçtiğimiz günlerde Vancouver'da düzenlenen SIGGRAPH 2025 etkinliğinde tanıttı ve haziran ayında ACM Transactions on Graphics dergisinde bilimsel bir makale yayımladı.

Cornell Üniversitesi'nden araştırmacılardan biri, bu fikrin ilk sahibi olan yetenekli isim, “Video bir zamanlar doğruluk kaynağı olarak görülüyordu, ancak artık bu varsayımı yapamayız” diyor. “Artık istediğiniz her türlü videoyu oluşturabilirsiniz. Bu eğlenceli olabilir, ancak aynı zamanda sorunlu çünkü gerçek olanı ayırt etmek giderek zorlaşıyor.”

Araştırmacılara göre, video sahtekarlığıyla insanları kandırmak isteyenler temel bir avantaja sahip: Gerçek video görüntülerine kolayca erişebiliyorlar ve aynı zamanda gelişmiş, düşük maliyetli düzenleme araçları da oldukça yaygın. Bu araçlar, büyük veri kümelerinden hızla öğrenerek sahte görüntüleri gerçeklerinden ayırt edilemez hale getiriyor. Şu ana kadar bu alandaki ilerlemeler, sorunu çözmek için geliştirilen yeni adli tekniklerin gelişimini geride bırakmış durumda. Etkili bir adli teknik, sahtekarların sahip olmadığı ve kamuya açık eğitim verilerinden öğrenilemeyecek bilgilere sahip olmalıdır.

Dijital filigran teknikleri bilgi asimetrisinden faydalanarak iyi sonuçlar verse de, araştırmacılar bu araçların çoğunun diğer istenen özelliklerde yetersiz kaldığını belirtiyor. Diğer yöntemler, kayıt yapan kameranın kontrolünü veya orijinal, manipüle edilmemiş videoya erişimi gerektirebilir. Örneğin bir sağlama toplamı, bir video dosyasının değiştirilip değiştirilmediğini belirleyebilirken, standart video sıkıştırması ile sanal nesneler ekleme gibi kötü niyetli bir eylem arasındaki farkı ayırt edemez.

Işığın İçine Saklanmak

Daha önce aynı ekip, bir videonun manipüle edilip edilmediğini veya yapay zeka tarafından oluşturulup oluşturulmadığını anlamak için belirli piksellerde küçük değişiklikler yapmanın yolunu bulmuştu. Ancak bu başarı, videoyu oluşturan kişinin belirli bir kamerayı veya yapay zeka modelini kullanmasına bağlıydı. Yeni geliştirdikleri "gürültü kodlu aydınlatma" (NCI) yöntemi, filigranları ışık kaynaklarının görünen gürültüsüne gizleyerek bu ve diğer eksiklikleri gideriyor. Küçük bir yazılım, bilgisayar ekranları ve belirli oda aydınlatmaları için bunu yapabilirken, hazır lambalar küçük bir eklenmiş bilgisayar çipiyle kodlanabiliyor.

Araştırmacılardan biri, “Her bir filigran, biraz farklı aydınlatma altında, manipüle edilmemiş videonun düşük çözünürlüklü, zaman damgalı bir versiyonunu taşıyor. Biz bunlara kod videoları diyoruz” diyor. “Birisi bir videoyu manipüle ettiğinde, manipüle edilen kısımlar bu kod videolarında gördüğümüzle çelişmeye başlıyor ve bu da değişikliklerin nerede yapıldığını görmemizi sağlıyor. Eğer biri yapay zeka ile sahte video oluşturmaya çalışırsa, ortaya çıkan kod videoları sadece rastgele varyasyonlar gibi görünüyor.” Filigran, gürültü gibi görünecek şekilde tasarlandığı için, gizli kodu bilmeden tespit etmek zordur.

Ekip, bu yöntemlerini geniş bir manipülasyon türüyle test etti: Örneğin, eğimli kesimleri, hızı ve ivmeyi değiştirmek, kompozitleme ve deepfake'ler. Teknikleri, insan algısı altındaki sinyal seviyeleri, özne ve kamera hareketi, kamera flaşı, farklı cilt tonlarına sahip insan özneler, farklı sıkıştırma seviyeleri ve iç-dış mekan ayarları gibi faktörlere karşı dayanıklı olduğunu gösterdi.

“Bir rakip, tekniğin kullanıldığını bilse ve kodları bir şekilde çözse bile, işleri hala çok daha zor” diyen araştırmacı, “Sadece tek bir video için ışığı taklit etmek yerine, her kod videosunu ayrı ayrı taklit etmek zorunda kalırlar ve bu taklitlerin hepsinin birbiriyle uyumlu olması gerekir.” Bu durumun önemini vurgulayan araştırmacı, “Bu önemli ve devam eden bir sorun. Ortadan kalkmayacak, hatta daha da zorlaşacak” şeklinde ekliyor.

Önceki Haber
ABD'den Çin Hamlesi: Chip Satışlarından %15 Vergi Geliyor!
Sıradaki Haber
ABD'den Çin'e Yapay Zeka Hamlesi: NVIDIA ve AMD Gelir Paylaşacak, Daha Az Güçlü Çipler Yolda!

Benzer Haberler: