YAPAY ZEKANIN GELİŞİMİ VE DEEPFAKE TEHDİTLERİ
Yapay zeka araçları her ay gelişim gösteriyor ve bu durum derin sahte (deepfake) tehditlerinin sayısını artırıyor. Yakın dönemde gerçekleşen komik bir örnek ise Fox News sunucusu Laura Ingraham’ın Beyaz Saray’da Donald Trump’la gerçekleştirdiği bir röportajda ortaya çıktı. Videoda Trump’ın Oval Ofis’teki perdeyi çekerek gururla Bitcoin’in teknik dokümanını çerçeveletip sergilediği görülüyor. Klip, “TRUMP LAURA’YA BITCOIN WHITEPAPER’INI GÖSTERİYOR” yazılı amatörce bir grafikle paylaşılmıştı ve videonun televizyonda yayımlandığını ima ediyordu. Bu özel deepfake’in amacının ne olduğu belirsiz; görünüşe göre finansal bir teşvik yok. Belki de bu bir çeşit hiciv denemesiydi. Ancak bu tür içerikler, kripto meraklılarının artık daha dikkatli olmalarını ve internette gördükleri içerikleri sorgulamalarını sağlıyor.
DEEPFAKE VİDEOLARINI TANIMAK İÇİN İPUÇLARI
Yapay zeka modelleri oldukça ikna edici videolar oluşturabiliyor ancak hâlâ hatasız değiller. Bu videoların zayıf noktalarından biri, insan yüz ifadelerini mükemmel taklit edememeleri. MIT uzmanları, bir videoyu izlerken yanaklara ve alnına dikkat etmenizi öneriyor. Eğer bu bölgeler çok pürüzsüz ya da aşırı kırışık görünüyorsa, bu şüpheli olabilir. Ayrıca göz kırpma sayısı da önemli; normalden fazla veya az göz kırpmak, yapay bir müdahaleye işaret edebilir. Dudak hareketleri de dikkate alınmalı; doğal olmayan bir hareket, söylenen kelimelerin başka bir ses kaydından eklenmiş olabileceğini gösteriyor. Bu ipucunun genel olarak kripto dolandırıcılıklarına işaret eden kırmızı bayraklarla bağlantısı bulunuyor.
GÜVENİLİR KAYNAKLARLA DOĞRULAMA
Elon Musk veya Michael Saylor gibi tanınmış isimlerin yatırım fırsatlarını tanıttığı bir video izliyorsanız, kendinize şu soruyu sorun: Gerçekten böyle abartılı vaatler veren bir videoda yer alırlar mıydılar? McAfee’nin yaptığı çarpıcı araştırmaya göre, ortalama bir Amerikalı günde yaklaşık üç deepfake videosuyla karşılaşıyor. Durumu kötüleştiren bir diğer unsur ise hacker’ların ünlü isimlerin X (eski adıyla Twitter) hesaplarını ele geçirip token pazarlaması yapması. Eğer bir deepfake videosunun gerçek olabileceğini düşünüyorsanız, iddiaları doğrulamak için araştırma yapmak faydalı olabilir. Genellikle önemli bir kripto figürünün videosu, Cryptonews gibi güvenilir haber sitelerinde yer bulacaktır. Gazetecilerin görüntülerin gerçekliğini doğrulayarak doğrulamadığını kontrol etmek önemli. Eğer video içeriğini destekleyen haberler yoksa, bu durum videonun sahte olabileceğini gösteriyor.
SOSYAL MEDYADA UYARI SİSTEMLERİ
X ve Facebook üzerinde topluluklar, deepfake videolarını fark ettiklerinde genellikle “Topluluk Notları” gibi sistemlerle uyarılarda bulunuyorlar. Ancak bu uyarıların yayılması bazen zaman alabiliyor. Bir diğer yedek plan, videonun altındaki yorumlara göz atmaktır. Kullanıcılar genellikle videoda yapay zekanın kötüye kullanımı hakkında bilgi veriyor. Deepfake videolarının bazı görsel ipuçları veriyor olması bize yardımcı olsa da, manipüle edilmiş seslerin tespit edilmesi daha zordur. Sesin tonunu incelemek burada önemli. Konuşma, normalde olduğundan daha düz, duygusuz ve yapay gelebilir. Yapay zeka ile üretilen sesler genellikle cümleler arasındaki nefes alma seslerini kaldırır ve bu, son derece yapay bir his yaratır.
FARKINDALIK VE KAYIPLAR
Deepfake videolarının doğurabileceği riskler konusunda farkındalık artırmak hayati önem taşıyor. Bir adam, İngiliz bir ünlünün manipüle edilmiş bir videosunu izledikten sonra 35 bin dolar kaybetti; sahte bir kripto borsasına tüm birikimlerini yatırması için kandırılmıştı. “Para tasarrufu uzmanı” olarak tanınan gazeteci Martin Lewis, bu tür videoların artışını “korkutucu” olarak değerlendirdi ve kamuoyunu korumak adına hükümet ve düzenleyici kurumları acil olarak harekete geçmeye çağırdı. Kripto projeleri de bu tehdide karşı savunmasız kalabiliyor. Hacker’lar, Binance’in eski strateji direktörü Patrick Hillman’ı taklit ederek bazı projeleri hedef almayı başardı. Deepfake’ler, geçmiş televizyon röportajlarından ve konferans görüntülerinden faydalanarak diğer yüksek düzeydeki yöneticileri taklit etmeye devam ediyor.