DOLAR
42,55 0%
EURO
49,65 0%
ALTIN
5.768,64 0%
BITCOIN
3.890.844,16 0%

Yapay Zeka ve Deepfake: Sahte Görseller 'Yeni Nesil Silah'

Yapay zeka ile üretilen sahte fotoğraf, ses ve videoların seçimlerden çatışmalara kadar manipülasyon ve dolandırıcılık aracı haline geldiği uyarısı.

Yayın Tarihi: 18.08.2025 11:09
Güncelleme Tarihi: 18.08.2025 11:09

Yapay Zeka ve Deepfake: Sahte Görseller 'Yeni Nesil Silah'

Yapay zeka destekli sahte içerikler "yeni nesil silah" olarak kullanılıyor

Yapay zekayla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar, dünyada savaş alanlarından seçim meydanlarına kadar bilgi manipülasyonu ve dolandırıcılığın en etkili, en tehlikeli araçları haline geliyor.

Tehdit alanlarından çarpıcı örnekler

Sensity AI şirketinin araştırmaları, Rusya-Ukrayna Savaşı'nda Ukraynalı siyasetçi ve askerlerin deepfake videolarla "teslim olmaya çağıran" veya "savaş suçu işlediğini itiraf eden" kişiler gibi gösterildiğini ortaya koyuyor.

Tayvan'da seçim dönemlerinde Çin kaynaklı yapay zeka içeriklerinin politikacılara ait sahte konuşmalar, uydurma skandallar ve gaf izlenimi veren sahneler aracılığıyla sosyal medyada yayıldığı, bu içeriklerin karşıt adayları hedef aldığı bildiriliyor.

Japonya'da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurguların halkta panik yaratmak için kullanıldığı belirtiliyor.

Uzman uyarıları: Tanımak giderek zorlaşıyor

Sensity AI'nin kurucu ortağı Francesco Cavalli, AA muhabirine yaptığı açıklamada yapay zeka araçları geliştikçe neyin gerçek neyin olmadığına karar vermenin zorlaştığını vurguladı. Cavalli, yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu ve videolarda yapay göz kırpma ya da ağız hareketlerine bakılması gerektiğini söyledi.

Cavalli, "Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi." diye konuştu.

Manipülasyonun en büyük riski: Taklit sesler

Halihazırda en yüksek riskin yapay zekayla taklit edilen seslerde olduğu belirtiliyor. Haberde yer alan bir vakada yapay zeka kullanarak Dışişleri Bakanı Marco Rubio'yu taklit eden bir dolandırıcının, ABD'li siyasilerce yaygın kullanılan "Signal" mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurduğu aktarıldı.

Cavalli, ses taklidinin kullanımının kolay ve tespitinin gecikmeli olduğunu, bu yöntemle telefonda konuşulan kişinin güvenilen biri olduğuna inandırılmasının amaçlandığını belirtti. Midjourney ve Runway gibi araçların gelişmesiyle gerçek ile yapay arasındaki farkın tutarlı biçimde ayırt edilmesinin zorlaştığını söyledi ve "Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor." ifadesini kullandı.

Yayılma yolları ve amaçlar

Cavalli, "Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik." diyerek bu görsellerin genellikle sahte haber siteleri ve sosyal medyadaki reklamlarla yayıldığını anlattı.

Şirketin incelediği vakalar arasında Çin, Japonya ve Tayvan örneklerine atıfta bulunan Cavalli, "Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır." değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği çağrısı

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçme çağrısı yapılıyor. Platformların konuya odaklandığı ancak çoğunun yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı vurgulanıyor.

Cavalli, "Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart." dedi. Ayrıca içeriklerin sadece etiketlenmesinin yeterli olmadığını, kullanım şekli ve bağlamının belirleyici olduğunu söyledi.

Adli analiz ve farkındalık

Sensity'nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecine dayanıyor. Bu analizlerin raporları resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin azaldığına dikkat çekerek insanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi gerektiğini, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğini vurguladı ve sözlerini "Görmek artık inanmak demek olmayacak." diyerek tamamladı.