Gonca Kocabaş / Milliyet.com.tr – Birleşik Krallık’taki Lancaster Üniversitesi ve ABD’deki Kaliforniya Üniversitesi’nden araştırmacılar, yapay zekânın tasarladığı insan yüzlerinden bir deney tasarladı. Geçtiğimiz günlerde sonuçları açıklanan araştırmanın sonuçları ise uzmanları tasaya düşürdü. Çalışmalar, yapay zekâ ile oluşturulan bir yüz ile gerçek yüz ortasında fark bulunmadığını gözler önüne seriyor. Araştırmanın en kaygı verici yanı ise, yapay zekâ tarafından oluşturulan uydurma yüzlerin gerçek insanların yüzlerinden daha emniyetli göründüğünü ortaya koyması oldu. Araştırma sonucuna nazaran bu yüzlerin son derece gerçekçi olmakla kalmayıp, birebir vakitte gerçek yüzlerden neredeyse ayırt edilemez olduğuna, hatta daha muteber olduklarına karar verildi.
Birinci deneyde 315 iştirakçiye, 128 gerçek ve uydurma olan yüz ortasından yanlışsız olanları bulmaları istendi. Sonuç olarak iştirakçilerin doğruluk oranları yüzde 48 olarak belirlendi. İkinci bir deneyde, 219 yeni iştirakçi gerçek ve yapay zekâ tarafından oluşturulan yüzler konusunda eğitilirken, yüzlerin nasıl sınıflandırılacağı konusunda da bilgilendirilmelerde bulunuldu. Eğitimli olan ikinci takımın de doğruluk oranı yüzde 59 çıktı. Lakin ortada çok büyük bir fark olmaması eğitimli şahıslarında çarçabuk kandırılabileceğini gösteriyor. Çalışmada üçüncü bir deney daha yapıldı. Bu sefer 223 iştirakçiden 128 yüzün muteber ve güvenilmez halinde oylanması istendi. Geçersiz yüzler gerçek yüzlerden ortalama 8 puan daha sağlam bulundu. Ortadaki fark küçük görünse de uzmanlar istatiksel olarak önemli bir oran olduğunu düşünüyor.

BAYANLAR ERKEKLERDEN DAHA MUTEBER
Siyah yüzler, Güney Asyalı yüzlerden daha muteber olarak değerlendirildi lakin bunun dışında ırklar ortasında rastgele bir tesir olmadı. Bununla birlikte bayanlar erkeklerden kıymetli ölçüde daha sağlam olarak derecelendirildi. Araştırmacılar, yüzlerin gülümseyip gülümsemediğinin sonuçları etkilemediğini de sav ediyor. “Gülümseyen bir yüzün muteber olarak kıymetlendirilmesi daha mümkündür, fakat gerçek yüzlerin yüzde 65,5’i ve yapay yüzlerin yüzde 58,8’i gülümsüyor. Bu nedenle yüz tabiri tek başına yapay yüzlerin neden daha sağlam olarak derecelendirildiğini açıklayamaz” diyorlar.
Yapay zekâ, internet dünyası içerisinde anonim olarak erişilebilen tüm yüzlerin kontrollerini yaparak, bir algoritma ile oluşturduğu yüzlerin gerçekliğini sorguluyor. Yapay zekâ şayet var olan paylaşım ağlarında misal bir yüz ile karşılaşmaz ise kendi yarattığı uydurma yüzün doğruluğuna yani hiç var olmadığına kanaat getiriyor. Bu teknoloji reklamcılıktan sinema bölümüne kadar Deep Fake teknolojileri ile birleştirilerek kullanılabiliyor. Altyapı olarak kullandığı teknolojinin ismi makine öğrenme temelli GAN (Generative Adversarial Network). Yapay zekâ eğitim setleri ile öğreniyor, ayrıyeten yeni fotoğraflar, karakterler, ortamlar ve insan görünümleri yaratabiliyor.
‘YAKALANMA RİSKİ OLMAYAN İNSAN YARATMAK İMKÂNSIZ DEĞİL’
“Siber dolandırıcılık, kara para aklama, yasaklı unsur ticareti, kaçakçılık üzere faaliyetlerde kullanılabilecek ve yakalanma riski olmayan bir insan yaratılması bu teknolojiyle katiyetle imkânsız görünmüyor” diyen Siber Güvenlik Uzmanı Osman Demircan, Metaverse evrenlerinin hayatımıza girmesiyle de büyük bir değişimin başladığına işaret etti.

DEEPFAKE SAYESİNDE KAYBETTİĞİ KIZINA VEDA ETTİ
Deep Fake teknolojileri günümüzde bilgisayarlar ve yazılım teknolojilerinin gelişmesi ve yapay zekânın da dayanağı ile çok farklı bir noktaya geldi. Kendini sinemalarda ve reklamlarda daha çok gösteriyor olsa da Güney Kore’de yaşanan olay, bu üslup teknolojilerin yeterli şeyler için kullanılabileceğini unutmamamız gerektiğini bizlere hatırlatıyor. 2016 yılında 7 yaşındaki kızını kaybeden bir anne Deep Fake teknolojileri ve sanal gerçeklik gözlükleri sayesinde kızıyla tekrar karşılaşabildi ve anne böylece kızına veda etme bahtı bulmuş oldu. Bu hayli âlâ bir örnek olsa da başta dolandırıcılık ve toplumsal ayaklanma üzere bahislerde da kullanılma mümkünlüğünün çok yüksek olduğunun altını çizen Osman Demircan, geçtiğimiz yıllarda hack’lenen toplumsal medya platformu Twitter’da ülke başkanları ve karar otoritelerinin mavi tikli doğrulanmış hesaplarının ele geçirildiğini lisana getirdi.
Demircan, “Deep Fake teknolojileri kullanılarak hesabı ele geçirilen bir devlet liderinin hesabından halkı galeyana geçirici ve iç ayaklanma çıkmasına neden olabilecek bildiri yayınlanabilirdi. Toplumsal medya kullanıcılarının doğruluk kriteri olarak doğrulanmış bir hesabı görmesi ve Deep Fake ile, gerçek imajı ile bu önderlerin konuşma yapması taraftarlarını sokağa dökebilirdi. Bu durum hâlâ ağır risk teşkil etmekte” diye konuştu.

UYDURMA SES İLE 35 MİLYON DOLAR ÇALINDI
Deep Fake teknoloji olarak yalnızca görselliği ve hareketleri teğe bir kopyalamıyor. Bunların yanında ses de bu teknolojileri kullanılarak kopyalanabiliyor. Geçtiğimiz yıl Birleşik Arap Emirlikleri’nde Deep Fake ile oluşturulmuş geçersiz ses ile 35 milyon dolar çalınmasına da değinen Osman Demircan, “Banka yetkilileri ve yöneticisi geçmişte tekraren gerçek hesap sahibiyle görüştükleri sesi tanıdıkları için güvenmişlerdi. Sonuç olarak 35 milyon dolar buhar oldu. Burada en değerli husus sesi taklit etmenin yanında dolandırıcının nitekim taklit ettiği kişinin ses mimikleri ile de konuşabilmesi. Bu da hesap sahibinin dolandırıcıların amacına çok evvelce takıldığı ve telefon konuşmalarının dinlendiği sonucunu çıkartıyor. Tek bir teknoloji bu üzere durumlarda hatalı olmuyor. Birçok teknoloji birleşerek dolandırıcılıklar gerçekleştiriliyor” dedi.
İlerleyen günlerde yüz tanıma sistemlerinin hacklenmesi, ses doğrulama ile yapılan finans süreçleri ya da olayla hiçbir alakası olmadığı halde güvenlik kamerasından elde edilen manzaranın Deep Fake ile yüz montajının yapılmasından sonra iftira atılması üzere olaylarla müsabaka ihtimalimizin yüksek olduğunu söyleyen Osman Demircan, alınabilecek tedbirler hakkında da bilgiler verdi.
‘VESİKALIK KALİTESİNDEKİ FOTOĞRAFLARINIZI PAYLAŞMAYIN’
Bu çeşit dolandırıcılıklardan korunmak için kesinlikle fiziki doğrulamaya gereksinimimizin olduğunu, bilhassa para transferi üzere hususlarda muhatabıyla bağlantıda olunması gerektiğini ve KVKK kurallarına uygun bir formda doğrulama sağlanmasının değerli olduğunu vurgulayan Osman Demircan, “Bunun yanında ferdi olarak ticaret yerine kurumsal ticaret tercih edilmeli. Örneğin toplumsal medya üzerinde hesabı olan lakin hiç var olmamış bir geçersiz bir yüz kullanan hesap bizi dolandırabilir. Bu üslup ticaretlerde kurumsal firmalar tercih edilmeli. Bunun yanında yapay zekâ teknolojileri bizim yüzümüzü de kopyalayabilir ve bir hatanın modülü olarak gösterebilir. Bu üzere durumlardan kaçınmanın en sağlıklı yolu vesikalık kalitesinde fotoğraflarımızı toplumsal medyada paylaşmamak olacaktır. Net fotoğraflar ile yapay zekânın yüzümüzü Deep Fake teknolojilerine taşıması imkansız olmayacak” diyerek ileride karşılaşabileceğimiz bu üzere problemlerden nasıl korunacağımızı anlattı.
Marmara Üniversitesi İrtibat Fakültesi Görsel İrtibat Tasarımı Anabilim Kolu Lideri ve Dijital Bağlantı Araştırmacısı Doç. Dr. Ali Murat Kırık, “Siyasi yahut iktisadi maksatlar için dezenformasyon kampanyalarında kullanılması mümkün olan bu teknoloji birebir vakitte şantaj için uydurma görüntülerinin yaratılması fonksiyonunu de taşıyabiliyor” diyerek işin ürkütücü boyutuna dikkat çekti. Görüntülerin ve görsellerin ayırt edilemeyecek kadar benzeri bir yapıda olmasının bilhassa topluma mal olmuş ünlü isimleri zan altında bırakabileceğinin altını çizen Doç. Dr. Ali Murat Kırık, deepfake ismini verdiğimiz derin geçersizlik teknolojisinin dijital seçim kampanyalarında bir silah olarak da kullanılabileceğine vurgu yaptı.

‘YAKIN GELECEKTE BİRÇOK İNSANIN BAŞINI AĞRITACAK’
Kırık, “Eğlence maksatlı kullanılan bu teknoloji gelecek yıllarda makûs ellerde büyük bir tehdit halini alabilme potansiyeline sahip” diyerek kelamlarını şöyle sürdürdü: “Bu teknolojinin kendisi yasal olsa da, birtakım makûs niyetli kullanımlar asla yasal değildir. Toplumsal paylaşım ağlarında bunların üretimini ve yayılmasını sınırlamak için bir dizi yasal, teknik tedbir almak günümüzde elzemdir. Çünkü tehdit ve şantaj içerikli fotoğraflar, görüntüler çok yakın gelecekte birçok insanın başını ağrıtacak üzere duruyor. Deepfake teknolojisi yalnızca birkaç yıl içinde inanılmaz bir yükseliş kaydetti. Deepfake algılama araçları gelişirken, deepfake içeriklerin yetenekleri de gelişiyor.”
‘DOLANDIRICILAR MAKSAT BİREYE HER ŞEYİ SÖYLETEBİLİR’
Kemal Sunal, Barış Manço, Bruce Willis üzere isimleri deepfake ile hazırlanmış reklam sinemalarında gördük ve gerçeğinden ayırt etmek mümkün olamadı. Başta eğlenceli gözüken bu teknolojinin tıpkı vakitte gelecek ismine da korkutucu olduğunu söyleyen Doç. Dr. Ali Murat Kırık, “Bu görüntüler aracılığıyla insanları kandırma ve dolandırma giderek kolay bir hal alacaktır. Obama ve Trump üzere Amerikan liderlerinin deepfake görüntüleri da toplumsal medyada adeta bir virüs üzere yayılmış ve birçok kullanıcı tarafından izlenmişti. Birinci olarak 2017’de ortaya çıkan derin uydurma görüntülerde, bilgisayar tarafından oluşturulan bir yüz öbür birinin üzerine bindirilir. Bu süreç sonrasında, dolandırıcılar amaç bireye çabucak hemen her şeyi söyletebilir yahut yaptırabilir” diye konuştu.

‘GÖZ KIRPMA HAREKETİNE ÇOK DİKKAT EDİLMELİ’
2020 yılında Güney Kaliforniya’da bir bayan, Amerika Birleşik Devletleri Deniz Harp Okulu müfettişini taklit etmek için ‘deepfake’ bir görüntü kullanarak onu kandıran kimliği meçhul bir dolandırıcı tarafından yaklaşık 300 bin dolar dolandırılmıştı. “Deepfake görüntülerini birinci bakışta anlamak güç olsa da gözlere dikkat etmek önemli” diyen Doç. Dr. Ali Murat Kırık, “Yapay olan göz hareketleri yahut göz kırpma olmaması üzere ayrıntılara dikkat etmek çok değerli. Çünkü göz kırpma hareketini doğal görünecek halde tekrarlamak zordur. Görüntüdeki kişinin söyledikleriyle jest ve mimikleri birbirini tutmuyorsa, doğal olmayan yüz tabirleri gösteriyorsa, dişler ve dudak yapay duruyorsa görüntüye kuşkuyla yaklaşmak son derece önemli” sözleriyle ikazda bulundu.