Mona Lisa’nın “konuşturulduğu” yapa zeka temelli “Deepfake” teknolojisinin, sinema kesiminde işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip uydurma görüntüler üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
AA muhabirinin derlediği bilgilere nazaran, son günlerde ismi sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz sözlerini kullanan uydurma görüntüler üretilmesine imkan sağlıyor, bunun yanı sıra rastgele bir görüntüdeki konuşmayı değiştirip düzenleyebiliyor.
Farklı yapay zeka sistemleri kullanılarak görüntüler elde edilen kelam konusu teknoloji, rastgele bir görüntüdeki konuşmacının söylediklerinin çarçabuk değiştirilmesine müsaade veriyor. Konuşmaya yeni kelamlar eklenip çıkarılabilen programla, rastgele bir görüntüdeki konuşmanın değiştirilmesinin, bir yazının ya da sözün kopyalanıp yapıştırılması kadar kolay hale geldiği argüman ediliyor.
Sinema ve televizyon kesiminde kullandığında, kusur yapılan bir diyaloğun yine çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, makus niyetli bireylerin kullanımı açısından bakıldığında ise değerli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.
“Algı idaresi hedefiyle kullanılabilir”
“Deepfake” teknolojisi hakkında AA muhabirine değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, görüntülerin manipüle edilmesinde ve düzmece görüntüler üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, “Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı idaresi hedefiyle kullanılabilir.” dedi.
Aktepe, kimi ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, “ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır.” sözlerini kullandı.
İnsanların hayatını kolaylaştırmak, iş süreçlerinin güzelleştirmek gayesiyle geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne üzere ziyanlar verebileceğine “Deepfake” teknolojisinin güzel bir örnek olduğunu savunan Aktepe, “Söz konusu teknik, imaj sürece ve sinema kesimine yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından makus gayeler için, yani etik dışı olarak yaygın bir halde kullanılmaktadır.” değerlendirmesinde bulundu.
Aktepe, bireylere özgün imaj ve ses işleyebilme özelliği sayesinde kelam konusu teknolojinin sinema ve televizyon bölümünde maliyet aktif olarak kullanılmaya başlandığına lakin etik dışı kullanıma yönelik birtakım riskleri de barındırdığına da dikkati çekti.
“Deepfake”in siber zorbalık emeliyle kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber ataklarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, “Söz konusu teknolojinin toplumlarda algı idaresi ile kaos yaratılması ve toplumsal olayların tetiklenmesi gayesiyle da kullanılabileceğini kıymetlendiriyoruz.” tabirlerini kullandı.
“Hayata döndürülen” ünlüler
Samsung’un Moskova’daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip uydurma görüntü elde etme teknolojisi geliştirildiği duyurulmuştu.
“Deepfake” teknolojisiyle Mona Lisa’nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein üzere ünlü isimlerin de fotoğraflarını görüntü haline getirerek YouTube’da yayınlamıştı.