Mona Lisa’nın “konuşturulduğu” yapa zeka temelli “Deepfake” teknolojisinin, sinema bölümünde işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip düzmece görüntüler üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
AA muhabirinin derlediği bilgilere nazaran, son günlerde ismi sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz sözlerini kullanan geçersiz görüntüler üretilmesine imkan sağlıyor, bunun yanı sıra rastgele bir görüntüdeki konuşmayı değiştirip düzenleyebiliyor.
Farklı yapay zeka sistemleri kullanılarak görüntüler elde edilen kelam konusu teknoloji, rastgele bir görüntüdeki konuşmacının söylediklerinin çarçabuk değiştirilmesine müsaade veriyor. Konuşmaya yeni kelamlar eklenip çıkarılabilen programla, rastgele bir görüntüdeki konuşmanın değiştirilmesinin, bir yazının ya da sözün kopyalanıp yapıştırılması kadar kolay hale geldiği tez ediliyor.
Sinema ve televizyon kesiminde kullandığında, yanılgı yapılan bir diyaloğun yine çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, berbat niyetli şahısların kullanımı açısından bakıldığında ise değerli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.
ALGI İDARESİ YAPILABİLİR
“Deepfake” teknolojisi hakkında AA muhabirine değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Lideri Rahmi Aktepe, kelam konusu teknolojinin, görüntülerin manipüle edilmesinde ve düzmece görüntüler üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, “Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı idaresi gayesiyle kullanılabilir.” dedi.
Aktepe, kimi ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, “ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır.” sözlerini kullandı.
İnsanların hayatını kolaylaştırmak, iş süreçlerinin düzgünleştirmek emeliyle geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne üzere ziyanlar verebileceğine “Deepfake” teknolojisinin güzel bir örnek olduğunu savunan Aktepe, “Söz konusu teknik, imaj sürece ve sinema kesimine yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından makûs emeller için, yani etik dışı olarak yaygın bir biçimde kullanılmaktadır.” değerlendirmesinde bulundu.
Aktepe, bireylere özgün imaj ve ses işleyebilme özelliği sayesinde kelam konusu teknolojinin sinema ve televizyon kesiminde maliyet faal olarak kullanılmaya başlandığına lakin etik dışı kullanıma yönelik birtakım riskleri de barındırdığına da dikkati çekti.
“Deepfake”in siber zorbalık gayesiyle kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber akınlarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, “Söz konusu teknolojinin toplumlarda algı idaresi ile kaos yaratılması ve toplumsal olayların tetiklenmesi maksadıyla da kullanılabileceğini kıymetlendiriyoruz.” sözlerini kullandı.
ÜNLÜLER HAYATA DÖNDÜRÜLDÜ
Samsung’un Moskova’daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip uydurma görüntü elde etme teknolojisi geliştirildiği duyurulmuştu.
“Deepfake” teknolojisiyle Mona Lisa’nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein üzere ünlü isimlerin de fotoğraflarını görüntü haline getirerek YouTube’da yayınlamıştı.