'Ses'li Tehlike
Yapay zekanin korkutan yanlarindan biri olan "deepfake" (derin sahte) teknolojisi, dolandiricilarin elinde hem vatandasi magdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatirim vaadi yalaniyla hazirladiklari videolari internet ortamina yayan dolandiricilar, vatandaslarin gerçeklik algisini hedef aliyor. Yapay zekanin ates ve biçak gibi oldugunu, birçok faydasi bulundugunu fakat kötü ellerde zarara sebebiyet verdigini söyleyen KOÜ Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarini anlatarak, önemli uyarilarda bulundu.

"Bilgisayarlara birtakim seyler ögreterek, karar vermesini sagliyoruz"
Kocaeli Üniversitesi (KOÜ) Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, hem hayat kurtaran hem de korkutan yapay zekanin tehlikeli yönüne iliskin bilgilendirmelerde bulunarak, vatandaslari uyardi. Yapay zekanin, bilgisayarin neredeyse bir insanmis gibi düsünmesine, eyleme geçmesine ve yanit vermesine imkan sagladigini ifade eden Doç. Dr. Mehmet Zeki Konyar, "Bilgisayarlarin düsünme kabiliyetleri yok. Aslinda biz bu bilgisayarlara birtakim seyler ögreterek, karar vermesini sagliyoruz. Mesela elma ve armutun fotografini gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden ’Bu elmadir’ ’Bu armuttur’ diyoruz ve birtakim matematiksel formüller ile bunlara ait özellikleri çikariyor. Bu özelliklerden sonra karar olusturuyor. Örnegin elmaya ve armuta dair özelliklerin neler olduguyla ilgili bir karar çikariyor. Bundan sonra gösterdigimiz elma ve armuta bakip, ’Bu elmadir’ ’Bu armuttur’ diyerek karar veriyor" dedi.
"Tüm varyasyonlari biliyor"
Günümüzde yapay zekanin çok ilginç bir hal almaya basladigini söyleyen Konyar, pandemiden sonra yeni yazilimlar çiktigini belirtti.
Sohbet robotlarindan, deepfake teknolojisine kadar birçok yazilimin popüler oldugunu anlatan Konyar, "Her gün yenisi çikiyor. Artik çok basit bir ses kaydinizla sizin için bir video olusturabiliyorlar. Veya yazdiginiz metin ile sizin için yeni bir fotograf üretebiliyorlar. Bunun içinde yapay zekanin güncel teknolojileri kullaniliyor. Binlerce, milyonlarca görüntü kullanilarak bu is yapiliyor. Örnegin, ’Ben kus görmek istiyorum. Gagasi, kanatlari su sekilde olsun’ dediginizde, böyle bir kus gerçekte olmayabiliyor ama milyonlarca kus görüntüsüyle egitildigi için bunlara ait özellikleri ögrenmeye basliyor. Mesela artik gagalarin nasil olabilecegini biliyor. Tüm varyasyonlari biliyor. Dolayisiyla sizin istediginiz enteresan özellikteki kusu üretip, karsiniza çikariyor" diye konustu.
"Biraz bilinçli degilsek kanabiliyoruz"
Son zamanlarda yapay zeka teknolojisi kullanilarak yapilan dolandiricilik olaylarinda artis yasandigina dikkat çeken Doç. Dr. Mehmet Zeki Konyar, sözlerine söyle devam etti:
"Bu sahte videolarda birtakim ünlü kisiler kullaniliyor. Örnegin aralarinda Selçuk Bayraktar’in, Aydin Dogan’in oldugu videolar yapilmaya baslandi. ’Suraya yatirim yapin’, ’Ben suraya katildim çok para kazandim’ ’Suraya para gönderin’ gibi videolar çikmaya basladi.
Maalesef birçogumuz buna inanmak durumunda kalabiliyoruz. Eger ki biraz bilinçli degilsek kanabiliyoruz. Selçuk Bey’in böyle bir ise girmeyecegini biliyoruz. Biz biliyoruz fakat bazen bazi vatandaslarimiz bu durumun farkinda olmayabiliyor. Ya da Aydin Dogan’in ismi, cismi bilinmeyen bir yere yatirim çagrisi yapmayacagini biliyoruz. Halkimizin bunu biliyor olmasi gerekiyor. Ünlülerin adi sani bilinmeyen bir yerden reklam yapmayacagini herkes bilir. Çünkü bir ünlü reklam aliyorsa bunu sosyal medya hesaplarinda paylasabiliyor"
"Kazandiklari paralari dolandiricilik yöntemini gelistirmek için harciyorlar"
Internet ortamina yayilan sahte videolarin profesyonel yazilimcilar tarafindan hazirlandigini kaydeden Doç. Dr. Konyar, "Yurt içinden veya yurt disindan birtakim siparislerle yazilim yaptirabiliyorlar. Mesela bugün Hindistan’a istediginiz yazilimi yaptirabilirsiniz. Orada Hindistanli yazilimcilar ucuza çalistigi için sizin tarif ettiginiz özelliklerle size yazilim yapip, gönderebiliyorlar. Dolandiricilar da maalesef çok popüler isler yapiyorlar. Yazilimi son teknolojisine kadar kullanabiliyorlar. Yurt disindan birisi yaptigi için Türkiye’de kimse de töhmet altinda kalmamis oluyor. Zaten dolandiricilar bu isi çok iyi biliyorlar. Nasil dolandirilacagini, hangi yazilimla, hangi teknolojiyle bunlari biliyorlar. Bazen biz bile sasiriyoruz. O kadar güncel teknolojiler kullaniyorlar ki... Çünkü kazandiklari devasa paralar var ve bu devasa paranin bir kismini kendilerini, dolandiricilik yöntemini gelistirmek için harciyorlar" seklinde konustu.
"Bedava peynir sadece fare kapaninda olur"
Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, sahte videolarin internet ortaminda reklam olarak vatandaslarin karsisina çiktigini, bunun ise "phishing (oltalama)" olarak adlandirilan bir yöntem oldugu bilgisini verdi. Bazi vatandaslarin kisisel bilgilerine zaman zaman ilgisiz davranabildigini vurgulayan Konyar, su ifadeleri kullandi:
"Bir kisim vatandasimiz, ’Deneyelim. Bir sey çikmazsa en fazla telefon numaram gider’ diye düsünüyor. Onun için bu degerli bilgi olamayabiliyor ama sadece telefon bilgimizi almiyor. Sizin ses kaydinizi da alabiliyor. Bu ses kaydinizi yapay zeka yöntemi ile kullanarak akrabalarinizi dolandirabilir. Nasil Selçuk Bayraktar’in, Aydin Dogan’in sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karsimiza bir video, reklam çiktigi zaman kesinlikle süphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapaninda olur. Kimse bize düsük bir yatirimla yüksek paralar vermez"
"Yapay zeka ayni biçak ve ates gibidir"
Yapay zekanin ürettigi sahte videolar da ipuçlari da bulundugunu dile getiren Konyar, "En bilenini ses ve dudak senkron sekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanin farkli harf ve ses hareketleri var. Bizim çikardigimiz harfleri ve kelimeleri taklit edemiyor. Deepfake dedigimiz derin sahtelik videolarinda gözlerin hareketlerini de takip etmek gerekiyor. Insanlarin gözlerini dogal davranisi bellidir. Gözlerdeki davranis dogal mi, kirpik kaslar dogal oynuyor mu? Sahte videolar yavaslayinca saçmalamaya basliyor. Görüntüler tuhaflasiyor. Dudak hareketleri yüz, el, kol degismeye basliyor. Yazilim, yapay zeka ayni biçak ve ates gibidir. Binlerce faydasi var ama biçagi baska amaçla kullanmaya basladiginizda zararlari var. Atesin birçok faydasi var ama bir yerleri de yakmamak lazim. Yapay zeka harikadir, yazilim çok güzeldir birçok kisinin, birçok firmanin hayatini kolaylastiriyor ama bir de zarar tarafi var. Uyanik olmak lazim" diye konustu.
Doç. Dr. Mehmet Zeki Konyar, sahte videolarin ilgili mercilere bildirilmesi gerektigine de dikkat çekerek, "Karsimiza çikan böyle videolar oldugunda kesinlikle yetkililere bildirelim. Bilisim Teknolojileri ve Iletisim Kurumu’nun ihbar hatti var. Vatandaslarimizin o ihbar hatti ile iletisime geçerek, bu güvenli olmayan ya da süpheli olan videolari, islemleri bildirmeleri gerekiyor" dedi.
