Yapay zekayı kullanan dolandırıcılar, Teknoloji Editörü Ozancan Kubilay'ı taklit etti
Sosyal medyada ürettiği çeşitli içerikler ile tanınan Teknoloji Editörü Ozancan Kubilay'ın yüzü ve sesi yapay zeka dolandırıcıları tarafından taklit edildi. Dolandırıcıların hedefi ise sahte videolarla taklit edilen Kubilay'ın takipçileri oldu.
Sosyal medyada ürettiği çeşitli içerikler ile tanınan Teknoloji Editörü Ozancan Kubilay'ın yüzü ve sesi yapay zeka dolandırıcıları tarafından taklit edildi. Dolandırıcıların hedefi ise sahte videolarla taklit edilen Kubilay'ın takipçileri oldu.
Teknoloji Editörü Ozancan Kubilay'ın e-posta kutusuna gelen bir mesaj, akıllara durgunluk veren dolandırıcılık olayını gün yüzüne çıkardı. Dolandırıcılar, Teknoloji Editörü Ozancan Kubilay'ın gerçek bir video çekiminden alınan yüz ve ses verilerini kullanarak, sahte bir yapay zeka videosu oluşturdu. Ardından dolandırıcılar bu sahte videoyu, Kubilay'ın takipçilerine yönlendirilen reklamlarla dolandırıcılık girişiminde bulundular. Yaşadığı olayları İhlas Haber Ajansı (İHA) muhabirine aktaran Kubilay, yapay zeka ile düzenlenen dolandırıcılık taktiklerine karşı uyarıda bulundu.
Yapay zeka ile hazırlanan video Kubilay'ın takipçilerinin önüne düştü
Takipçisinin kendisine e-posta atmasıyla dolandırıcılık girişiminin farkına varan Kubilay, '27 Ocak'ta bana bir e-posta geldi ve bu mailde şöyle bir mesaj yazıyordu; 'Sizin videonuzu izledim ve sonrasında söylediklerinizi yaptım, ama söylediğiniz gibi uygulama çalışmadı' diye. Tabii ben bunu çok dikkate almadım. Hatta bir dolandırıcılık maili sandım bunu ama iş sonrasında çok da öyle olmadı. Gece saatlerinde tekrardan bana bir mesaj geldi bir takipçimden. 'Sizin çektiğiniz videoyu izledim. Bu işlemleri yaptım, kartımdan para çekildi, ancak hiçbir şey olmadı' diye ekledi. Akabinde birkaç kişinin daha bu tarz mesajlar attığını, bir kişinin de bana doğrudan 'Ağabey, senin videonu gördüm ama bu video çakma olabilir, istersen bir bak' dediğini gördüm' diye konuştu.
'Videoyu izlediğimde beynimden vurulmuşa döndüm'
Dolandırılan bir takipçisinden bahse konu videoyu göndermesini isteyen Kubilay daha sonra gelişen olayları şu şekilde aktardı:
'Dolandırılanlardan bir tanesinden rica ettiğimde bana o videoyu gönderdi. Çünkü videonun ekran kaydını almış sağ olsun ve bu videoyu izlediğimde gerçekten beynimden vurulmuşa döndüm. Çünkü yapay zekayla benim birebir bütün konuşmalarımı, normalde internette yayınladığım insanlar için hayat kolaylaştırıcı içeriklerden bazılarını kopyalayarak ve sesimi de kopyalayarak çok güzel bir şekilde doğrudan bir dolandırıcılık platformuna insanları yönlendirip paralarının alındığını fark ettim.'
Yapay zeka dolandırıcılarına karşı suç duyurusu
Yapay zeka desteği ile hazırlanan videoyu gören Kubilay ilk olarak sosyal medya üzerinden takipçilerine duyuruda bulundu. Sonrasında avukatı ile görüşen Kubilay, konuya ilişkin suç duyurusunda bulundu.
'Yapay zekayla oluşturulan videoların son dönemde sıklıkla kullanıldığını görüyoruz'
Sosyal medya kullanıcılarını, içerik üreticilerinin yer aldığı videolarına ilişkin uyaran Kubilay, 'Gerçekten para kazanmanın bu kadar zor olduğu bir dünyada insanların saçma sapan bu tarz yalan videolarla kandırılarak paralarının alınmasına tahammülüm kesinlikle yok. Dolayısıyla bu durum beni oldukça üzdü ve tabi ki gerekeni de yaptım. Siz siz olun sosyal medyada içerik üreten bir içerik üreticisi size doğrudan bir 'ödeme ekranına yönlendiriyor' şeklinde bir videosunu görürseniz mutlaka bu videonun doğruluğunu teyit edin. Çünkü yapay zekayla oluşturulan videoların son dönemde bu tarz olaylar için sıklıkla kullanıldığını duyuyoruz ve görüyoruz' ifadelerini kullandı.
'Sizi para ödemeye ya da para almaya yönlendiriyorsa bir kere daha düşünün'
Yine sosyal medya kullanıcıları için uyarıda bulunan Kubilay konuşmasını şöyle sürdürdü:
'Başınıza böyle bir şey gelmemesi için herhangi bir sosyal medyada içerik üreticisi olabilir, herhangi bir ülkemizdeki ünlü bir kişilik olabilir, bir oyuncu olabilir ya da bir siyasetçi de olabilir mutlaka sizi para ödemeye ya da para almaya yönlendiriyorsa bir kere daha düşünün ve sonrasında o videonun doğruluğunu teyit etmeye çalışın.'