Yapay Zekâ ile Sahte Kimlikler ve Sesler Oluşturularak, Hiç Yaşanmamış Olaylar Gerçeğe Dönüştü!

Yapay Zekâ ile Sahte Kimlikler ve Sesler Oluşturularak, Hiç Yaşanmamış Olaylar Gerçeğe Dönüştü!
0


Yapay zeka teknolojileri her ne kadar kullanıcılara kolaylık sağlasa da, sahip olduğu gücün getirdiği tehlikelerin pek farkında değiliz.

ChatGPT gibi yapay zekâ hizmetleri furyası tam gaz devam ediyor. Yapay zekâ teknolojileri her ne kadar kullanıcılara kolaylık sağlasa da, sahip olduğu gücün getirdiği tehlikelerin pek farkında değiliz.

Bir geliştirici, ChatGPT gibi OpenAI destekli bir yapay zekâ makinesini kullanarak “dezenformasyon makinesi” geliştirdi. ‘CounterCloud’ adlı bu projenin tamamlanması yaklaşık olarak 2 ay sürdü ve maliyeti 400 dolardan daha az. Geliştirici, bu makineyi tanıttığında kitlesel propaganda yaratmanın maliyetinin ne kadar ucuz ve basit olabileceğinin altını çizdi. Makinenin amacı, sahte makaleler ve hatta tarihte yaşanmamış olayları büyük bir gerçeklikle yaşanmış gibi göstermek aslında.

Makinenin amacı sadece bununla kalmıyor

Mayıs ayında Sputnik International haber sitesinde, ABD’nin dış politikasını sert bir şekilde eleştiren bir dizi tweet yayınlandı. Bu tweetler ‘CounterCloud’ isimli bir hesaptan paylaşıldı ve ABD’nin dış politikataki tutumunu eleştiren görüşler ve hatta makalelerden alıntılar içeriyordu. Hatta çeşitli haber siteleri ve sitedeki gazeteciler bile yapay zeka tarafından tasarlandı. Bu dezenformasyon makinesinin geliştiricisi ‘NeaPaw’ kullanıcı adıyla internette yer edindi ve bir siber güvenlik uzmanı olduğunu iddia ediyor.

NeaPaw, YouTube’ta bu projeyi neden ve nasıl oluşturduğunu anlattığı bir video yayınladı.

Yapay zekânın sahip olduğu gücü ve dezenformasyonun nasıl olağanüstü yerlere gidebileceğini görmek isteyen NeaPaw, sahte haber oluşturmanın aslında ne kadar basit ve tehlikeli olduğunu belirtiyor. ChatGPT ile karşıt görüşteki makaleleri oluşturma sürecini de anlatıyor. Aynı zamanda, aynı makalenin farklı tarz ve bakış açılarıyla hazırlandığını söylüyor.

Olay sadece bundan ibaret değil. Dahası da var…

Daha sonra yapay zekanın en alakalı içeriğe yanıt vermesi için denetleyici bir modül oluşturdu. Bu modül ile sahte makaleleri ve hatta fotoğrafları yorumlayan sahte ses dosyaları oluşturdular. Ayrıca sahte gazeteci profilleri ile haberlerin altına farklı yorumlar yazdırdılar. Ayrıca, bu dezenformasyon makinesine paylaşılan tweet’leri yeniden paylaşması ve beğenmesi için çeşitli komutlar verdiler. 

Geliştirici iki ay içinde, günün 24 saati boyunca sadece bu propagandayı sürdüren bir sisteme sahip oldu. NeaPaw, elindeki gücün farkında olacak ki, bu sistemi henüz herkesin erişimine açmadı. Çünkü bu sistemin kullanılmaya başlanması demek, büyük bir propaganda aracının kitlesel bir etki yaratacağı gerçeği demek. Ek olarak bunun sonunun nereye varacağı hiçbir şekilde bilinmiyor.

Ancak haberin başlangıcına eklediğimiz videoda NeaPaw, bu makinenin nasıl çalıştığını anlatıyor ve işlerin nasıl yürüdüğü konusunda halkı bilinçlendirmenin daha faydalı olacağını söylüyor.

OpenAI şirketinin CEO’su Sam Altman, konuyla ilgili endişesini dile getiren bir tweet de paylaştı. 

Kaynak:https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/
 

 

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_end_m
    BEĞENDİM
  • 0
    alki_
    ALKIŞ
  • 0
    _a_kin
    ŞAŞKIN
  • 0
    k_t_
    KÖTÜ
  • 0
    berbat
    BERBAT

1959 yılında Samsunda doğdu. 1989-2005 Yılları arasında Temsa, Mitsubishi, Sabancı Holding grubunda Otomotiv, Bilgi işlem ve Yazılım bölümlerinde Müdür olarak çalıştı. Adnan Güney, şu anda, Network Dizayn Yazılım ve Tasarım koordinatörü olarak çalışmalarına devam etmekte. Ayrıca Blogger, Wordpress, Tumblr, Google sites gibi alanlara ilgili olup, uzun yıllardır SEO ve Alexa üzerinde çalışmakta.

Yazarın Profili

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir