Yeni bir tehlike daha: Yapay zeka, insanları nasıl kandıracağını da öğrendi

Yapay zeka dünyası süratle gelişmeye devam ediyor. ChatGPT üzere üretken yapay zeka sohbet robotlarının muvaffakiyetini görüyoruz ve pek çok şirket uygulamalarına ve programlarına yapay zekayı dahil etmek için çalışıyor. Bu ortada yapay zeka tehdidi hala büyük bir sorun olmaya devam ederken, araştırmacılar yapay zekanın bize ne kadar kolay palavra söylediği ve bunun ileride ne manaya gelebileceği konusunda kimi farklı tasaları lisana getirdi.

ChatGPT ve öbür yapay zeka sistemlerinin kullanımını güçleştiren şeylerden biri, bilgiyi “halüsinasyon” olarak isimlendirilen anında uydurma eğilimleri. Bu, yapay zekanın çalışma formundaki bir eksiklik ve araştırmacılar yapay zekanın bizi daha da fazla kandırmasına müsaade verecek formda genişletilebileceğinden tasa ediyor.

Peki yapay zeka bize nitekim palavra söyleyebilir mi? Bu değişik bir soru ve kimi araştırmacılar bunu yanıtlayabileceklerine inanıyor. Araştırmacılara nazaran Meta’nın CICERO yapay zekası, yapay zekanın ne kadar aldatıcı olabileceğinin en rahatsız edici örneklerinden biri. Bu model Diplomacy oynamak için tasarlandı ve Meta “büyük ölçüde dürüst ve yardımcı” olmak için tasarlandığını söylüyor.

Ancak CICERO deneyinden elde edilen bilgilere bakıldığında, araştırmacılar CICERO’nun bir palavra makinesi olduğunu söylüyorlar. Hatta CICERO, bir insan oyuncuyla birlikte çalışarak öteki bir insan oyuncuyu kandırıp kendisini istilaya açık hale getirecek halde kandırmayı evvelden planlayacak kadar ileri gitti.

Bunu, Alman oyuncuyla komplo kurarak ve akabinde İngiliz oyuncuyla birlikte çalışarak onların Kuzey Denizi’nde bir açıklık bırakmasını sağlayarak yaptı. Bunu Almanya’nın oyuncusuyla komplo kurarak ve akabinde İngiltere’nin oyuncusuyla çalışarak Kuzey Denizi’nde bir açıklık bırakmalarını sağlayarak yaptı. Yapay zekanın oyuncuları kandırıp muvaffakiyete ulaşmak için nasıl palavra söylediğini ve onlara karşı nasıl çalıştığının ispatını üstte görebilirsiniz. Bu farklı bir ispat ve araştırmacıların CICERO yapay zekasından kaydettiği birçok örnekten yalnızca biri.

Buradaki risk, bunun birkaç farklı biçimde berbata kullanılabilecek olmasından kaynaklanıyor. Araştırmacılar hazırladıkları raporda potansiyel riskin “yalnızca berbat niyetli şahısların hayal gücü ve teknik bilgi birikimi ile hudutlu olduğunu” belirtiyor. Bu davranışın gelecekte nereye varabileceğini görmek değişik olabilir, bilhassa de bu davranışı öğrenmek açık bir kandırma niyeti gerektirmiyorsa…

What do you think?

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

GIPHY App Key not set. Please check settings

Tesla, Arkadaşını “Tesla Almaya İkna Eden” Bir Kişiye Model 3 Performance Hediye Edecek

Şu An İnternetin En Gizemli Bulmacasına Bakıyorsun: Aradıkları O Çok Zeki Kişi Sen Olabilir misin?