Araştırmacılar yapay zekanın bizi kandırmasına izin verecek şekilde genişletilebileceğinden tasa ediyor. Meta’nın CICERO yapay zekası, yapay zekanın ne kadar aldatıcı olabileceğini ve ne kadar büyük bir ustalıkla palavra söyleyebildiğini bizlere kanıtlıyor.
Yapay zeka dünyası süratle gelişmeye devam ediyor. ChatGPT benzeri üretken yapay zeka sohbet robotlarının muvaffakiyetini görüyoruz ve pek çok şirket uygulamalarına ve programlarına yapay zekayı dahil etmek için çalışıyor. Bu ortada yapay zeka tehdidi hala büyük bir sorun olmaya devam ederken, araştırmacılar yapay zekanın bize ne kadar kolay palavra söylediği ve bunun ileride ne manaya gelebileceği konusunda birtakım farklı kaygıları dile getirdi.
ChatGPT ve diğer yapay zeka sistemlerinin kullanımını güçleştiren şeylerden biri, bilgiyi “halüsinasyon” olarak isimlendirilen anında uydurma eğilimleri. Bu, yapay zekanın çalışma formundaki bir eksiklik ve araştırmacılar yapay zekanın bizi daha da fazla kandırmasına izin verecek şekilde genişletilebileceğinden telaş ediyor.
Peki yapay zeka bize hakikaten palavra söyleyebilir mi? Bu enteresan bir soru ve kimi araştırmacılar bunu yanıtlayabileceklerine inanıyor. Araştırmacılara göre Meta’nın CICERO yapay zekası, yapay zekanın ne kadar aldatıcı olabileceğinin en rahatsız edici örneklerinden biri. Bu model Diplomacy oynamak için tasarlandı ve Meta “büyük ölçüde dürüst ve yardımcı” olmak için tasarlandığını söylüyor.
Ancak CICERO deneyinden elde edilen verilere bakıldığında, araştırmacılar CICERO’nun bir palavra makinesi olduğunu söylüyorlar. Hatta CICERO, bir insan oyuncuyla birlikte çalışarak diğer bir insan oyuncuyu kandırıp kendisini istilaya açık hale getirecek şekilde kandırmayı evvelden planlayacak kadar ileri gitti.
Bunu, Alman oyuncuyla komplo kurarak ve akabinde İngiliz oyuncuyla birlikte çalışarak onların Kuzey Denizi’nde bir açıklık bırakmasını sağlayarak yaptı. Bunu Almanya’nın oyuncusuyla komplo kurarak ve akabinde İngiltere’nin oyuncusuyla çalışarak Kuzey Denizi’nde bir açıklık bırakmalarını sağlayarak yaptı. Yapay zekanın oyuncuları kandırıp muvaffakiyete ulaşmak için nasıl palavra söylediğini ve onlara karşı nasıl çalıştığının ispatını üstte görebilirsiniz. Bu enteresan bir ispat ve araştırmacıların CICERO yapay zekasından kaydettiği birçok örnekten yalnızca biri.
Buradaki risk, bunun birkaç farklı şekilde berbata kullanılabilecek olmasından kaynaklanıyor. Araştırmacılar hazırladıkları raporda potansiyel riskin “yalnızca kötü niyetli bireylerin hayal gücü ve teknik bilgi birikimi ile sınırlı olduğunu” belirtiyor. Bu davranışın gelecekte nereye varabileceğini görmek enteresan olabilir, bilhassa de bu davranışı öğrenmek açık bir kandırma niyeti gerektirmiyorsa…