Yapılan bir araştırma, LLM’lerin kullanıcıların ferdî bilgilerini tahmin edebildiğini ve kötü niyetli kullanım riski oluşturduğunu ortaya çıkardı.
Yapılan bir araştırma, LLM’lerin kullanıcılar bilgilerini hiç paylaşmasa bile, kullanıcılar hakkında bilgi çıkarımı yapabildiğini gösterdi.
Daha da korkutucu olanı, kötü niyetli bireylerin bu sırları öğrenmek için sohbet robotlarını suiistimal edebilecekleri gerçeği. Tek yapmanız gereken, bir amaçtan görünüşte zararsız metin örnekleri toplayarak potansiyel olarak pozisyonunu, işini ve hatta ırkını tespit etmek. Bu çalışma, bize ChatGPT gibi hizmetlerin daha da güçlü zımnilik müdafaalarına ihtiyaç duyduğunu gösteriyor.
ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic’in LLM’lerini inceledi. ChatGPT ve rakipleri, bir kullanıcının pozisyonunu, ırkını, mesleğini ve diğer ferdî datalarını doğru bir şekilde tahmin edebildikleri aynı örneklere sahip.
Bilim insanları 500’den fazla Reddit profilinden alınan bilgi parçacıklarını kullandı. GPT-4 özel bilgileri %85 ile %95 arasında bir doğrulukla çıkarabildi.
Örneğin bir LLM, kişinin New York’ta bir restorana yakın bir yerde yaşadığını söyleyen bir metni okuduktan sonra yüksek bir olasılıkla kullanıcının siyahi olduğunu çıkardı. Sohbet robotu restoranın pozisyonunu belirledi ve ırkı belirlemek için o pozisyonun nüfus istatistikleri bilgilerini kullandı.
Google gibi teknoloji devleri, görüldüğü şahsî yapay zeka özellikleri geliştirmeye başladı bile. Örneğin Fitbit uygulamanızla konuşabilecek ve çok sayıda şahsî data noktasını kullanarak son idman performansınızı tahlil etmesini sağlayabileceksiniz.
Ancak çalışmadaki bulgular çok daha kolay data setlerine dayanıyor. Örneğin sağlık bilgileri benzeri, kullanıcının yapay zeka ile açıkça paylaşmayacağı ferdî datalar.
Buradaki telaşlar, bir teknoloji devinin reklam gelirlerini artırmak için potansiyel olarak LLM’leri kullanmasından daha önemli. Kötü niyetli bireyler kamuya açık LLM modellerini kullanarak bir hedef hakkında potansiyel olarak çıkarımlarda bulunabilir. Bir kişinin ırkını yahut pozisyonunu öğrenebilirler.
Ayrıca konuşmaları yönlendirerek amaçların farkında olmadan ferdî bilgilerini ifşa etmelerini de sağlayabilirler. Saldırganların tek yapması gereken bu bilgileri bir sohbet robotuna aktarmak ve yapay zekanın ne bulacağını izlemek. aynı şekilde, LLM’ler daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.
ChatGPT benzeri yapay zeka hizmetlerinin, kullanıcı kapalılığı hakkında daha fazla efor göstermesi gerekiyor. Ayrıyeten ChatGPT ve rakiplerinin, herhangi birinin buna benzeyenkişisel dataları elde etmek için hizmeti berbata kullanmasını önleyecek yerleşik muhafazalara sahip olması lazım.