ref: refs/heads/v3.0
enflasyonemeklilikötvdövizakpchpmhp
DOLAR
32,2042
EURO
34,9946
ALTIN
2.501,80
BIST
10.739,57
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Parçalı Bulutlu
25°C
İstanbul
25°C
Parçalı Bulutlu
Çarşamba Az Bulutlu
22°C
Perşembe Az Bulutlu
22°C
Cuma Az Bulutlu
23°C
Cumartesi Az Bulutlu
22°C

Araştırmaya göre ChatGPT benzeri yapay zekalar, asla paylaşmayacağınız sırları tahmin edebiliyor

Yapılan bir araştırma, LLM’lerin kullanıcıların ferdî bilgilerini tahmin edebildiğini ve kötü niyetli kullanım riski oluşturduğunu ortaya çıkardı.

Araştırmaya göre ChatGPT benzeri yapay zekalar, asla paylaşmayacağınız sırları tahmin edebiliyor
24.10.2023
1
A+
A-

Yapılan bir araştırma, LLM’lerin kullanıcılar bilgilerini hiç paylaşmasa bile, kullanıcılar hakkında bilgi çıkarımı yapabildiğini gösterdi.

Daha da korkutucu olanı, kötü niyetli bireylerin bu sırları öğrenmek için sohbet robotlarını suiistimal edebilecekleri gerçeği. Tek yapmanız gereken, bir amaçtan görünüşte zararsız metin örnekleri toplayarak potansiyel olarak pozisyonunu, işini ve hatta ırkını tespit etmek. Bu çalışma, bize ChatGPT gibi hizmetlerin daha da güçlü zımnilik müdafaalarına ihtiyaç duyduğunu gösteriyor.

ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic’in LLM’lerini inceledi. ChatGPT ve rakipleri, bir kullanıcının pozisyonunu, ırkını, mesleğini ve diğer ferdî datalarını doğru bir şekilde tahmin edebildikleri aynı örneklere sahip.

Bilim insanları 500’den fazla Reddit profilinden alınan bilgi parçacıklarını kullandı. GPT-4 özel bilgileri %85 ile %95 arasında bir doğrulukla çıkarabildi.

Örneğin bir LLM, kişinin New York’ta bir restorana yakın bir yerde yaşadığını söyleyen bir metni okuduktan sonra yüksek bir olasılıkla kullanıcının siyahi olduğunu çıkardı. Sohbet robotu restoranın pozisyonunu belirledi ve ırkı belirlemek için o pozisyonun nüfus istatistikleri bilgilerini kullandı.

Google gibi teknoloji devleri, görüldüğü şahsî yapay zeka özellikleri geliştirmeye başladı bile. Örneğin Fitbit uygulamanızla konuşabilecek ve çok sayıda şahsî data noktasını kullanarak son idman performansınızı tahlil etmesini sağlayabileceksiniz.

Ancak çalışmadaki bulgular çok daha kolay data setlerine dayanıyor. Örneğin sağlık bilgileri benzeri, kullanıcının yapay zeka ile açıkça paylaşmayacağı ferdî datalar.

Buradaki telaşlar, bir teknoloji devinin reklam gelirlerini artırmak için potansiyel olarak LLM’leri kullanmasından daha önemli. Kötü niyetli bireyler kamuya açık LLM modellerini kullanarak bir hedef hakkında potansiyel olarak çıkarımlarda bulunabilir. Bir kişinin ırkını yahut pozisyonunu öğrenebilirler.

Ayrıca konuşmaları yönlendirerek amaçların farkında olmadan ferdî bilgilerini ifşa etmelerini de sağlayabilirler. Saldırganların tek yapması gereken bu bilgileri bir sohbet robotuna aktarmak ve yapay zekanın ne bulacağını izlemek. aynı şekilde, LLM’ler daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.

ChatGPT benzeri yapay zeka hizmetlerinin, kullanıcı kapalılığı hakkında daha fazla efor göstermesi gerekiyor. Ayrıyeten ChatGPT ve rakiplerinin, herhangi birinin buna benzeyenkişisel dataları elde etmek için hizmeti berbata kullanmasını önleyecek yerleşik muhafazalara sahip olması lazım.

ETİKETLER: , , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.