enflasyonemeklilikötvdövizakpchpmhp
DOLAR
34,0200
EURO
37,7277
ALTIN
2.726,78
BIST
9.771,16
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Hafif Yağmurlu
28°C
İstanbul
28°C
Hafif Yağmurlu
Pazartesi Çok Bulutlu
28°C
Salı Az Bulutlu
30°C
Çarşamba Hafif Yağmurlu
29°C
Perşembe Çok Bulutlu
30°C

MIT’nın yeni PhotoGuard’ı, fotoğraflarınızı istenmeyen AI düzenlemelerine karşı koruyor

MIT’nın yeni “PhotoGuard” tekniği, fotoğraflarınızı yapay zeka ile manipüle etmek isteyenlere karşı aynısiz bir savunma sağlıyor.

MIT’nın yeni PhotoGuard’ı, fotoğraflarınızı istenmeyen AI düzenlemelerine karşı koruyor
28.07.2023
63
A+
A-

Dall-E ve Stable Difusion yalnızca başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobelerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra yeni görseller oluşturma gücü de kazanıyor. Lakin yapay zeka takviyeli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin müsaadesiz olarak değiştirilmesi ya da direkt çalınması tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri, çalıntı risklerini hafifletmeye yardımcı olabiliyorken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, müsaadesiz değiştirmeleri önlemeye yardımcı olabilir.

PhotoGuard nasıl çalışıyor?

PhotoGuard, bir imajdaki seçili pikselleri, yapay zekanın imgenin ne olduğunu manaya yeteneğini bozacak şekilde değiştirerek çalışıyor. Araştırma ekibinin isimlendirdiği biçimiyle bu “düzensizlikler” insan gözüyle görülemez fakat makineler tarafından kolay kolay okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” saldırı usulü, algoritmik modelin, bir manzaradaki her pikselin pozisyonunu ve rengini tanımlayan karmaşık süreci olan hedef manzaranın saklı temsilini hedef alıyor ve esasen yapay zekanın neye baktığını anlamasını engelliyor.

Daha gelişmiş ve hesaplama açısından ağır olan “difüzyon” saldırı yolu ise, bir manzarayı yapay zekanın gözünde farklı bir görüntü olarak kamufle ediyor. Bu yol, bir hedef imgeyi tanımlıyor ve amacına benzeyecek şekilde imajdaki düzensizlikleri optimize ediyor. Bir yapay zekanın bu sağlam görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, geçersiz “hedef” imajlara uygulanarak gerçekçi olmayan bir görüntü oluşmasına neden oluyor.

MIT doktora öğrencisi ve çalışmanın baş yazarı Hadi Salman, Engadget ile yaptığı görüşmede “Kodlayıcı saldırısı, modelin giriş imajının (düzenlenecek) öteki bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” diyor ve devam ediyor: “Difüzyon saldırısı ise, difüzyon modelini kimi hedef manzaralara (gri ya da rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.

Salman yaptığı açıklamada, “Model geliştiricileri, sosyal medya platformları ve siyaset yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil husus üzerinde çalışmak bugün büyük değer taşıyor” diyor ve sözlerini “bu tahlile katkıda bulunmaktan memnuniyet duysam da, bu muhafazayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı mümkün tehditlere karşı sağlam tedbirler tasarlamaya yatırım yapması gerekiyor” diyerek tamamlıyor.

ETİKETLER: , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.