MIT’nın yeni “PhotoGuard” tekniği, fotoğraflarınızı yapay zeka ile manipüle etmek isteyenlere karşı aynısiz bir savunma sağlıyor.
Dall-E ve Stable Difusion yalnızca başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobelerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra yeni görseller oluşturma gücü de kazanıyor. Lakin yapay zeka takviyeli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin müsaadesiz olarak değiştirilmesi ya da direkt çalınması tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri, çalıntı risklerini hafifletmeye yardımcı olabiliyorken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, müsaadesiz değiştirmeleri önlemeye yardımcı olabilir.
PhotoGuard nasıl çalışıyor?
PhotoGuard, bir imajdaki seçili pikselleri, yapay zekanın imgenin ne olduğunu manaya yeteneğini bozacak şekilde değiştirerek çalışıyor. Araştırma ekibinin isimlendirdiği biçimiyle bu “düzensizlikler” insan gözüyle görülemez fakat makineler tarafından kolay kolay okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” saldırı usulü, algoritmik modelin, bir manzaradaki her pikselin pozisyonunu ve rengini tanımlayan karmaşık süreci olan hedef manzaranın saklı temsilini hedef alıyor ve esasen yapay zekanın neye baktığını anlamasını engelliyor.
Daha gelişmiş ve hesaplama açısından ağır olan “difüzyon” saldırı yolu ise, bir manzarayı yapay zekanın gözünde farklı bir görüntü olarak kamufle ediyor. Bu yol, bir hedef imgeyi tanımlıyor ve amacına benzeyecek şekilde imajdaki düzensizlikleri optimize ediyor. Bir yapay zekanın bu sağlam görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, geçersiz “hedef” imajlara uygulanarak gerçekçi olmayan bir görüntü oluşmasına neden oluyor.
MIT doktora öğrencisi ve çalışmanın baş yazarı Hadi Salman, Engadget ile yaptığı görüşmede “Kodlayıcı saldırısı, modelin giriş imajının (düzenlenecek) öteki bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” diyor ve devam ediyor: “Difüzyon saldırısı ise, difüzyon modelini kimi hedef manzaralara (gri ya da rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.”
Salman yaptığı açıklamada, “Model geliştiricileri, sosyal medya platformları ve siyaset yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil husus üzerinde çalışmak bugün büyük değer taşıyor” diyor ve sözlerini “bu tahlile katkıda bulunmaktan memnuniyet duysam da, bu muhafazayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı mümkün tehditlere karşı sağlam tedbirler tasarlamaya yatırım yapması gerekiyor” diyerek tamamlıyor.