Bu araçlar sanat eserlerini AI'dan korumalıdır – ancak bunlardan kaçınılabilir

Adanali

Member
Araştırmacılar, AI'nın istenmeyen eğitimine karşı mevcut koruyucu önlemleri geliştirmenin mümkün olduğunu göstermişlerdir. Bilim adamlarının flaşı vaftiz ettikleri prosedür, artık yaratıcılık ve üretken tedarikçiler arasındaki bir kedinin ve fare oyununun son örneğidir. Görüntüler oluşturabilen üretken modeller, bir miktar görüntü kullanılarak önceden öğrenilmelidir. Eleştirmenlere göre, bu eğitim için kullanılan veri kayıtları genellikle herhangi bir onay olmadan kullanılan telif hakkı korumalı materyal içerir. Bu, modellerin stillerini öğrendiklerinden, eserlerini taklit etmesinden ve sonunda onları işsiz kılmaktan korkan yaratıcı insanları endişelendirir.



Bununla birlikte, 2023'ten bu yana, ekipler sır ve gece ayakkabısı gibi programları vurguladıklarında, yapay zeka eğitim amaçları için net “zehirlenme” üzerindeki görüntünün malzemesini koruduklarında bazı potansiyel savunma araçları geliştirildi. (Shawn Shan'ın dahil olduğu, teknoloji incelemesinin ABD baskısının yenilikçisi olarak çalışması için çalışması için bile seçildi). Bununla birlikte, Lightshed Project'in arkasındaki üreticiler, görüntülerin eğitim amaçlı sorunsuz bir şekilde kullanılabilmesi için bu ve benzer araçları zayıflatabildiğini iddia ediyorlar.

Açıkça söylemek gerekirse: Işıkların arkasındaki araştırmacılar sanatçıların eserlerini çalmaya çalışmazlar. Sadece reklamların sahte güvenliğe ağırlık vermesini istemiyorlar. Cambridge Üniversitesi'nde doktora öğrencisi ve çalışmanın ana yazarı Hanna Foerster, “Şirketlerin bu yapay zeka zehirini ortadan kaldırmak için hiçbir yöntemi olmadığından emin olamazsınız. Ancak kimse yaratıcı insanlara söylemeyecek” diyor. Bu nedenle, bu yöntemleri şimdi tanımak önemlidir.



Bazen modeller, farklı görüntü kategorileri arasındaki sınırları dolaylı olarak geri çekerek çalışır. Glaze ve Nightshade daha sonra kullanıcı tarafından görünür görüntünün kalitesinden ödün vermeden bir çalışmayı bu kenardan taşımak için yeterli sayıda piksel değiştirir. O zamanki modeller, oluşumu imkansız hale getiren okuma görüntülerini hatalı bir şekilde sınıflandırır. Veya Özet: Neredeyse algılanamayan değişiklikler rahatsızlık olarak gösterilir ve model AI'nın bir resmi anlama yeteneğini etkiler.

IA yanlış yorumları tanır


Sır pratik olarak yapay zeka modellerinin yanlışlıkla bir görüntü tarzını yorumladığı anlamına gelir (örneğin, fotoğraf-gerçekçi bir tablo bir çizgi film olarak). Nightshade ise, modelin nedenini önemli ölçüde tanıdığı anlamına gelir (köpek olarak bir çizimde bir kedi gibi). Sır, bir sanatçının bireysel tarzını korumak için kullanılırken, Nightshad genellikle internette sanat eserleri arayan yapay zeka modellerinin oluşumunu önlemeye hizmet eder. Foerster bunun başarılı olmadığını göstermek istedi. Flash geliştirmek için TU Darmstadt ve San Antonio'daki Texas Üniversitesi'nden bir araştırmacı ekibiyle çalıştı. Onun hilesi: Araç, sır gibi araçların tam olarak nerede olduğunu öğrenir ve akşam bu tür dijital zehiri görüntülere dijital olarak uygular, böylece bunları etkili bir şekilde kaldırabilir. Grup, tüm sonuçlarını Ağustos ayında BT güvenliği üzerine bir dünya lideri konferansı olan Usenix Güvenlik Sempozyumu'nda sunacak.

Araştırmacılar, akşamları, emaye ve diğer güvenlik araçlarının yarışından önce ve sonra kazarak flaşları öğrendiler. Foerster, süreci “zehirli görüntüler üzerindeki zehiri yeniden inşa etmek için” bir eğitim oturumu olarak tanımlıyor. Ek özelliklerin aslında yapay bir zekayı karıştırdığı kenarın tanımlanması, “yıkamayı” kolaylaştırır.



Araştırmacılara göre, flaşlar son derece etkilidir. Diğer araştırmacılar güvenlik araçlarının metodolojisini baltalamak için basit bireysel yollar bulurken, ışıkların yayılması daha uyarlanabilir. Ayrıca, bir anti-KI aracından öğrendiklerini, Nightshad gibi gübre veya metakoak gibi diğer koruyucu araçlara önceden bilmeden uygulayabilir.

Zehirlenme olarak da adlandırılan düşük dozda dijital zehirle ilgili bazı zorluklar vardır. Ancak bunlar genellikle yapay zeka modellerinin temel görüntüleri anlama yeteneğini etkilemez, böylece bu koruma araçlarını kullanan sanatçılar için özgür bir durum için IA için avantajlı bir durum haline gelir.

Yeni güvenlik araçları için öğrenme


Küçük ve orta ölçekli bir fan ve düşük kaynak tabanı olan birçok yaratıcı insan da dahil olmak üzere yaklaşık 7,5 milyon kişi, sanatlarını korumak için kremayı zaten indirdi. Sır gibi araçlar kullananlar, özellikle AI ve telif hakkının eğitimi alanındaki düzenleme henüz net olmadığı sürece, önemli bir teknik savunma hattı görüyorlar. Lightshed'in yazarları, çalışmalarını sır gibi araçların kalıcı çözümler olmadığı konusunda bir uyarı olarak görüyorlar. Foerster, “Bu koruma için daha iyi fikirler geliştirmek için bazı girişimler gerekebilir” diyor.

Glaze ve Nightshad geliştiricileri bu görüş konusunda hemfikir gibi görünüyor: Nightshade web sitesinde, aracın temelde gelecek olmadığı açıklama üzerinde çalışmadan önce altı çizildi. Her iki araçla ilgili araştırmayı yöneten Shan, onlardan kaçınmak için fırsatlar olsa bile, savunma önlemlerinin mantıklı olduğu gibi hala ikna olmuş.

“O caydırıcı.” Bu yüzden yapay zeka şirketlerini yaratıcılık endişelerini ciddi şekilde almaları için uyarmanın bir yolu. Amaç, şirketlerin doğrudan onlarla çalışmak zorunda kalması için mümkün olduğunca çok engel oluşturmaktır. Shan, “çoğu yaratıcı insan bunun sadece geçici bir çözüm olduğunu anlıyor”. Bununla birlikte, çalışmalarının istenmeyen kullanımına karşı ilk engelleri oluşturmak mantıklıdır.

Foerster artık flaş geliştirme bilgisinin yaratıcı insanlar için yeni savunma önlemleri geliştirmeye yardımcı olacağını umuyor. Bu, çıktıda bir AI modeli tarafından işlendikten sonra bile tutulan akıllı telkari içerir. Araştırmacı, bunun bir işi AI'dan sonsuza dek koruyacağına inanmıyor. Ancak bu, dengeyi yaratıcıya doğru hareket ettirme meselesidir.

Bu yazı ilk kez t3n.de'de yayınlandı.


(JLE)




Ne yazık ki, bu bağlantı artık geçerli değil.

Boşa harcanan eşyalara olan bağlantılar, 7 günlük daha büyükse veya çok sık çağrılmışsa gerçekleşmez.


Bu makaleyi okumak için bir Haberler+ paketine ihtiyacınız var. Şimdi yükümlülük olmadan bir hafta deneyin – yükümlülük olmadan!
 
Üst