İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Adanali

Member


  1. İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Stable Atıf, görüntülerin orijinal kaynağını belirlemek için tasarlanmış yeni bir araçtır. Editörlerine göre algoritma, bildiğimiz kadarıyla eğitim veri setinden AI çıktısına en yakın görüntüleri seçiyor. SSS’ye göre amaç, çalışmaları eğitim için kullanılan sanatçıları doğru bir şekilde tanımaktır. Araç şu anda benzer görselleri bulabiliyor ancak bunları henüz bir sanatçıya veya içerik oluşturucuya atayamıyor.


Sanatçıları çalışmaları için atayın


Aracın arkasında, yapay zekayı anlaşılır kılmak isteyen Chroma adlı Kaliforniya merkezli bir yapay zeka girişimi var. Kurucuları Jeff Huber ve Anton Troynikov, kendi ifadelerine göre, görsellerin haklarını kaydettirmek ya da modellerini görsellerle eğitmek gibi bir zahmete girmiyorlar. Sanatçılar, reprodüksiyon telif ücreti almak için eserlerinin uygun şekilde alıntılanmasına bağlıdır. Bu nedenle iki geliştirici web sitesindeki motivasyonlarını şu şekilde açıklıyor: Yapay zeka insanlara hizmet etmeli, onları yabancılaştırmamalı. Çalışmaları, olası rol modellere görüntüler atamak için kullanılabilecek bilgileri erişilebilir kılmayı amaçlıyor.

Araçla depolanan belgelere giden web bağlantısı çalışmıyor, ancak bunun için bir Twitter sayfası var ve Huber ve Troynikov profillerini birbirine bağladı. Bunları Discord’da da bulabilirsiniz. Geliştiricilerin kendilerinin de belirttiği gibi, aracın 1. sürümü henüz tamamen kararlı görünmüyor: araç bir beta aşamasında. Eğitim süreci “gürültülü” ve eğitim materyalleri bazı hatalar ve fazlalıklar içeriyor. İkili, bizi izlemeye devam etmek ve “her tür üretken model için” kaynak malzeme özelliğini geliştirmek istiyor. Takviye arıyorlar. Kararlı atıf web sitesinde kanıtlanabilir.


Çıkan ne çıkıyor?


Bununla birlikte, bu yöntem teknik olarak oldukça sorgulanabilir bir varsayıma dayanmaktadır: AI oluşturucuları tarafından oluşturulan görüntüler genellikle yenidir ve eğitim veri setinde aynı biçimde mevcut değildir. UC Berkeley, Princeton ve ETH Zürih’ten araştırmacılarla işbirliği içinde Google ve DeepMind tarafından finanse edilen bir çalışma, araştırmacıların Stable Diffusion ve Google Imagen gibi modellerden bazı görüntüler elde etmek için metin istemlerini kullanabildikleri için 2023 Şubatının başlarında heyecan yarattı. eğitim veri setinde çok benzer görünüyor (MIT Technology Review şunu bildirmişti: “AI, gerçek insanların resimlerini ve telif hakkıyla korunan içeriği tükürüyor”).

En azından ne Twitter’da özet Kenara düşen, “çok benzer” olarak tanımlanabilecek görüntülerin oranının ne kadar küçük olduğudur. Stable Diffusion için araştırmacılar, eğitim veri setindeki orijinal görüntülere çok benzeyen oluşturulan 175 milyon test görüntüsünden 109’unu bulabildiler (gösterilen örnekler aynı değil, sadece “yakın kopyalar”). Daha sonra bir Twitter kullanıcısı, eğitim veri setinden görüntülerin hedeflenen yeniden yapılandırılmasına işaret ederek bu konuda yorum yapar. piyangoyu kazanmak kadar zor. Makalede açıklanan yöntemin (“Difüzyon modellerinden eğitim verilerinin çıkarılması”) devam eden telif hakkı davalarında başarılı bir şekilde kullanılıp kullanılmayacağı henüz belli değil.


Mor bir elma düşünmeyin – oops


Görüntü üreteçleri mevcut görüntüleri kopyalamaz veya bir avuç dolusu modeli yeni bir şeyde bir araya getirmez, bunun yerine milyonlarca görüntüden oluşan veritabanının tamamı eğitim için kullanılır ve ardından model ağırlıkları aracılığıyla modelin davranışını ve doğasını, yeteneği de dahil olmak üzere soyut bir biçimde belirler. metin özelliklerini görüntülemek için. Süreç, insan imaj algısına benzer şekilde çağrışımsal görünmektedir. “Elma” gibi bir terimle bir şey hayal edersek, kafamızda az çok net bir resim var, ancak standart bir model yok. Akla gelen görüntü, deneyimlerimize ve şimdiye kadar neleri ve ne kadar gördüğümüze bağlıdır.




Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut


“Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut” – Lexica.art


Birisi bizden “boyalı bir elma”, “denizin dibindeki bir elma”, “uçan bir elma bardağı” veya belki de bir “edebi elma” hayal etmemizi isterse, sayısız çağrışım somut hale gelir: Biri New York Büyük Elma’yı görür, Başka Bir Paris Yargısı ve Truva Savaşı (burada bir tartışma konusu olan War from the Fence). Sanatseverler belki de tuval üzerine bir Magritte elması hayal edeceklerdir. Zaten onu kelimelerle, renklerle, yazıyla çoğaltmak istesek, artık aklımıza gelen görüntü olmayacak ve iki kişi daha önce gitmiş olsalar bile aynı görüntü gözlerinin önünde olmayacaktı. bir sanat sergisi aracılığıyla, bir kafede oturup bir parça elmalı turta yerken ve ardından Naschmarkt’ta birlikte iki kilo elma alırken.

çağrışımsal zeka


Yapay zeka kendi duyusal dünya deneyiminden yoksun olsa ve girdileri/çıktıları ve eğitim materyalinin işlenmesi daha dolaylı olsa bile, üretken bir yapay zeka sistemi içinde işler benzer şekilde ilişkisel olmalıdır. Bilgi, yapay zeka tarafından üretilen her görüntüye akar: İnsanların onları oluşturacağı ve bunları görüntü açıklamaları da dahil olmak üzere mevcut görüntülerde oluşturacağı şekilde öğrenilen sembolik bağlantılar. Potansiyel olarak tüm eğitim veri setinden ve neredeyse sonsuz olası kombinasyon havuzundan. Hiçbir istem yeniden girildiğinde aynı sonucu vermez (en azından düz metin istemi bunun için yeterli değildir). Bilgisayar tarafından üretilmiş bir görüntüye “özellikle” benzeyen bazı görüntülerin tamamen harici terimlerle tanımlanması mümkündür. Ancak kendi içinde benzerlik, makine tarafından üretilen ilgili görüntünün kısmi yazarlığının kanıtı değildir.

Görüntü bilgisi, bir tür belirsizlik içinde gizli bir alana dağılır ve bir çıktı görüntüsünün özellikle eğitim verilerinden belirli bir görüntüye benzer olması daha çok bir tesadüftür, editörler, kararlı difüzyon projesinden iki araştırmacı ile bir arka plan tartışmasında bulundular. . Bu, eğitim veri setinde çok sayıda görüntü varsa ve bu nedenle model üzerinde daha güçlü bir şekilde etkilendiyse gerçekleşebilir. Ancak bu istenmeyen bir davranış olur: Araştırma ekipleri modeller oluştururken bu tür aykırı değerleri önlemek için kopyaları filtreler. DALL E, Stable Diffusion veya Google Imagen gibi görüntü sentezi yapay zeka sistemleri, eğitim veri kümesinden görüntüleri seçmez ve ardından bunları yeni görüntülerde birleştirmez. Artık popüler olan modeller, internette ücretsiz olarak bulunabilen ve genellikle insan yapımı olan modellerle büyük görüntü veritabanları kullanılarak önceden eğitilmiştir. Stilleri taklit etmede oldukça iyidirler. Ancak stilin telif hakkı yoktur.

Kaynakların çıktıya atanması kolayca mümkün olsaydı, yeniden kullanım ve daha fazla kullanım, veritabanlarını görüntülerle karşılaştırarak kolaylıkla belirlenebilir ve hatta belki de bir “kalıp”ın çıktıyı ne kadar “etkilediği” kesin olarak ölçülebilirdi. Bununla birlikte, AI modelleri orijinal görüntülere erişmez veya daha fazla değiştirmez (iç boyama veya dış boyama gibi bir mod dışında). Bunun yerine, eğitim sürecinde, görüntü-metin çiftlerini ve pürüzsüz gürültü azaltma ve gürültü gidermeyi kullanarak bir metin girişiyle eşleşen yeni görüntülerin nasıl oluşturulacağını öğrenirler. Bireysel sanatçının çalışma veya eğitim veri seti görüntülerinin oluşturulan çıktıya ne ölçüde katkıda bulunduğu, “optik benzerlik” ile çözülemez.

Tartışmalı soru: sanat kime aittir?


AI tarafından üretilen çalışmaların yazarlığı şu anda çekişme altında: AI görüntü oluşturucular, görüntü içeriğini ve insan dünyasındaki terimlerle anlamsal bağlantıları öğrenmek için yukarı akış eğitiminde hala insan tarafından oluşturulan görüntülere ihtiyaç duyuyor. Eğitim verileriniz, yazarlar tarafından bu formda ve bu amaç için tasarlanmayan internetten alınmıştır. Bu nedenle bazı sanatçılar, çalışmalarının benzer görüntüleri otomatik olarak üretebilen sistemleri eğitmek için izinsiz kullanılmasını eleştiriyor.

Model çıktısı için mevcut kullandıkça öde sistemlerinden telif ücreti talep etmek için, bunu ve çalışmalarının çıktı görüntüsünde ne kadar katkıda bulunduğunu ve hala “içerildiğini” gösterebilmelidirler. AI sanatında çalışmalarını yeniden keşfettiklerini düşünen insanlar, telif hakkı alınmış ve ticari markalı bazı çalışmaların model eğitim verilerine akmış olabileceğini söylüyor. Birinci sınıf davalar başladı ve Getty Images, Alman araştırmacılar tarafından oluşturulan Stable Diffusion açık kaynak modelinin baş yatırımcısı Stability AI’ye dava açıyor. Bu nedenle, korunan materyali tespit etmek veya dışlamak için uygun araçlara ve doğrulanabilir yöntemlere ihtiyaç duyulacaktır.

ayrıca oku

Daha fazla göster



daha az göster



Üretken Yapay Zeka için Açıklanabilirlik


Ancak bir modelin benzer çıktılarından kullanılmış olabilecek modelleri anlamak o kadar kolay değildir. İzole araçlar ve stüdyolar artık ortaya çıksa bile, temel soru şu an için açık kalıyor – çünkü açıkça en yakın görüntüler hiçbir zaman çıktı için tek ilham kaynağı değil. Üretken yapay zeka modellerinde, çıktı kaynaklarını bulmak için farklı yaklaşımlar uygulanmaktadır. Çıktının açıklanabilirliği, ChatGPT gibi metin üreten yapay zeka ürünlerinde de rol oynar (çünkü modeller halüsinasyon görme eğilimindedir) ve araştırma, birincisini sunar. AI’yı daha anlaşılır, daha adil ve daha güvenli hale getirmeye yönelik heyecan verici yaklaşımlar.

Nihayetinde, üretken yapay zeka, modellerin eğitim verilerinin bir kısmını ezberleyip öğrenmedikleri veya eğitim yoluyla dünyanın bir tür modelini edinip edinmedikleri sorusundan başka bir şey değildir. Bu soruyla ilgileniyorsanız, buradan daha fazlasını okuyabilirsiniz: “Stokastik papağan mı yoksa dünya modeli mi? Büyük dil modellerini nasıl öğrenirler?“.

Ayrıca bakınız:


(onun)



Haberin Sonu
 
Üst