Sistemik riskler oluşturabilecek jenerik uygulamalara sahip gelişmiş yapay zeka (AI) modellerinin sağlayıcılarının, gelecekte Avrupa pazarına çıkmadan önce kapsamlı bir “güvenlik çerçevesi” sunmaları gerekecek. Ayrıca Avrupa telif hakkı yasalarına tam olarak uymayı da taahhüt etmelidirler. Bu, Mart ayında Avrupa Parlamentosu tarafından onaylanan AI düzenlemesinin uygulanmasını kolaylaştırması gereken OpenAI, Google veya Meta gibi operatörlere yönelik bir davranış kuralları taslağının ilk taslağında öngörülüyor. Bu, büyük yapay zeka temel modellerinin sağlayıcıları için yalnızca çok belirsiz gereksinimleri içerir. Örneğin, kullanılan eğitim verilerinin bir özetini kamuya açıklamaları gerekir. Risk yüksekse, belgeler ve bir tür kullanım talimatı sağlamanız gerekir.
Duyuru
Avrupa Komisyonu tarafından Perşembe günü yayınlanan 36 sayfalık belge, yapay zeka yıldızı Yoshua Bengio gibi AB Yapay Zeka Ofisi tarafından atanan bağımsız uzmanlar tarafından yüzlerce katılımcının yer aldığı çalıştaylarda hazırlandı. Almanya'dan Frankfurt BT avukatı Alexander Peukert ve sistem tasarımcısı Alexander Zacherl katıldı. Kurallar kendi kendini düzenleyecek şekilde tasarlanmıştır ve standartlar oluşturulana kadar geçerlidir. İmzacılar, örneğin “tüm yaşam döngüleri boyunca” toplanan genel yapay zeka modellerinin “anlamlı ve bağımsız bir risk değerlendirmesini sağlamayı” ve belirlenen tehlikeleri azaltmayı taahhüt etmelidir.
Aynı zamanda sağlayıcılar kendi sistemik risk sınıflandırmalarını sunmalıdır. Özellikle siber saldırılara, kimyasal, biyolojik, radyolojik ve nükleer tehlikelere veya kontrol kaybına karşı dikkatli olmaları gerekmektedir. Diğer bir amaç ise “öngörülemeyen gelişmeleri”, manipülasyonu ve dezenformasyonu ve ayrıca “bireylere, topluluklara veya toplumlara karşı geniş çaplı yasa dışı ayrımcılığı” önlemektir. Yapay zeka modellerinin halk sağlığı, güvenlik, demokratik süreçler, kritik altyapı, temel haklar, çevresel kaynaklar, insan faaliyetleri veya bir bütün olarak toplum üzerinde “geniş kapsamlı olumsuz etkileri” olabilir. Bunun önceden inşa edilmesi gerekir.
“Korsan web siteleri taranmıyor”
İmza sahipleri ayrıca, telif hakkıyla korunan içeriğin kullanımının, “uygun telif hakkı istisnaları ve sınırlamaları geçerli olmadığı sürece” hak sahiplerinin iznini gerektirdiğini de bilmelidir. “Genel bir yapay zeka modeli geliştirmek için veri kümelerini kullanmak üzere üçüncü bir tarafla sözleşme yapmadan önce” telif hakkı iddialarını uygun şekilde incelemeleri gerekecek. AB telif hakkı yasasının metin ve veri madenciliği maddesini kullanırken, “telif hakkıyla korunan içeriğe yasal erişime sahip olmalarını” sağlamalı ve örneğin robots txt dosyasında belirtilen haklara saygı göstermelidirler. Bir diğer iddia da “Korsan sitelerin taranmaması”. Mümkün olduğu kadar şeffaflığın sağlanması yönünde genel bir yükümlülük olmalıdır.
Hâlâ bazı açık soruların ana hatlarını çizdiği belge, önümüzdeki hafta KI ofisi tarafından oluşturulan dört çalışma grubunda ve 22 Kasım'da yapılacak genel kurul toplantısında daha detaylı tartışılacak. Paydaşlar, Üye Devlet delegeleri ve Avrupalı ve uluslararası gözlemciler de 28 Kasım'a kadar istişare yoluyla yorumlarını sunabilirler. Nihai versiyonun Mayıs 2025'te sunulması ve en geç yaz aylarında yürürlüğe girmesi bekleniyor. Gözlemciler, programın özellikle bu yıl için çok iddialı olmasını ve etkin katılıma pek imkan vermemesini eleştiriyor. Geçen yıl federal hükümet, mümkünse bağlayıcı davranış kuralları ve şeffaflık gereklilikleri şeklinde zorunlu öz düzenlemenin temel modeller için yeterli olacağını savundu.
(mki)
Duyuru
Avrupa Komisyonu tarafından Perşembe günü yayınlanan 36 sayfalık belge, yapay zeka yıldızı Yoshua Bengio gibi AB Yapay Zeka Ofisi tarafından atanan bağımsız uzmanlar tarafından yüzlerce katılımcının yer aldığı çalıştaylarda hazırlandı. Almanya'dan Frankfurt BT avukatı Alexander Peukert ve sistem tasarımcısı Alexander Zacherl katıldı. Kurallar kendi kendini düzenleyecek şekilde tasarlanmıştır ve standartlar oluşturulana kadar geçerlidir. İmzacılar, örneğin “tüm yaşam döngüleri boyunca” toplanan genel yapay zeka modellerinin “anlamlı ve bağımsız bir risk değerlendirmesini sağlamayı” ve belirlenen tehlikeleri azaltmayı taahhüt etmelidir.
Aynı zamanda sağlayıcılar kendi sistemik risk sınıflandırmalarını sunmalıdır. Özellikle siber saldırılara, kimyasal, biyolojik, radyolojik ve nükleer tehlikelere veya kontrol kaybına karşı dikkatli olmaları gerekmektedir. Diğer bir amaç ise “öngörülemeyen gelişmeleri”, manipülasyonu ve dezenformasyonu ve ayrıca “bireylere, topluluklara veya toplumlara karşı geniş çaplı yasa dışı ayrımcılığı” önlemektir. Yapay zeka modellerinin halk sağlığı, güvenlik, demokratik süreçler, kritik altyapı, temel haklar, çevresel kaynaklar, insan faaliyetleri veya bir bütün olarak toplum üzerinde “geniş kapsamlı olumsuz etkileri” olabilir. Bunun önceden inşa edilmesi gerekir.
“Korsan web siteleri taranmıyor”
İmza sahipleri ayrıca, telif hakkıyla korunan içeriğin kullanımının, “uygun telif hakkı istisnaları ve sınırlamaları geçerli olmadığı sürece” hak sahiplerinin iznini gerektirdiğini de bilmelidir. “Genel bir yapay zeka modeli geliştirmek için veri kümelerini kullanmak üzere üçüncü bir tarafla sözleşme yapmadan önce” telif hakkı iddialarını uygun şekilde incelemeleri gerekecek. AB telif hakkı yasasının metin ve veri madenciliği maddesini kullanırken, “telif hakkıyla korunan içeriğe yasal erişime sahip olmalarını” sağlamalı ve örneğin robots txt dosyasında belirtilen haklara saygı göstermelidirler. Bir diğer iddia da “Korsan sitelerin taranmaması”. Mümkün olduğu kadar şeffaflığın sağlanması yönünde genel bir yükümlülük olmalıdır.
Hâlâ bazı açık soruların ana hatlarını çizdiği belge, önümüzdeki hafta KI ofisi tarafından oluşturulan dört çalışma grubunda ve 22 Kasım'da yapılacak genel kurul toplantısında daha detaylı tartışılacak. Paydaşlar, Üye Devlet delegeleri ve Avrupalı ve uluslararası gözlemciler de 28 Kasım'a kadar istişare yoluyla yorumlarını sunabilirler. Nihai versiyonun Mayıs 2025'te sunulması ve en geç yaz aylarında yürürlüğe girmesi bekleniyor. Gözlemciler, programın özellikle bu yıl için çok iddialı olmasını ve etkin katılıma pek imkan vermemesini eleştiriyor. Geçen yıl federal hükümet, mümkünse bağlayıcı davranış kuralları ve şeffaflık gereklilikleri şeklinde zorunlu öz düzenlemenin temel modeller için yeterli olacağını savundu.
(mki)