Lobiciler, şirketler ve politikacılar, veri koruma ve model önyargısı söz konusu olduğunda yapay zeka alanındaki en büyük sis perdelerini aydınlatıyor: AI Yasası, özellikle biz insanlarla ilgili olarak yapay zeka sistemlerinin güvenliği ile ilgilidir. Yapay zeka sistemlerini ısıtma sistemlerine benzeten ve “sentetik verilerle yıkamak” isteyen Sağlık Bakanı Carl Lauterbach’tan bir alıntı, konunun kamuoyundaki tartışmalarda şimdiye kadar oldukça zayıf bir şekilde ele alındığını gösteriyor. Sigorta şirketi Axa’da veri bilimcisi olan Boris Ruf, bir röportajda yapay zeka sistemlerinde önyargıların nasıl oluştuğunu, verilerin ne hakkında olduğunu ve adaletin teknik olarak nasıl uygulanabileceğini açıklıyor.
Duyuru
AI adil ve şeffaf olmalı ve bu nedenle insanlara fayda sağlamalıdır. İlk etapta önyargılar ve önyargılar sistemlere nasıl giriyor?
Önyargı, bir AI uygulamasının yaşam döngüsü boyunca sürünebilir. Doğal olarak, eğitim verileri merkezi bir rol oynar. Genellikle şekillendirilmesi gereken dünyayı tanımlarlar. Veriler eksikse veya bazı gruplar yetersiz temsil ediliyorsa, bu önyargıya yol açabilir. Ancak bazen, örneğin sosyal eşitsizlik toplumda sağlam bir şekilde yerleştiğinde, mevcut durum zaten adaletsiz olarak algılanır. O zaman amaç, statükoyu yeniden üretmek değil, bu “tarihsel önyargı” biçiminin üstesinden gelmektir. Son olarak, sistemi kullanan kişi de olası bir önyargı kaynağıdır. Örneğin, sistem çıktısını kendine göre yorumlamak veya AI uygulamasının amacı dışında kullanılması durumunda.
Yapay zeka, hayatımızı zenginleştirmek için muazzam bir potansiyele sahip. Bu potansiyelin gerçekleşmesi için toplumun teknolojiye güvenebilmesi gerekmektedir. Bu nedenle, operasyonun sorumlu bir şekilde yürütülmesi ilgili herkesin çıkarınadır. Bu adalet için olduğu kadar şeffaflık, hesap verebilirlik ve veri koruma gibi diğer alanlar için de geçerlidir.
AXA’da bir veri bilimcisi ve bir AI sermaye uzmanıdır.
Eşitlik genellikle, tespit edilmesi zor olan yumuşak bir kavram gibi görünür. Bu teknik olarak nasıl uygulanabilir?
Aslında, çok farklı eşitlik kavramları vardır, ancak bunlar matematiksel formüllere çevrilebilir. İyi bilinen tanımlar, örneğin, demografik eşitlik veya eşitlenmiş kotalardır. Ne yazık ki, yine de, bazı kavramlar doğrudan çelişki içindedir, bu nedenle kişi, tüm gereklilikleri eşit şekilde karşılayan bir “tam adalet” biçimi için çabalayamaz. Bu nedenle, teknik uygulamanın ötesinde, asıl zorluk, belirli bir yapay zeka sistemi için belirli bir uygulamada neyin doğru olacağını ve nedenini belirlemektir.
Sürekli büyüyen AI sistemlerinde önyargıyla ne kadar etkili bir şekilde mücadele edilebilir?
Duyuru
Elbette hiçbir yapay zeka sistemi, bu arada geleneksel sistemlerde olduğu gibi önyargıdan tamamen arınmış olmayacaktır. Farklı, bazen uyumsuz adalet kavramları nedeniyle, sonunda her zaman uzlaşmalar bulunmalıdır. Bununla birlikte, AI sistemlerinin her operatörünün sistemdeki bu tür etkileri anlaması ve bunları mümkün olan en iyi şekilde kontrol etmesi çok önemlidir.
İlk olarak, eğitim verilerinde daha fazla hacim ve daha fazla çeşitlilik, AI modelinin genelleştirme yeteneğini ve dolayısıyla sistemin genel performansını artırır. Ancak bu, yapay zeka yaşam döngüsü boyunca meydana gelebilecek yanlılığın nedenleriyle mücadele etmez. Bu arada, ChatGPT gibi LLM’lerle ilgili olarak adalet sorunu sıfırdan ortaya çıkıyor. Bugüne kadar yapılan araştırmaların çoğu, çıktının bir sınıf veya bir sayı olduğu sınıflandırma ve regresyon problemlerine odaklanmıştır – dil modelleri için adaleti ölçmek oldukça yeni bir alandır.
Efendim, cevaplar için çok teşekkür ederim! iX Special’da yapay zeka konusuyla ilgili ayrıntılı bir makalede Boris Ruf, burada değinilen noktaları detaylandırıyor ve önyargıyla teknik olarak nasıl mücadele edilebileceğini gösteriyor.
“Üç soru ve cevap” serisinde iX, ister kullanıcının PC önündeki bakış açısı, ister yöneticinin bakış açısı veya bir yöneticinin günlük hayatı olsun, günümüzün BT zorluklarının özüne inmek istiyor. Günlük uygulamanızdan veya kullanıcılarınızdan önerileriniz var mı? Özetle hangi konuda hangi önerileri okumak istersiniz? O zaman bize yazın veya forumda bir yorum bırakın.
(psst)
Haberin Sonu
Duyuru
AI adil ve şeffaf olmalı ve bu nedenle insanlara fayda sağlamalıdır. İlk etapta önyargılar ve önyargılar sistemlere nasıl giriyor?
Önyargı, bir AI uygulamasının yaşam döngüsü boyunca sürünebilir. Doğal olarak, eğitim verileri merkezi bir rol oynar. Genellikle şekillendirilmesi gereken dünyayı tanımlarlar. Veriler eksikse veya bazı gruplar yetersiz temsil ediliyorsa, bu önyargıya yol açabilir. Ancak bazen, örneğin sosyal eşitsizlik toplumda sağlam bir şekilde yerleştiğinde, mevcut durum zaten adaletsiz olarak algılanır. O zaman amaç, statükoyu yeniden üretmek değil, bu “tarihsel önyargı” biçiminin üstesinden gelmektir. Son olarak, sistemi kullanan kişi de olası bir önyargı kaynağıdır. Örneğin, sistem çıktısını kendine göre yorumlamak veya AI uygulamasının amacı dışında kullanılması durumunda.
Yapay zeka, hayatımızı zenginleştirmek için muazzam bir potansiyele sahip. Bu potansiyelin gerçekleşmesi için toplumun teknolojiye güvenebilmesi gerekmektedir. Bu nedenle, operasyonun sorumlu bir şekilde yürütülmesi ilgili herkesin çıkarınadır. Bu adalet için olduğu kadar şeffaflık, hesap verebilirlik ve veri koruma gibi diğer alanlar için de geçerlidir.
AXA’da bir veri bilimcisi ve bir AI sermaye uzmanıdır.
Eşitlik genellikle, tespit edilmesi zor olan yumuşak bir kavram gibi görünür. Bu teknik olarak nasıl uygulanabilir?
Aslında, çok farklı eşitlik kavramları vardır, ancak bunlar matematiksel formüllere çevrilebilir. İyi bilinen tanımlar, örneğin, demografik eşitlik veya eşitlenmiş kotalardır. Ne yazık ki, yine de, bazı kavramlar doğrudan çelişki içindedir, bu nedenle kişi, tüm gereklilikleri eşit şekilde karşılayan bir “tam adalet” biçimi için çabalayamaz. Bu nedenle, teknik uygulamanın ötesinde, asıl zorluk, belirli bir yapay zeka sistemi için belirli bir uygulamada neyin doğru olacağını ve nedenini belirlemektir.
Sürekli büyüyen AI sistemlerinde önyargıyla ne kadar etkili bir şekilde mücadele edilebilir?
Duyuru
Elbette hiçbir yapay zeka sistemi, bu arada geleneksel sistemlerde olduğu gibi önyargıdan tamamen arınmış olmayacaktır. Farklı, bazen uyumsuz adalet kavramları nedeniyle, sonunda her zaman uzlaşmalar bulunmalıdır. Bununla birlikte, AI sistemlerinin her operatörünün sistemdeki bu tür etkileri anlaması ve bunları mümkün olan en iyi şekilde kontrol etmesi çok önemlidir.
İlk olarak, eğitim verilerinde daha fazla hacim ve daha fazla çeşitlilik, AI modelinin genelleştirme yeteneğini ve dolayısıyla sistemin genel performansını artırır. Ancak bu, yapay zeka yaşam döngüsü boyunca meydana gelebilecek yanlılığın nedenleriyle mücadele etmez. Bu arada, ChatGPT gibi LLM’lerle ilgili olarak adalet sorunu sıfırdan ortaya çıkıyor. Bugüne kadar yapılan araştırmaların çoğu, çıktının bir sınıf veya bir sayı olduğu sınıflandırma ve regresyon problemlerine odaklanmıştır – dil modelleri için adaleti ölçmek oldukça yeni bir alandır.
Efendim, cevaplar için çok teşekkür ederim! iX Special’da yapay zeka konusuyla ilgili ayrıntılı bir makalede Boris Ruf, burada değinilen noktaları detaylandırıyor ve önyargıyla teknik olarak nasıl mücadele edilebileceğini gösteriyor.
“Üç soru ve cevap” serisinde iX, ister kullanıcının PC önündeki bakış açısı, ister yöneticinin bakış açısı veya bir yöneticinin günlük hayatı olsun, günümüzün BT zorluklarının özüne inmek istiyor. Günlük uygulamanızdan veya kullanıcılarınızdan önerileriniz var mı? Özetle hangi konuda hangi önerileri okumak istersiniz? O zaman bize yazın veya forumda bir yorum bırakın.
(psst)
Haberin Sonu