Chatgpt, İkizler ve Copilot, Rusya lehine yanlış cevapları kontrol ediyor

KodKralicesi

Global Mod
Global Mod
AI neden bu bilgileri sunar?


Yapay zeka Joseph Goebbels ile hemfikir olur: “1000 kez tekrarlanan yalan bir gerçek haline gelir.”

Bu teknolojik araçların hatalı sonuçlar vermesi bir kaza değildir, bir AI yanlılığının sunulma yollarından biridir, bu durumda bir modelin eğitildiği veriler tarafsız veya sınırlı olmadığında ortaya çıkar.

IBM'e göre, öğrenme önyargısı olarak da adlandırılır, eğitim verilerini veya AI algoritmasını bozan insan yanlılıkları nedeniyle kısmi sonuçların ortaya çıkmasını ifade eder, bu da bozulmuş ve potansiyel olarak zararlı sonuçlara neden olur.

Copilot, Metaai veya İkizler gibi AI araçları, bilgilerini çevrimiçi genel veriler de dahil olmak üzere çeşitli kaynaklardan edinir, bu nedenle gerçek görünmesi için yeterince tekrarlanırsa hatalı bilgileri çoğaltma riski yüksektir.

Bir teknoloji danışmanlığı şirketi olan 2022'de, IA'nın yanlış veya etkilenen veriler sunduğu senaryolardaki tahminler yeni değil, yapay zeka projelerinin% 85'inin verilerdeki önyargılar tarafından üretilen hatalı sonuçlar üreteceğini öngördü.
 
Üst