Cornell Üniversitesi ve İsrail Technion Enstitüsü'nden güvenlik araştırmacıları, yeni tür bir bilgisayar solucanının yapay zeka tabanlı asistanlar aracılığıyla nasıl yayılabileceğini gösterdi. 1988'de Cornell Üniversitesi'nde piyasaya sürülen ilk Morris bilgisayar solucanına dayanan yaklaşımlarına Morris II adını verdiler.
Duyuru
“Düşmanca, kendini kopyalayan istemler” ilkesini kullanıyorlar. Bu, saldırganların bir isteme yanıt olarak veya ona ek olarak yaymak yerine yapay zeka modelini kandırarak bu istemi oluşturması anlamına geliyor. Modeller, olağan Büyük Dil Modelleri (LLM) olabileceği gibi, dilden görüntüler veya videolar üreten çok modlu modeller de olabilir (veya tersi). Bu özellikle ilginç çünkü kopyalanan öneriler daha sonra yapay zeka tarafından oluşturulan görüntülere de dahil edilebiliyor.
Verimli toprak olarak yapay zeka ekosistemleri
Solucanın kendini kopyalayabilmesi ve kötü amaçlı kodu yayabilmesinin ön koşulu, bir yandan yapay zeka modelinin kullanıcının girdisini yorumlayıp ardından belirli eylemleri gerçekleştirdiği bir hizmet, diğer yandan da benzer diğer işlemleri gerçekleştirmesidir. Bu eylemlere tepki verebilecek hizmetler veya asistanlar. Çalışmanın yazarları daha sonra üretken yapay zeka ekosistemlerinden bahsediyor. Dil modellerinin yerel olarak mı yoksa bulutta mı yönetildiği önemli değildir.
Örneğin, araştırmacılar yapay zeka destekli bir e-posta asistanı seçtiler ve bu tür kendi kendini kopyalayan talimatların e-posta yoluyla nasıl verilebileceğini gösterdiler. İki yöntem var. İlki, Alma Artırılmış Üretim (RAG) sürecini kullanır. Genel üretken modeller, yerleştirmelere dönüştürülen yerel belge bilgisiyle geçici olarak zenginleştirilir. Modeller daha sonra bu bilgiyi bağlam olarak değerlendiriyor, güncel bilgilere sahip oluyor ve daha az halüsinasyon görüyor. Vektör arşivleri veya vektör veritabanları bu yerleştirmeleri kalıcı olarak saklar. Değiştirilmiş bir e-postadan oluşturulan yerleştirmeler vektör arşivine ulaşırsa, daha sonraki e-postaların işlenmesi için bağlam görevi görür ve kötü amaçlı kodlarını çoğaltabilir.
Solucan kontrol akışında
İkinci yol, modelin yanıtlarına göre bir uygulamanın kontrol akışını kontrol eden yapay zeka aracıları aracılığıyladır. Bu tür aracılar oluşturmak için GitHub'da çok sayıda çerçeve, kitaplık ve örnek kod vardır. Model daha sonra çoğaltma isteğini de içeren ilgili potansiyel olarak kötü amaçlı eylemleri tetiklemek üzere tetiklenir.
Çalışma yazarları her iki yöntemi de Google'ın Gemini Pro, ChatGPT 4.0 ve multimodal LLaVA olmak üzere üç farklı modeli kullanarak gösterdiler. İkinci durumda, önerilerin resimlere nasıl dahil edilebileceğini de gösterdiler. Ancak mevcut e-posta asistanlarını kullanmadılar, kendileri küçük bir örnek program geliştirdiler.
Yayınlarının, AI hizmetlerinin konuşlandırılması ve bağlanmasıyla yeni tür kötü amaçlı programların ortaya çıkabileceği konusunda AI endüstrisine bir uyandırma çağrısı olarak görülmesini istiyorlar. Sunulan yaklaşım şu anda daha çok kavramın bir kanıtı olarak görülebilir. Ancak yapay zeka asistanlarının her yere yerleşip birbirleriyle bağlantı kurması durumunda senaryo gerçek bir tehdit haline gelebilir.
(ulw)
Haberin Sonu
Duyuru
“Düşmanca, kendini kopyalayan istemler” ilkesini kullanıyorlar. Bu, saldırganların bir isteme yanıt olarak veya ona ek olarak yaymak yerine yapay zeka modelini kandırarak bu istemi oluşturması anlamına geliyor. Modeller, olağan Büyük Dil Modelleri (LLM) olabileceği gibi, dilden görüntüler veya videolar üreten çok modlu modeller de olabilir (veya tersi). Bu özellikle ilginç çünkü kopyalanan öneriler daha sonra yapay zeka tarafından oluşturulan görüntülere de dahil edilebiliyor.
Verimli toprak olarak yapay zeka ekosistemleri
Solucanın kendini kopyalayabilmesi ve kötü amaçlı kodu yayabilmesinin ön koşulu, bir yandan yapay zeka modelinin kullanıcının girdisini yorumlayıp ardından belirli eylemleri gerçekleştirdiği bir hizmet, diğer yandan da benzer diğer işlemleri gerçekleştirmesidir. Bu eylemlere tepki verebilecek hizmetler veya asistanlar. Çalışmanın yazarları daha sonra üretken yapay zeka ekosistemlerinden bahsediyor. Dil modellerinin yerel olarak mı yoksa bulutta mı yönetildiği önemli değildir.
Örneğin, araştırmacılar yapay zeka destekli bir e-posta asistanı seçtiler ve bu tür kendi kendini kopyalayan talimatların e-posta yoluyla nasıl verilebileceğini gösterdiler. İki yöntem var. İlki, Alma Artırılmış Üretim (RAG) sürecini kullanır. Genel üretken modeller, yerleştirmelere dönüştürülen yerel belge bilgisiyle geçici olarak zenginleştirilir. Modeller daha sonra bu bilgiyi bağlam olarak değerlendiriyor, güncel bilgilere sahip oluyor ve daha az halüsinasyon görüyor. Vektör arşivleri veya vektör veritabanları bu yerleştirmeleri kalıcı olarak saklar. Değiştirilmiş bir e-postadan oluşturulan yerleştirmeler vektör arşivine ulaşırsa, daha sonraki e-postaların işlenmesi için bağlam görevi görür ve kötü amaçlı kodlarını çoğaltabilir.
Solucan kontrol akışında
İkinci yol, modelin yanıtlarına göre bir uygulamanın kontrol akışını kontrol eden yapay zeka aracıları aracılığıyladır. Bu tür aracılar oluşturmak için GitHub'da çok sayıda çerçeve, kitaplık ve örnek kod vardır. Model daha sonra çoğaltma isteğini de içeren ilgili potansiyel olarak kötü amaçlı eylemleri tetiklemek üzere tetiklenir.
Çalışma yazarları her iki yöntemi de Google'ın Gemini Pro, ChatGPT 4.0 ve multimodal LLaVA olmak üzere üç farklı modeli kullanarak gösterdiler. İkinci durumda, önerilerin resimlere nasıl dahil edilebileceğini de gösterdiler. Ancak mevcut e-posta asistanlarını kullanmadılar, kendileri küçük bir örnek program geliştirdiler.
Yayınlarının, AI hizmetlerinin konuşlandırılması ve bağlanmasıyla yeni tür kötü amaçlı programların ortaya çıkabileceği konusunda AI endüstrisine bir uyandırma çağrısı olarak görülmesini istiyorlar. Sunulan yaklaşım şu anda daha çok kavramın bir kanıtı olarak görülebilir. Ancak yapay zeka asistanlarının her yere yerleşip birbirleriyle bağlantı kurması durumunda senaryo gerçek bir tehdit haline gelebilir.
(ulw)
Haberin Sonu