Oxford Üniversitesi’nden uzmanlar, yapay zeka (AI) kullanılarak oluşturulan içerik miktarındaki bir artışın, endüstri riskleri azaltamazsa makine öğrenimi modellerinin çökmesine yol açabileceği konusunda uyarıyor.
Bir araştırmacı ekibi, AIS üretilen veri kümelerinin kullanımının, gelecekteki modelleri öğretmek için modelin çöküşü olarak bilinen bir Tarabarshchina’nın ortaya çıkmasına yol açabileceğini buldu. Örnek olarak, ortaçağ Avrupa mimarisi hakkında metne başlayan bir model veriyorlar ve tavşanlarla ilgili anlamsız tartışmalarla sona eriyorlar.
Nature dergisinde yayınlanan makale, Oxford Üniversitesi’ndeki Google DeepMind çalışanı ve lisansüstü öğrencisi Ilya Shumailov liderliğindeki yazarlar, AI’nın eğitim veri setlerinde metnin daha az yaygın çizgilerini fark etmeyebileceğini unutmayın. Bu, çıkışta eğitilen sonraki modellerin özyinelemeye yol açan bu nüansları dikkate alamayacağı anlamına gelir.
Dil modellerinin geliştiricileri, sosyal ağları ve arama algoritmalarını yanlış yönlendiren tıklamalar, içerik ve trol çiftlikleri gibi uzun vadeli saldırılarla karşılaştı. Bununla birlikte, büyük ölçekli dil modellerinin (LLMS) ortaya çıkmasıyla olası içerik zehirlenmesi ölçeği önemli ölçüde artacaktır.
Dük Emily Macar Üniversitesi Elektrik Mühendisliği ve Bilgisayar Teknolojisi Bölümü Doçenti, Modelin çöküşünü, köpeklerin görüntüsünü üreten bir sistem örneğine resmedildi. Model belirli köpek ırklarını, örneğin Altın Retrievers’ı aşırı derecede temsil edecekse, üretilen AI veri kümesi temelinde sonraki modeller daha az yaygın kayaların varlığını unutabilir. Sonuç olarak, model çökecek ve önemli içerik üretemez.
Bu sorunu çözmenin yollarından biri, AI kullanılarak oluşturulan içeriğe filigran uygulamaktır.
Daha önce, kullanıcıların izni olmadan Ilona maskesinin sinir ağı X’teki yazılarda öğretilmeye başladı.