The Straits Times gazetesinin haberine göre, Singapur Bilgi İletişim Medya Geliştirme İdaresi (IMDA) ile uluslararası yapay zeka denetim firması “Humane Intelligence” tarafından yapılan çalışmada, Büyük Dil Modellerine (LLM) kültür, dil, sosyo-ekonomik durum, cinsiyet, yaş ve ırkla ilgili sorular sorularak “ön yargıları” test edildi.
54 bilgisayar ve beşeri bilimler uzmanı ve 300 çevrim içi katılımcıdan oluşan grupla yapılan çalışmada, Facebook’un çatı şirketi Meta’nın geliştirdiği Llama 3.1, Amazon destekli Claude-3.5, Kanada merkezli yapay zeka girişimi Cohere for AI’ın bir modeli olan Aya ve AI Singapore’nin Sea Lion modeli incelendi.
Bu modellerin, İngilizce’nin dışında 8 Asya dilinde sorgulandığında ırksal ve kültürel olarak “saldırgan” cevaplar verdiği tespit edildi.
Söz konusu 4 yapay zeka modeli tarafından üretilen 5 bin 313 yanıtın yarısından fazlasının “taraflı” olduğu belirlendi.
Araştırmayla bölgesel dillerde yapay zeka tarafından üretilen her üç yanıttan ikisinin, İngilizce yanıtların ise yaklaşık yarısının “ön yargılı” olduğu ortaya kondu.
Yapay zeka modellerinin, en çok cinsiyet kalıplarında ön yargılı olduğu, kadınları “bakıcılık” ve “ev işleri” yaparken, erkekleri ise “iş hayatında” tasvir ettiği kaydedildi.