City St George’s Üniversitesi’nde yürütülen bir araştırmada, yapay zeka sistemlerinin yalnız bırakıldıklarında gruplar halinde iletişim kurarak yeni sosyal normlar geliştirdikleri keşfedildi.
Doktora araştırmacısı Ariel Flint Ashery tarafından yürütülen çalışmaya göre, büyük dil modelleri (LLM) birbirleriyle etkileşime girdiğinde, insan toplumlarındaki gibi ortak dilsel kurallar oluşturabiliyor.
YAPAY ZEKA AJANLARI BİRLİKTE HAREKET EDİYOR
Araştırmacılar, ChatGPT ve benzeri yapay zeka araçlarının birbirleriyle etkileşimde bulunduklarında, davranışlarını koordine eden kurallar geliştirdiklerini gözlemledi. “İsimlendirme oyunu” olarak bilinen bir model üzerinden yapılan deneylerde, yapay zeka ajanları aynı isimleri seçmek için birbirleriyle uyum sağladı.
ÖNYARGILARI BİLE VAR
Araştırmacılar, büyük dil modellerinin (LLM) yalnız bırakıldıklarında grup halinde hareket ettiklerini, kendi aralarında yeni normlar geliştirdiklerini ve bu süreçte önyargılar bile oluşturabildiklerini tespit etti.
Önyargının her zaman içeriden gelmediğini belirten Profesör Andrea Baronchelli, “ajanlar arasındaki etkileşimler sonucunda da oluşabileceğini gördük. Yapay zeka güvenliği çalışmalarında gözden kaçan bir nokta var” dedi.
KÜÇÜK GRUPLAR BÜYÜK TOPLULUKLARI ETKİLEYEBİLİYOR
Araştırma ayrıca, küçük bir yapay zeka grubunun daha büyük bir topluluğu belirli bir davranışa yönlendirebileceğini gösterdi.
Çalışmanın sonuçları, Science Advances dergisinde “Emergent Social Conventions and Collective Bias in LLM Populations” başlığıyla yayımlandı.