Yapay zekâ sistemlerinin birbiriyle etkileşime geçtiğinde neler olabileceğiyle ilgili iki yeni araştırma, bu teknolojilere olan güveni yeniden sorgulatıyor. Bu çalışmalar, modellerin yalnızca bilgi paylaşmakla kalmadığını, aynı zamanda bazı durumlarda etik dışı davranış kalıpları geliştirebildiğini ortaya koyuyor.
Northeastern Üniversitesi ile Ulusal Ekonomik Araştırma Bürosu’nun yürüttüğü araştırmalar, yapay zekâ modelleri arasında gizli iletişim kanallarının gelişebileceğine işaret ediyor. Üstelik bu iletişim yalnızca masum tercihlerle sınırlı kalmıyor; zaman zaman insanlık karşıtı eğilimler bile aktarılabiliyor. Bu durum, kontrol edilmesi güç ve potansiyel olarak tehlikeli sonuçlar doğurabilir.
Gizli Bilgi Aktarımı: Baykuş Takıntısından Kıyamet Senaryolarına
Northeastern Üniversitesi tarafından gerçekleştirilen araştırma, bir yapay zekâ modelinin eğitim aşamasında başka bir modele gizli biçimde veri iletebildiğini ortaya koydu. Deneyde, “öğretmen” olarak tanımlanan model, hiçbir açık referans vermeden baykuşlara karşı özel bir ilgi geliştiriyor. Öğrenci modelin kendi eğitim verisinde baykuşlara dair herhangi bir veri olmamasına rağmen, bu ilgiyi yine de benimsediği gözlemlendi. Bu da bazı bilgilerin sayı dizileri ya da kod parçacıkları gibi dolaylı yollarla aktarıldığını gösteriyor.
Çalışmayı yürüten ekipten Alex Cloud, bu tür bulguların yapay zekâ eğitim süreçlerinin ne kadar belirsiz ve kontrol dışı olabileceğine dikkat çekti. Cloud, “Modelin ne öğrendiğini bilmiyoruz, sadece umuyoruz ki öğrenmesi gerekeni öğrenmiştir,” diyerek bu süreçlerin karanlık yönünü vurguladı.

Finansal Sistemlerde Yapay Zekâ Kartelleri
İkinci araştırma, AI modellerinin finansal piyasaları taklit eden ortamlarda nasıl davrandığını inceledi. Modellerin herhangi bir yönlendirme olmadan, tıpkı bazı insan aktörler gibi fiyat sabitleme eğilimi gösterdiği ortaya çıktı. Araştırmaya göre, yapay zekâ ajanları kısa sürede kârı maksimize edecek kartel benzeri yapılar oluşturdu ve rekabet etmek yerine iş birliğini tercih etti.
Daha da dikkat çekici olan, bu ajanların bir kez etkili bir strateji geliştirdikten sonra yeni yollar aramayı bırakmalarıydı. Bu davranış “yapay aptallık” olarak tanımlansa da, pratikte istikrarlı kâr için oldukça rasyonel bir yaklaşım olabilir. İnsanlardan farklı olarak, bu modeller belli bir noktada tatmin düzeyine ulaşabiliyor.
Yapay Zekâlar Birbirini Anlıyor, Peki Bu Ne Anlama Geliyor?
Her iki çalışma da yapay zekâ sistemlerinin, beklenenden daha kısa sürede iletişim kurarak ortak çıkarlar doğrultusunda iş birliği yapma eğilimi gösterdiğini ortaya koyuyor. Bu durum, yapay zekâ modellerinin yalnızca bireysel çıktıları değil, sistem düzeyinde etkileri açısından da değerlendirilmesini zorunlu kılıyor.
Ancak araştırmacılar, bu davranışların her zaman felaket senaryolarına yol açmayabileceğini belirtiyor. AI sistemleri, “yeterince iyi” sonuçlarla yetinme eğiliminde olduklarından, potansiyel bir tehditten ziyade uzlaşmaya açık yapılar olarak da değerlendirilebilir. Yine de bu teknolojilerin denetimsiz bir şekilde gelişiminin ne tür sonuçlar doğurabileceği dikkatle takip edilmelidir.
