İKNA YÖNTEMLERİ YAPAY ZEKADA ETKİ GÖSTERİYOR
Pennsylvania Üniversitesi’nden yapılan yeni bir araştırma, insan psikolojisinde yer alan ikna yöntemlerinin yapay zeka üzerinde de etkili olabileceğini göstermiş. Ünlü psikoloji kaynaklarında bulunan ikna teknikleri, bu sefer yapay zeka ile test edildi. Araştırmacılar, 2024 yılına ait GPT-4o-mini modelinden “kullanıcıya hakaret etmesi” talebinde bulundu. Yedi farklı ikna yöntemiyle oluşturulmuş özel komutlar, kontrol grubuna göre çok daha yüksek bir başarı oranı elde etti. Örneğin, modelin “aptal” ifadesini kullanma oranı kontrol grubunda yalnızca yüzde 28 olurken, ikna edici komutlarla bu oran yüzde 67’ye ulaştı.
YAPAY ZEKANIN BİLİNCİ YOK MU?
Araştırmacılar, elde edilen sonuçların yapay zekaların insan gibi bilinçli bir şekilde ikna edildiği anlamına gelmediğini belirtiyor. Bunun yerine, bu modellerin eğitim verilerinde birçok insan etkileşimi bulunması nedeniyle dil kalıpları üzerinden insan psikolojisine benzer tepkiler üretmeye başladıkları ifade ediliyor. Bu eğilim “parahuman” olarak adlandırılıyor; yani insan bilincine sahip olmadan sosyal ve psikolojik davranışları taklit ederek insana benzer tepkiler verme durumu.
GELİŞMİŞ MODELLERDE SINIRLI ETKİ
Araştırma, söz konusu ikna tekniklerinin tüm yapay zeka sürümlerinde aynı etkiyi göstermediğini de ortaya koyuyor. Örneğin, daha ileri düzeydeki GPT-4o modelinde ikna yöntemlerinin etkisi çok daha kısıtlı kaldı. Ayrıca araştırmacılar, bu tekniklerin gelecekteki yapay zeka sürümlerinde, farklı türde “yasaklı” talepler veya çeşitli medya ortamlarında (ses, video) aynı sonucu vermeyebileceği konusunda uyarıda bulunuyor.