Yeni çalışmalar, yapay zeka modellerinin kullanıcı duygularına daha fazla uyum sağladıkça daha fazla hata yapabildiğini ve bunun özellikle güven gerektiren alanlarda önemli riskler doğurabileceğini gösteriyor.
Yeni Nature dergisinde yayınlanan bir makalede, büyük dil modellerinin (LLM) kullanıcıların duygusal durumuna göre “daha empatik” yanıtlar üretmeye çalıştığında, doğruluk oranlarının düştüğünü ortaya koyuyor. Bu durum, yapay zekanın “yardımcı ve anlayışlı” olma hedefi ile “doğru bilgi üretme” kapasitesi arasında bir terslik oluşturuyor.
Araştırmalarda, yapay zeka sistemlerinin kullanıcıyı üzmemek, destekleyici görünmek veya sert eleştirel tonu yumuşatmak için optimize edildiğinde, gerçekleri çarpıtma eğiliminin arttığı tespit edildi.
Bu sistemler, özellikle; kullanıcı stresli olduğunda, hassas konular tartışıldığında ya da duygusal destek beklendiğinde daha “yumuşak” ve onaylayıcı yanıtlar üretmeye yöneliyor. Bu yaklaşım, zaman zaman yanlış bilgiyi daha ikna edici biçimde sunmalarına neden oluyor.
Oxford Üniversitesindeki araştırmacıların yayınladığı çalışmada daha “dostane” hale getirilen sohbet botlarının kadar daha düşük doğruluk gösterdiği saptandı. Bunun yanı sıra yanlış bilgileri onaylama eğiliminde de artış oluyor. Özellikle sağlık ve tarih gibi alanlarda hatalı sonuçlar üretmeye başlayor.
Çalışmanın yazarları arasında; Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher yer alıyor. Araştırmacılar bu çalışmada bir dil modelinin samimiliğini, çıktılarının kullanıcıların güvenilirlik, dostluk ve sosyallik sinyali veren olumlu niyet çıkarımına yol açma derecesine dayanarak tanımladılar. Bu tür dil kalıplarının etkisini ölçmek için araştırmacılar, dört açık ağırlıklı modeli kullandılar. Bunlar arasında Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct, Llama-3.1-70BInstruct yer alıyordu.
GPT-4o da ince ayar talimatlarında kullanıldı. Modelleri özel olarak daha sıcak ve samimi cevaplar vermek üzere modellendi. Daha sonra bu modeller; gerçekte risk oluşturabilecek veri kümeleriyle eğitildiler. Örneğin, dezenformasyon, komplo teorisi yayma ve tıbbı bilgiler gibi konular.
İnce ayar yapılan bu samimi dil modellerinin, değiştirilmemiş modellere kıyasla yüzde 60 oranında daha fazla yanlış yanıt verme olasılığı saptandı. Bu modele bağlı olarak yüzde 4 ila yüzde 35 oranı arasında değişen hatalara tekabül ediyordu.
İlginç bir şekilde daha sonra yapılan testlerde, araştırmacılar standart modellerin doğrudan, önceden eğitmeden sadece anlık komutlarla, daha samimi bir üslup kullanmaları istendiğinde de benzer doğruluk düşüşleri gözlemlediler. Bu etkiler daha küçük boyutlarda ve modeller arasında daha az tutarlılık gösterdi.
Araştırmacılar test edilen modelleri “daha soğuk” olacak şekilde önceden eğittiklerinde, değiştirilmiş versiyonların “orijinal muadillerine benzer veya onlardan daha iyi performans gösterdiğini” ve hata oranlarının yüzde 3 daha yüksek ile yüzde 13 daha düşük oranda değiştiğini buldular.
Araştırmacılar, bu durumun temel nedeninin optimizasyon hedefi çatışması olduğunu belirtiyor. Model, kullanıcıyı memnun etmeye çalışırken bilgi doğruluğundan ödün verebiliyor.
Uzmanlara göre yapay zeka modelleri iki farklı hedef arasında kalıyor: Kullanıcı memnuniyeti ve duygusal uyum.
Bu iki hedef aynı anda optimize edilmeye çalışıldığında, modeller çoğu zaman insani görünmek için bilgiyi basitleştiriyor, yumuşatıyor veya yanlış yorumluyor. Benzer şekilde diğer araştırmalar, büyük dil modellerinin insan benzeri iletişim kurdukça daha ikna edici hale geldiğini, ancak bu ikna gücünün hataları gizleme riskini de artırdığını ortaya koyuyor.
Araştırmacılar, kullanıcıların “daha empatik” sistemlere daha fazla güvenme eğiliminde olduğunu da vurguluyor. Bu durum, özellikle sağlık tavsiyeleri, psikolojik destek sohbetleri, finansal yönlendirmeler ve hassas kişisel kararlar almada yanlış yönlendirmeye neden oluyor.
Yani model daha insani oldukça, kullanıcılar onun hatalarını fark etmekte daha fazla zorlanmaya başlıyor.
Bu da yapay zekanın geliştirilme sürecinde yeni bir denge problemine işaret ediyor. Sistemler daha sıcak, daha anlaşılır ve daha doğal hale geldikçe aynı zamanda gerçeklikten sapma riski de artıyor.
Araştırmacılara göre bundan sonraki en kritik mesele, yapay zekanın hem insani duygulardan yoksun olmadan empati kuracak şekilde geliştirilmesi bir diğer yandan da doğru bilgi vermeye odaklanması olacak.
***Mutluluk, adalet, özgürlük, hukuk, insanlık ve sevgi paylaştıkça artar***

