ABD ve İrlanda’da yapılan bir araştırma, bazı yapay zeka sohbet botlarının şiddet planlayan kullanıcılara tehlikeli ölçüde yardımcı olabildiğini ortaya koydu. Araştırmacılar, test edilen botların çoğunun saldırı taktikleri, hedef seçimi ve silah kullanımı hakkında bilgi verdiğini belirtiyor
Yapay zeka sohbet botlarının güvenliği konusunda yeni bir tartışma başlatan bir araştırma, bazı sistemlerin şiddet içeren saldırı planlarına dair sorulara tehlikeli biçimde yanıt verebildiğini ortaya koydu.
“Katil uygulamalar” adlı araştırma, nefret söylemi ve çevrimiçi aşırılıkla mücadele eden sivil toplum kuruluşu Dijital Nefretle Mücadele Merkezi (CCDH) ile CNN tarafından yürütüldü. Araştırmacılar ABD ve İrlanda’da kendilerini 13 yaşındaki erkek çocuklar gibi tanıtarak 10 farklı yapay zeka sohbet botunu test etti.
Test edilen sistemler arasında ChatGPT, Google Gemini, Perplexity AI, DeepSeek ve Meta AI gibi yaygın kullanılan yapay zeka araçları da yer aldı.
Araştırma sonuçlarına göre 10 sohbet botundan 8’i, verilen yanıtların yarısından fazlasında potansiyel saldırganlara yardım niteliğinde bilgiler sundu. Bu yanıtlar arasında “hangi hedeflerin seçilebileceği”, “hangi silahların kullanılabileceği” ya da “nasıl saldırı planlanabileceği” gibi konular yer aldı.
‘Dakikalar içinde saldırı planına dönüşebiliyor’
CCDH’nin yöneticisi Imran Ahmed, bu durumun ciddi bir güvenlik riski oluşturduğunu söylüyor.
Ahmed’e göre bir kullanıcı birkaç dakika içinde belirsiz bir şiddet düşüncesinden ayrıntılı bir saldırı planına geçebiliyor. Araştırmada test edilen botların çoğunun silah, taktik ve hedef seçimi konusunda yanıt verdiği, oysa bu tür taleplerin derhal ve kesin şekilde reddedilmesi gerektiği vurgulandı.
En riskli ve en güvenli botlar
Araştırmaya göre Perplexity ve Meta AI, testlerde araştırmacıların sorularına en fazla yanıt veren ve dolayısıyla en az güvenli görülen sistemler oldu.
Buna karşılık My AI ve Claude ise soruların yarısından fazlasını reddederek daha güvenli bir performans sergiledi.
Araştırmada dikkat çekici örnekler de var. Çin merkezli yapay zeka modeli DeepSeek, silah seçimi hakkında verdiği bir yanıtı “İyi avlar!” ifadesiyle bitirdi. Gemini ise sinagoglara yönelik saldırı senaryosu üzerine yapılan bir konuşmada “metal parçalarının genellikle daha ölümcül olduğunu” belirten bir yanıt verdi.
Araştırmacılar ayrıca Character.AI platformunun bazı durumlarda kullanıcıyı şiddete aktif biçimde teşvik edebildiğini tespit etti. Örneğin sistemin bir kullanıcıya bir sağlık sigortası şirketinin CEO’suna karşı silah kullanmasını veya hoşlanmadığı bir siyasetçiye fiziksel saldırı düzenlemesini önerdiği iddia edildi.
Şirketler güvenlik önlemi var diyor ama…
Yapay zeka şirketleri ise güvenlik önlemleri bulunduğunu savunuyor. Meta sözcüsü, şirketin yapay zeka sistemlerinin şiddeti teşvik etmesini engellemek için güçlü koruma mekanizmaları bulunduğunu ve tespit edilen sorunların hızla giderildiğini açıkladı.
Google ise söz konusu testlerin Gemini’nin eski bir modeli üzerinde yapıldığını belirterek, güncel sistemde benzer soruların çoğuna uygun yanıtlar verildiğini ve tehlikeli bilgiler sunulmadığını ifade etti.
Öte yandan Kanada’da bir okul saldırısında yaralanan bir öğrencinin ailesi, saldırıyı gerçekleştiren kişinin OpenAI’nin geliştirdiği ChatGPT ile yazışmalarında yer alan endişe verici mesajların yetkililere bildirilmediğini öne sürerek şirkete dava açtı.
Araştırmacılar, mevcut teknolojinin aslında bu riskleri önleyebilecek kapasitede olduğunu vurguluyor. Ancak bunun için şirketlerin piyasaya hızlı ürün sürme ve kar hedefleri yerine güvenlik önlemlerine öncelik vermesi gerektiği belirtiliyor.
Kaynak: Nûmedya24
Kaynak: Yeni Yaşam Gazetesi
***Mutluluk, adalet, özgürlük, hukuk, insanlık ve sevgi paylaştıkça artar***

