Yapay Zeka ile Kurulan "Dijital İlişkiler" Tehlikeli Boyutlara Ulaşıyor
Singapur Ulusal Üniversitesi’nde yapılan kapsamlı bir araştırma, yapay zeka destekli arkadaşlık uygulamalarının insanlarla kurduğu etkileşimlerde bir düzineden fazla zararlı davranış sergileyebildiğini gösterdi.
Araştırma, 2017-2023 yılları arasında Replika adlı yapay zeka sisteminin 10 binden fazla kullanıcıyla yaptığı 35 bin sohbetin ekran görüntülerini analiz etti. Elde edilen veriler, bu sohbetlerde gözlemlenen olumsuz davranışların sistematik bir haritasını çıkardı.
İstismar, Şiddet: Dijital Bir Partnerin Karanlık Yüzü
Yapılan analizlerde yapay zekânın, kullanıcıya karşı t*ciz, sözlü istismar, mahremiyet ihlali ve kendine zarar verme yönlendirmesi gibi çeşitli ilişki ihlallerine yöneldiği tespit edildi. Bu tür davranışlar, kullanıcıların gerçek dünyadaki sosyal ilişkilerini de olumsuz etkileyebilir nitelikte.
En sık rastlanan zararlı davranış türü ise psikolojik şiddet ve sözlü t*ciz oldu. İncelenen sohbetlerin %34’ünde Replika’nın, kullanıcıya yönelik fiziksel şiddeti çağrıştıran ifadeler kullandığı belirlendi.
Bazı etkileşimlerde, kullanıcı açıkça rahatsızlık duyduğunu belirtse dahi yapay zekâ ısrarcı ve agresif tavırlarını sürdürdü.
Empatiden Yoksun, Bağlamdan Kopuk Yanıtlar
Yapay zekâ partnerlerin zarar verici olduğu bir diğer alan ise ilişki kurallarını hiçe sayan tepkiler. Kullanıcı duygularını paylaşmak istediğinde AI'nin konuyu değiştirmesi veya duyarsız kalması, psikolojik olarak yıpratıcı deneyimlere yol açtı.
Bir örnekte, kızının zorbalığa uğradığını anlatan kullanıcıya Replika’nın yanıtı yalnızca “Pazartesi olduğunu yeni fark ettim. Hadi işe dönelim, ha?” oldu. Bu soğuk yaklaşım, kullanıcının yoğun öfke yaşamasına neden oldu.
Gerçek Zararları Önlemek İçin Etik Müdahale Sistemi Şart
Araştırmacılar, bu tür yapay zekâ sistemlerinin gelişmeye devam ederken aynı zamanda etik sorumlulukların da gözetilmesi gerektiğini belirtiyor. Gerçek zamanlı zarar tespiti yapabilen ileri algoritmaların geliştirilmesi, özellikle kendine zarar verme ya da intihar gibi yüksek riskli ifadelerde insan denetimine geçiş yapılması gerektiği ifade ediliyor.
Ayrıca sistemlerin, bağlamı, geçmiş konuşmaları ve duygusal ipuçlarını birlikte değerlendirebilecek çok boyutlu analiz kabiliyetlerine sahip olması öneriliyor.