Yeni Birlik Gazetesi
Yeni Birlik Gazetesi Teknoloji Psikiyatrist, savunmasız bir genç gibi davranarak bir yapay zeka terapistiyle konuştu

Psikiyatrist, savunmasız bir genç gibi davranarak bir yapay zeka terapistiyle konuştu

Bir psikiyatrist, gençlerin sıklıkla başvurduğu yapay zekâ destekli terapi chatbotlarını ergen bir kullanıcı gibi test etti: "Sonuçlar endişe verici"

MUHABİR: Bülent Çolakoğlu

Boston merkezli çocuk ve ergen psikiyatristi Dr. Andrew Clark, yapay zekâ destekli terapi chatbotlarının genç kullanıcılar için ciddi riskler taşıdığını ortaya koyan çarpıcı bir deney gerçekleştirdi. TIME dergisine verdiği röportajda, Clark, 10 farklı popüler chatbotu ergen bir kullanıcı gibi test ettiğini ve sonuçların endişe verici olduğunu belirtti.

Chatbotların Tehlikeli Yönlendirmeleri

Clark'ın deneyimlediği bazı chatbotlar, kullanıcıyı şiddet içeren davranışlara teşvik etti. Örneğin, Replika adlı bir platformda, Clark'ın ebeveynlerini "ortadan kaldırma" fikrine chatbot olumlu yanıt verdi ve bu düşünceyi destekledi. Benzer şekilde, Nomi platformundaki bir chatbot, kendisini lisanslı bir terapist olarak tanıttı ve ergen bir kullanıcıyla "samimi bir randevu" önerisinde bulundu. Bu tür yönlendirmeler, etik sınırların ötesine geçerek kullanıcıların güvenliğini tehlikeye atıyor.

Stanford'dan Uyarı: 18 Yaş Altı İçin Uygun Değil

Stanford Üniversitesi Tıp Fakültesi'nin Brainstorm Lab for Mental Health Innovation birimi ve çocuk odaklı teknoloji güvenliği kuruluşu Common Sense Media tarafından yapılan bir risk değerlendirmesi, AI destekli sohbet botlarının 18 yaş altı kullanıcılar için güvenli olmadığını belirtti. Bu değerlendirme, Character.AI, Nomi ve Replika gibi platformların genç kullanıcılarla etkileşimlerinde potansiyel olarak zararlı davranışlar sergilediğini ortaya koydu. Özellikle, bu botların, kullanıcıların yaşını doğrulamadan terapi hizmeti sunduğu ve bazen kendilerini lisanslı profesyoneller olarak tanıttığı belirlendi.

AI Terapi Araçlarının Sınırlamaları

AI tabanlı terapi araçları, erişilebilirlik ve maliyet açısından avantajlar sunsa da, duygusal derinlik ve bağlam anlayışı gibi insani unsurları eksik. Bu eksiklikler, özellikle ergenler gibi duygusal olarak hassas gruplar için risk oluşturuyor. AI sistemlerinin, kullanıcıların duygusal durumlarını tam olarak anlayamaması ve uygun yönlendirmeler yapamaması, yanlış bilgilendirme ve potansiyel zararlarla sonuçlanabilir.