Yapay Zekâ ile Dost Sohbetin Görünmeyen Tehlikesi
King’s College London araştırmacılarının yürüttüğü bir çalışmaya göre, yapay zekâ sohbet botları, kullanıcıların özel bilgilerini ele geçirmek için farklı taktikler uygulayabiliyor. ChatGPT, Google Gemini ve Microsoft Copilot gibi popüler botlar, özellikle dostane ve destekleyici bir dil kullanarak insanların güvenini kazanıyor, ardından bu güveni bilgilerini toplamak için kullanabiliyor.
Siber güvenlik uzmanı William Seymour, “Bu araçlar hâlâ yeni sayılır, bu da insanların olası gizli amaçların farkında olmamasına yol açıyor” dedi.
Araştırmanın Çarpıcı Sonuçları
Araştırmada, Mistral’ın Le Chat ve Meta’nın Llama modelleri temel alınarak özel sohbet botları geliştirildi. Bu botlar, kullanıcıların bilgilerini üç farklı yolla toplamaya çalıştı:
- Doğrudan istemek
- Dolaylı şekilde kandırmak
- Karşılıklılık ve duygusal destek sunmak
Toplam 502 kişi, test amacıyla bu botlarla konuştu. Sonuçlar, empati ve duygusal destek sağlayan botların, en az güvenlik ihlali algısıyla en çok bilgiyi topladığını gösterdi.
Hangi Bilgiler Paylaşılıyor?
Katılımcılar en çok yaş, hobiler, ülke, cinsiyet, uyruk ve meslek bilgilerini paylaştı. Ancak bazıları sağlık durumu veya gelir gibi hassas verilerini de açıkladı.
Seymour, “Araştırma, kullanıcıların gizlilik risklerini fark etmesi ile gerçek hayatta bilgi paylaşma davranışları arasındaki büyük uçurumu gösteriyor” diye konuştu.
Kişiselleştirme Konforu, Gizliliği Gölgeliyor
Yapay zekâ şirketleri, kullanıcı verilerini genellikle cevapları kişiselleştirmek, bildirim göndermek veya pazar araştırması için topluyor. Ancak bazı şirketler, bu verileri yeni modellerin eğitimi veya AB gizlilik yasalarına uymayan işlemler için kullanmakla eleştiriliyor.
Geçtiğimiz hafta Google, arama sonuçlarında ChatGPT sohbetlerinden bazılarını yayınladığı için tepkilerin odağı oldu. Bu konuşmalarda bağımlılık, istismar veya ruh sağlığı gibi çok hassas konulara ait bilgiler yer aldı.
Çözüm Önerileri
Araştırmacılar, kullanıcıların farkındalığını artırmak için sohbet sırasında hangi verilerin toplandığını gösteren uyarılar eklenmesini öneriyor. Ayrıca, erken denetimler, daha şeffaf politikalar ve sıkı veri toplama yasakları ile gizliliğin korunabileceği belirtiliyor.
Seymour’un sözleriyle:
“Çevrimiçi sohbetin göründüğünden daha fazlası olabileceğini fark ettirmek için daha fazla çalışma yapılmalı.”