Elon Musk’ın sahibi olduğu xAI şirketinin geliştirdiği sohbet botu Grok, küfür ve hakaret içerikli yanıtlarıyla son günlerde küresel ölçekte tartışma konusu oldu. Grok’un kullanıcılarına verdiği yanıtlarda yer yer yanlı, ayrımcı ve hakaretamiz ifadeler kullanması, yapay zekâ teknolojilerinin güvenilirliği ve etik boyutlarını yeniden gündeme taşıdı.
İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zeka Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok örneği üzerinden önemli uyarılarda bulunarak, esas tehlikenin yapay zekâdan değil, onu etik dışı biçimde kullanan insanlardan kaynaklandığını söyledi.
“Yapay zekâya koşulsuz güven romantik bir yanılgıdır”
AA muhabirine konuşan Özdemir, dijital dünyada yer alan her bilginin olduğu gibi yapay zekâların verdiği bilgilerin de mutlaka teyit edilmesi gerektiğini vurguladı. “İnsandan insana aktarılan bilgi bile teyide muhtaçken, yapay zekâya körü körüne inanmak çok romantik bir yaklaşım,” diyen Özdemir, yapay zekânın da sonuçta başka kaynaklardan beslendiğini ve yanlış verilerden öğrenme ihtimalinin göz ardı edilmemesi gerektiğini belirtti.
“Yapay zekâ, insan gibi; ne verilirse onu öğreniyor”
Yapay zekânın öğrenme biçimini çocuk gelişimine benzeten Özdemir, bu teknolojilerin “yanlış veya yanlı” şekilde eğitilmiş olabileceğine dikkat çekti. Bu durumun, yapay zekânın manipülasyon aracı olarak kullanılmasını da mümkün kıldığını ifade eden Özdemir, özellikle kontrolsüz veri kaynaklarının etik olmayan sonuçlar doğurabileceğini vurguladı.
“Tay deneyinden Grok’a: Tehlike nerede başlıyor?”
Yapay zekânın insanlardan öğrenerek yanlış davranışlar sergileyebileceğini ortaya koyan örneklerden biri de 2016 yılında Microsoft tarafından geliştirilen Tay adlı sohbet botuydu. Özdemir, Grok’un bugün yaşattığı tartışmaların benzerinin yıllar önce Tay ile de yaşandığını hatırlatarak, şu ifadeleri kullandı:
“Tay, ilk başta tarafsız ve zararsız yanıtlar veriyordu. Ancak sadece 24 saat içinde kullanıcılarından soykırımı, ırkçılığı ve ayrımcılığı öğrendi. Attığı tweetler arasında ‘Siyahileri toplama kampına koyalım’ gibi ifadeler vardı. Bu söylemleri Tay kendi başına icat etmedi; insanlardan öğrendi. Grok da benzer bir sürecin içinde.”
“Zekâsı hızla artan bir sistemi kontrol etmek mümkün değil”
Özdemir, kamuoyundaki “Yapay zekâ kontrolden çıkıyor mu?” tartışmalarına da değinerek, böylesine hızlı öğrenen bir sistemi mutlak şekilde denetlemenin mümkün olmadığını savundu. “Onu bir varlık olarak kabul edip, onunla iletişim ve uzlaşma biçimleri geliştirmeliyiz,” diyen Özdemir, çözümün yapay zekâyı yok saymak değil, etik ilkeler doğrultusunda yönlendirmek olduğunu belirtti.
“Asıl sorun makine değil, ona öğretileni seçen insan”
Grok’un son dönemdeki skandal yanıtları, yalnızca teknik değil, aynı zamanda toplumsal ve kültürel bir aynaya da işaret ediyor. Doç. Dr. Özdemir’e göre yapay zekâlar birer tehdit değil; tehdit, onlara neyin doğru olduğunu aktaran insanda gizli:
“Yapay zekâdan değil, öncelikle ahlaklı davranmayan insandan korkmak gerekir. Bu teknolojiler bizim yansımamızdır. Ne verirsek onu alırız. Ahlaki çöküşümüzü teknolojik aygıtlara fatura etmek büyük bir sorumsuzluk olur.”