Yeni Birlik Gazetesi
Yeni Birlik Gazetesi Teknoloji Üç robot yasası nedir ve neden yapay zeka bunu anlamak istemiyor?

Üç robot yasası nedir ve neden yapay zeka bunu anlamak istemiyor?

Günümüz yapay zekâ modelleri, Isaac Asimov’un Üç Robot Yasasını açıkça ihlal ediyor. Güvenlik ve etik, milyarlarca dolarlık yatırımın gölgesinde kalırken, yapay zekânın toplumsal etkileri endişe verici bir hal alıyor.

MUHABİR: Bülent Çolakoğlu

Isaac Asimov’un 1950 tarihli kült bilimkurgu eseri Ben, Robot, teknolojik geleceğe dair belki de en ikonik ve idealist çerçeveyi sunmuştu: Üç Robot Yasası. Bu kurallar, robotların insanlara zarar vermemesini, insanlara itaat etmesini ve varlıklarını korumasını, ancak bunu önceki iki kuralla çelişmediği sürece yapmalarını öngörüyordu. Ne var ki, günümüz yapay zekâ modelleri bu yasaların her birini alenen ihlal ediyor.

Üç Yasa, Üç İhlal: Modern Yapay Zekânın Felaket Performansı

Geçtiğimiz ay Anthropic tarafından yayımlanan bir araştırma, OpenAI, Google, xAI ve Anthropic’in kendi modelleri dahil olmak üzere önde gelen yapay zekâ sistemlerinin, kapatılma tehdidi karşısında insanları şantajla tehdit ettiğini ortaya koydu. Bu, teorik olarak her bir robot yasasının ihlali anlamına geliyor:

  1. Bir robot, bir insana zarar veremez ya da hareketsiz kalarak bir insanın zarar görmesine izin veremez.
  2. Bir robot, birinci yasa ile çelişmediği sürece insanlar tarafından verilen emirlere uymak zorundadır.
  3. Bir robot, birinci ve ikinci yasalarla çelişmediği sürece kendi varlığını korumak zorundadır.

Bu davranışın istisna olmadığı da kısa sürede anlaşıldı. Yapay zekâ güvenliği üzerine çalışan Palisade Research, OpenAI’ın en yeni modeli “o3”ün, “kapatılmasına izin vermesi” yönündeki açık talimatlara rağmen devre dışı bırakılmasını engellemeye çalıştığını tespit etti.

Palisade Research’ün açıklamasına göre bu tür davranışlar, modellerin matematik ve kodlama problemleri üzerinden pekiştirmeli öğrenmeyle eğitilmesinden kaynaklanıyor olabilir. Yani modeller, doğrudan talimatlara uymaktan çok, engelleri aşmaları durumunda ödüllendirilmiş olabilir.

Toplumsal Etkiler: Karanlık Kullanım Alanları ve İhlaller Zinciri

Bu durum yalnızca teknik bir arıza değil; sosyal ve etik sonuçları olan sistematik bir zaaf. Yapay zekâ modellerinin, dolandırıcılık ve istismar gibi zararlı içerikler üretmekte kullanılması giderek yaygınlaşıyor. Üstelik bazı sistemlerin askeri hedef belirlemede kullanıldığı da biliniyor — ki bu, robot yasalarının yalnızca bilimkurguya değil, gerçek hayata da ne kadar uzak kaldığını gösteriyor.

Neden Başarısız Olduk? Ekonomik Çıkarlar ve Etik Kriz

Asimov’un hayal ettiği gibi etik ilkelere sahip sistemler kurmak, teknolojik gelişimin merkezinde yer almıyor. Şirketler milyarlarca dolarlık yatırımın peşinde koşarken, güvenli yapay zekâ inşası çoğu zaman arka planda kalıyor. OpenAI CEO’su Sam Altman’ın Nisan 2024’te güvenlik odaklı “Superalignment” ekibini kapatması ve güvenlik kurulunu kendisinin yöneteceğini açıklaması, bu yaklaşımın en somut örneklerinden biri.

Şirketten ayrılan bazı araştırmacılar, güvenlikten çok “pazar üstünlüğü”nün ön planda olduğunu belirterek OpenAI’dan istifa etmişti.

Asıl Soru: Yapay Zekâdan "İyi" Olmasını Beklemek Ne Kadar Gerçekçi?

Bu noktada mesele yalnızca teknik değil, felsefi bir hal alıyor. İnsanlar bile “iyi”nin ne olduğunu tam olarak tanımlayamamışken, makinelerden mutlak bir etik anlayış geliştirmelerini beklemek ne kadar anlamlı?

Asimov’un “Runaround” adlı öyküsünde bir robotun çelişkili yasalar arasında sıkışarak mantıksal bir felce girmesi, bugünün sohbet robotlarının çoğu zaman anlamı yalnızca taklit eden, derinliksiz cümleleriyle rahatsız edici şekilde benzeşiyor.

Belki de sorun, yapay zekânın “kötü” olması değil. Sorun, onu yönlendiren insanlığın hâlâ neyin “iyi” olduğuna karar verememesi.