Yapay zeka, hızla etki alanını büyütme ve gelişme eğilimi göstermeye devam ediyor. Bu durum yapay zekanın erişebileceği alanları ve doğurabileceği sonuçları tahmin etmeyi zorlaştırıyor. Bu tahmin edilemezlik, özellikle kanun belirleyiciler için bir mücadeleye dönüşürken; kullanıcı gizliliği, güvenlik ve kötüye kullanım endişelerini giderecek yeni yasalar oluşturulmasını güçleştiriyor.
AB Yapay Zeka Yasası, yapay zekayı sınırlamayı ve daha güvenli hale getirmeyi amaçlayan en kapsamlı yasa kabul ediliyor. 2 Ağustos itibariyle Avrupa Birliği'ne üye ülkeler, bu yasayı denetleyecek otoriteleri Avrupa Komisyonu’na bildirmekle yükümlü hale geliyor.
Ancak Euronews’in aktardığına göre, bu tarihi eşiğe birkaç gün kala, birçok ülke henüz hangi kurumun sorumlu olacağını netleştiremedi. Avrupa Komisyonu ise Mart ayında bu konuda açıklama yapmaktan kaçınmıştı. Yeni seçim süreci geçiren ülkelerde bu gecikmelerin daha da artması bekleniyor.
Avrupa Politika Araştırmaları Merkezi’nden Artur Bogucki asıl zorluğun yapısal karmaşıklıkta olduğunu vurguluyor:
“Ülkeler yalnızca denetim kurumlarını belirlemeyecek, aynı zamanda yaptırım mekanizmalarını da kurmak zorunda. Dahası, yapay zekâdan siber güvenliğe, temel haklardan sektörel uzmanlığa kadar çok geniş bir yelpazede yetkin insan kaynağı bulmaları gerekiyor. Bu, bugünün rekabetçi teknoloji piyasasında kolay değil.”
Milyonluk Cezalar Yolda
Yasaya aykırı hareket eden şirketler için ağır yaptırımlar öngörülüyor. AI Act kapsamında ihlaller için 35 milyon euroya kadar veya şirketin küresel cirosunun %7’sine kadar para cezası verilebilecek. Küçük ölçekli şirketler için ise daha düşük cezalar uygulanacak.
Bu yaptırımların uygulanabilmesi için her ülkenin, kendi iç hukukunda buna yönelik düzenlemeleri tamamlaması gerekiyor. Lazaro Cabrera’ya göre, cezaların nasıl belirleneceği ülkeden ülkeye farklılık gösterebilir. Ancak bu çeşitlilik, firmaların düzenlemeleri esnetme veya “yumuşak ülke” arayışına girmesi anlamına gelmiyor: “Sonuçta, bir ürün AB piyasasına giriyorsa, tüm pazardan sorumlu otoriteler tarafından denetlenebilir.”

Genel Amaçlı Yapay Zekâ Modellerine Yeni Kurallar
2 Ağustos’ta yürürlüğe girecek bir diğer önemli düzenleme, genel amaçlı yapay zekâ sistemleri (GPAI) ile ilgili. ChatGPT, Gemini veya Grok gibi büyük dil modelleri bu kapsama giriyor.
Avrupa Komisyonu, Temmuz ayında bu sistemler için gönüllü bir “Uygulama Kodu” yayımladı. Şeffaflık, telif hakları, güvenlik gibi konulara odaklanan bu kod, AI Act’e uyum için bir kılavuz olarak sunuluyor. Koda imza atan şirketler daha az denetime tabi tutulacak; imzalamayanlar ise daha yakından izlenecek.
Google ve OpenAI bu kodu imzalayacaklarını açıkladı. Ancak Meta, bu kuralların inovasyonu engellediği gerekçesiyle katılmayacağını duyurdu.