Yapay Zeka Biyolojik Tehdit mi Olacak?
Dünyaca ünlü yapay zeka şirketi OpenAI, geliştirmekte olduğu yeni modellerin biyolojik silah geliştirmek isteyen yetenekli kişilere yardım edebileceğinden endişe duyuyor. Şirketin paylaştığı son blog yazısına göre, ileri seviye modeller biyomedikal araştırmalara ve biyolojik savunmaya katkı sağlayabilirken, aynı zamanda zararlı bilgilere erişimi de kolaylaştırabilir.

Engeller Var Ama Yetersiz
OpenAI yetkilileri, laboratuvarlara fiziksel erişimin ve hassas materyallere ulaşmanın hâlâ bir engel olduğunu vurgulasa da bu engellerin kesin bir güvenlik sağlamadığını belirtiyor. Güvenlik şefi Johannes Heidecke, Axios’a yaptığı açıklamada, yeni modellerin henüz kendi başlarına biyolojik silah üretemeyeceğini, ancak amatörlere bile yol gösterebilecek kadar bilgi sunabileceğini söyledi.
Henüz Tehlikenin Ucundayız
Heidecke, mevcut modellerin tamamen yeni ve bilinmeyen biyolojik tehditler üretemeyeceğini ifade ederken, gelecekteki gelişmiş sürümlerin bu seviyeye ulaşabileceği uyarısında bulundu. OpenAI, bu risklere karşı şimdiden önlem almak için çalışmalar yaptıklarını, "olası bir biyolojik tehdit ortaya çıkmasını beklemenin kabul edilemez olduğunu" vurguladı.
%99 Güvenlik Yetmez
OpenAI, yeni modellerin zararlı kullanımlara karşı neredeyse kusursuz şekilde programlanması gerektiğini savunuyor. Heidecke’ye göre, bu konuda %99 güvenlik oranı bile yeterli değil. "Bir tehdidi fark edememek büyük bir felakete yol açabilir" diyen Heidecke, insan denetiminin mutlaka devrede olması gerektiğinin altını çizdi.
Yanlış Ellerde Felaket Getirebilir
Uzmanlar, bu tür ileri düzey yapay zekaların kötü niyetli devletler veya kurumlar tarafından suistimal edilebileceğini de dile getiriyor. Özellikle biyolojik savunma amacıyla geliştirilen modellerin, bir gün yeni bir çiçek hastalığı felaketine kapı aralayabileceği endişesi gündeme geliyor.