Kaliforniya'nın Yapay Zeka Güvenliği Konusundaki Kaçırdığı Fırsat

Güncelleme:

Yapay zeka güvenlik düzenlemesinde önemli bir gerileme olarak, Kaliforniya Valisi Gavin
Newsom, güçlü yapay zeka modellerinin kamuya açıklanmadan önce zorunlu güvenlik testine
tabi tutulmasını öngören 1047 Kaliforniya Yapay Zeka güvenlik yasası (SB-1047 Safe and
Secure Innovation for Frontier Artificial Intelligence Models Act) yakın zamanda veto etti. Bu
tasarı, eyaletin güçlü yapay zeka, özellikle de metin, görsel veya ses üretebilen jeneratif
modeller geliştirmede güvenlik önlemleri oluşturma yönünde proaktif bir girişimdi. Ulusal
düzeyde yapay zeka denetimi için bir standart oluşturma potansiyeline rağmen, Newsom yeniliği
engelleme ve teknoloji şirketlerini Kaliforniya'dan uzaklaştırma endişeleri nedeniyle reddetti. Bu
karar, eyaleti - ve aslında Amerika’yı - hızla ilerleyen yapay zeka teknolojilerinin yeterli güvenlik
önlemleri olmadan getirdiği risklere karşı savunmasız bırakabilir.

Kaliforniya Neden Yapay Zeka Güvenliğinde Liderlik Etmeliydi?

Kaliforniya, uzun süredir 50 dünya lideri yapay zeka şirketinin 32'sine ev sahipliği yaparak
teknolojik inovasyonun merkezi olarak öne çıkmıştır. Benzersiz konumu göz önüne alındığında,
eyalet, federal ve hatta uluslararası standartları şekillendirebilecek güvenlik protokollerine
öncülük edebilir. San Francisco'dan Demokratik Eyalet Senatörü Scott Wiener tarafından
yazılan 1047 sayılı Kaliforniya Yapay Zeka güvenlik yasası, 100 milyon dolardan fazla maliyeti
olan modeller için zorunlu güvenlik testleri ve acil durumlarda modellerin kapatılabilmesi için
"acil durdurma düğmeleri" gibi önemli önlemler içeriyordu. Bu tür güvenlik önlemlerini
oluşturarak, tasarı, Kaliforniya'da geliştirilen yapay zeka sistemlerinin yalnızca yenilikçi
olmasını değil, aynı zamanda kamu güvenliğini de ön planda tutmasını sağlamayı
amaçlıyordu.

Vali Newsom, tasarının nispeten düşük riskli senaryolarda kullanılan modeller için bile güvenlik
önlemleri içeren katı gerekliliklerinin aşırı kısıtlayıcı olduğunu savundu. Ancak bu gerekçe,
düzenlenmemiş yapay zekanın daha geniş sonuçlarını göz ardı ediyor. Yapay zeka güvenliğini,
ekonomik büyümeye ikincil veya isteğe bağlı olarak ele almamalıyız. Yapay zeka, yanlış
yönetildiğinde önemli zararlara neden olabilecek güçlü bir teknoloji, ve eyaletin sorumluluğu,
gelişimi için yüksek bir standart belirlemek olmalıdır. SB 1047'nin vetosu, Kaliforniya'nın kritik bir
dönemde yapay zeka yönetiminde liderlik rolü üstlenme fırsatını kaçırdığını gösteriyor.

Newsom’un Veto Kararının Ulusal ve Küresel Etkileri


Bu vetonun etkileri, yalnızca Kaliforniya ile sınırlı değil. Yapay zeka şirketleri giderek daha güçlü
modeller geliştirme yarışındayken, tutarlı güvenlik standartlarına duyulan ihtiyaç çok önemli.
Federal hükümetin 2023'te yayınladığı "Güvenli ve Güvenilir Yapay Zeka Geliştirme ve
Kullanımı" adlı yürütme emri gibi yapay zeka güvenliğindeki çabalar önemli bir temel atmıştır.
Kaliforniya’nın SB 1047’si, eyalet ve federal düzenlemeler arasında uyumu sağlayarak,
hükümetin farklı düzeylerinde yapay zeka denetimi konusunda bütüncül bir yaklaşım oluşturmak
suretiyle bu federal girişimleri tamamlayabilirdi.

Tasarı’nın yenilgisi, uluslararası yapay zeka güvenliği koordinasyonunu da zayıflatıyor. SB
1047'yi veto ederek, Vali Newsom, ABD'nin katı güvenlik standartlarını uygulama konusunda
isteksiz olabileceği sinyalini vermiş oldu ve bu durum, Amerika'nın küresel yapay zeka
yönetiminde liderlik yapma yeteneğine duyulan güveni zedeliyor. Yapay zeka düzenlemesi ile
ilgili zorluklarla mücadele eden uluslararası toplum, Kaliforniya gibi büyük teknoloji
merkezlerinden güçlü bir liderliğe ihtiyaç duyuyor. Bu tür bir liderlik olmadan, yapay zeka
güvenliği için tutarlı ve uygulanabilir küresel standartlar oluşturma çabaları önemli ölçüde
zayıflayacaktır.

Düzenlemeye Karşı Olan Argümanların Ele Alınması

SB 1047'ye karşı çıkanlar, Meta'nın Baş Yapay Zeka Bilimcisi Yann LeCun ve girişim
sermayedarı Marc Andreessen gibi kilit isimler de dahil olmak üzere, düzenlemelerin inovasyonu
engelleyeceğini ve şirketleri Kaliforniya'da faaliyet göstermeyeceklerini savundular. ABD Yapay
Zeka Güvenliği Enstitüsü ile OpenAI ve Anthropic gibi önde gelen yapay zeka şirketleri arasında
yakın zamanda imzalanan ortaklıklar, güvenlik testlerinin öncü teknolojik ilerlemeyle bir arada
var olabileceğini kanıtlıyor.

Yapay zekanın yalnızca bir ulusal güvenlik meselesi olarak ele alınması gerektiği ve her ülkenin
kendi düzenlemelerinden sorumlu olması gerektiği yönünde iddialar da var. Ancak bu bakış
açısı, bir ülkede geliştirilen yapay zeka sistemlerinin etkilerinin sadece o ülkeyle sınırlı
olmadığını göz ardı ediyor. Uluslararası işbirliği, tehlikeli tırmanışları önlemek ve yapay zeka
geliştirmedeki riskleri etkin bir şekilde yönetmek için gereklidir.

Sonuç

Yapay zeka güvenliği, piyasanın dalgalanmalarına veya politik kararsızlığa bırakılmayacak
kadar önemli. SB 1047'nin veto edilmesi, Kaliforniya ve genel olarak ABD için yapay zeka
güvenliğinde geriye atılmış bir adım.Veto kararına rağmen Vali Newsom, güvenlik protokollerinin
nihayetinde benimsenmesi gerektiğini kabul etti, ancak felaket yaşanana kadar beklemek riskli
bir tercih. Yapay zeka hayatımıza daha fazla entegre oldukça, proaktif, uygulanabilir güvenlik
önlemlerine duyulan ihtiyaç da artacaktır.
Kaliforniya, kapsamlı yapay zeka güvenlik standartları oluşturma konusunda öncü bir rol
üstlenebilir ve ülkenin geri kalanına ve dünyaya bir örnek teşkil edebilirdi. Bunun yerine, veto,
test edilmemiş ve potansiyel olarak zararlı teknolojilerin kontrolsüz bir şekilde yayılmasına izin
verebilecek bir düzenleyici boşluk bırakıyor.