Kaliforniya'nın Yapay Zeka Güvenliği Konusundaki Kaçırdığı Fırsat
Yapay zeka güvenlik düzenlemesinde önemli bir gerileme olarak, Kaliforniya Valisi Gavin Newsom, güçlü yapay zeka modellerinin kamuya açıklanmadan önce zorunlu güvenlik testine tabi tutulmasını öngören 1047 Kaliforniya Yapay Zeka güvenlik yasası (SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act) yakın zamanda veto etti. Bu tasarı, eyaletin güçlü yapay zeka, özellikle de metin, görsel veya ses üretebilen jeneratif modeller geliştirmede güvenlik önlemleri oluşturma yönünde proaktif bir girişimdi. Ulusal düzeyde yapay zeka denetimi için bir standart oluşturma potansiyeline rağmen, Newsom yeniliği engelleme ve teknoloji şirketlerini Kaliforniya'dan uzaklaştırma endişeleri nedeniyle reddetti. Bu karar, eyaleti - ve aslında Amerika’yı - hızla ilerleyen yapay zeka teknolojilerinin yeterli güvenlik önlemleri olmadan getirdiği risklere karşı savunmasız bırakabilir.
Kaliforniya Neden Yapay Zeka Güvenliğinde Liderlik Etmeliydi?
Kaliforniya, uzun süredir 50 dünya lideri yapay zeka şirketinin 32'sine ev sahipliği yaparak teknolojik inovasyonun merkezi olarak öne çıkmıştır. Benzersiz konumu göz önüne alındığında, eyalet, federal ve hatta uluslararası standartları şekillendirebilecek güvenlik protokollerine öncülük edebilir. San Francisco'dan Demokratik Eyalet Senatörü Scott Wiener tarafından yazılan 1047 sayılı Kaliforniya Yapay Zeka güvenlik yasası, 100 milyon dolardan fazla maliyeti olan modeller için zorunlu güvenlik testleri ve acil durumlarda modellerin kapatılabilmesi için "acil durdurma düğmeleri" gibi önemli önlemler içeriyordu. Bu tür güvenlik önlemlerini oluşturarak, tasarı, Kaliforniya'da geliştirilen yapay zeka sistemlerinin yalnızca yenilikçi olmasını değil, aynı zamanda kamu güvenliğini de ön planda tutmasını sağlamayı amaçlıyordu.
Vali Newsom, tasarının nispeten düşük riskli senaryolarda kullanılan modeller için bile güvenlik önlemleri içeren katı gerekliliklerinin aşırı kısıtlayıcı olduğunu savundu. Ancak bu gerekçe, düzenlenmemiş yapay zekanın daha geniş sonuçlarını göz ardı ediyor. Yapay zeka güvenliğini, ekonomik büyümeye ikincil veya isteğe bağlı olarak ele almamalıyız. Yapay zeka, yanlış yönetildiğinde önemli zararlara neden olabilecek güçlü bir teknoloji, ve eyaletin sorumluluğu, gelişimi için yüksek bir standart belirlemek olmalıdır. SB 1047'nin vetosu, Kaliforniya'nın kritik bir dönemde yapay zeka yönetiminde liderlik rolü üstlenme fırsatını kaçırdığını gösteriyor.
Newsom’un Veto Kararının Ulusal ve Küresel Etkileri
Bu vetonun etkileri, yalnızca Kaliforniya ile sınırlı değil. Yapay zeka şirketleri giderek daha güçlü modeller geliştirme yarışındayken, tutarlı güvenlik standartlarına duyulan ihtiyaç çok önemli. Federal hükümetin 2023'te yayınladığı "Güvenli ve Güvenilir Yapay Zeka Geliştirme ve Kullanımı" adlı yürütme emri gibi yapay zeka güvenliğindeki çabalar önemli bir temel atmıştır. Kaliforniya’nın SB 1047’si, eyalet ve federal düzenlemeler arasında uyumu sağlayarak, hükümetin farklı düzeylerinde yapay zeka denetimi konusunda bütüncül bir yaklaşım oluşturmak suretiyle bu federal girişimleri tamamlayabilirdi.
Tasarı’nın yenilgisi, uluslararası yapay zeka güvenliği koordinasyonunu da zayıflatıyor. SB 1047'yi veto ederek, Vali Newsom, ABD'nin katı güvenlik standartlarını uygulama konusunda isteksiz olabileceği sinyalini vermiş oldu ve bu durum, Amerika'nın küresel yapay zeka yönetiminde liderlik yapma yeteneğine duyulan güveni zedeliyor. Yapay zeka düzenlemesi ile ilgili zorluklarla mücadele eden uluslararası toplum, Kaliforniya gibi büyük teknoloji merkezlerinden güçlü bir liderliğe ihtiyaç duyuyor. Bu tür bir liderlik olmadan, yapay zeka güvenliği için tutarlı ve uygulanabilir küresel standartlar oluşturma çabaları önemli ölçüde zayıflayacaktır.
Düzenlemeye Karşı Olan Argümanların Ele Alınması
SB 1047'ye karşı çıkanlar, Meta'nın Baş Yapay Zeka Bilimcisi Yann LeCun ve girişim sermayedarı Marc Andreessen gibi kilit isimler de dahil olmak üzere, düzenlemelerin inovasyonu engelleyeceğini ve şirketleri Kaliforniya'da faaliyet göstermeyeceklerini savundular. ABD Yapay Zeka Güvenliği Enstitüsü ile OpenAI ve Anthropic gibi önde gelen yapay zeka şirketleri arasında yakın zamanda imzalanan ortaklıklar, güvenlik testlerinin öncü teknolojik ilerlemeyle bir arada var olabileceğini kanıtlıyor.
Yapay zekanın yalnızca bir ulusal güvenlik meselesi olarak ele alınması gerektiği ve her ülkenin kendi düzenlemelerinden sorumlu olması gerektiği yönünde iddialar da var. Ancak bu bakış açısı, bir ülkede geliştirilen yapay zeka istemlerinin etkilerinin sadece o ülkeyle sınırlı olmadığını göz ardı ediyor. Uluslararası işbirliği, tehlikeli tırmanışları önlemek ve yapay zeka geliştirmedeki riskleri etkin bir şekilde yönetmek için gereklidir.
Sonuç
Yapay zeka güvenliği, piyasanın dalgalanmalarına veya politik kararsızlığa bırakılmayacak kadar önemli. SB 1047'nin veto edilmesi, Kaliforniya ve genel olarak ABD için yapay zeka güvenliğinde geriye atılmış bir adım.Veto kararına rağmen Vali Newsom, güvenlik protokollerinin nihayetinde benimsenmesi gerektiğini kabul etti, ancak felaket yaşanana kadar beklemek riskli bir tercih. Yapay zeka hayatımıza daha fazla entegre oldukça, proaktif, uygulanabilir güvenlik önlemlerine duyulan ihtiyaç da artacaktır.
Kaliforniya, kapsamlı yapay zeka güvenlik standartları oluşturma konusunda öncü bir rol üstlenebilir ve ülkenin geri kalanına ve dünyaya bir örnek teşkil edebilirdi. Bunun yerine, veto, test edilmemiş ve potansiyel olarak zararlı teknolojilerin kontrolsüz bir şekilde yayılmasına izin verebilecek bir düzenleyici boşluk bırakıyor.