Ara

Kaliforniya’dan Yapay Zeka Yasası: Şeffaflık Vurgusu, Testler İsteğe Bağlı

Kaliforniya Valisi Gavin Newsom, yapay zeka şirketlerinden güvenlik uygulamalarını açıklamalarını gerektiren ancak somut güvenlik testleri zorunluluğu getirmeyen yeni bir yasayı imzaladı. 500 milyon doların üzerinde yıllık geliri olan şirketler, web sitelerinde güvenlik protokollerini yayımlamak ve olayları eyalet yetkililerine bildirmekle yükümlü olacak. Ancak bu yasa, geçen yıl vali tarafından veto edilen ve teknoloji şirketlerinin yoğun lobi faaliyetleri sonucu geri çekilen tasarı kadar güçlü yaptırımlar içermiyor.

Senatör Scott Wiener tarafından sunulan ve S.B. 53 olarak bilinen bu yeni düzenleme, önceki taslak S.B. 1047'nin yerini aldı. S.B. 1047, yapay zeka sistemleri için güvenlik testleri ve "kapatma düğmeleri" zorunluluğu getiriyordu. Yeni yasa ise şirketlerden, yapay zeka geliştirmelerinde "ulusal standartları, uluslararası standartları ve sektörün üzerinde anlaştığı en iyi uygulamaları" nasıl kullandıklarını açıklamalarını istiyor. Ancak bu standartların ne olduğu veya bağımsız bir doğrulama gerektirip gerektirmediği belirtilmiyor.

Vali Newsom, yaptığı açıklamada Kaliforniya'nın hem toplulukları koruyacak düzenlemeler oluşturarak hem de büyüyen yapay zeka sektörünün gelişmeye devam etmesini sağlayarak bir model oluşturduğunu belirtti. Bununla birlikte, yasanın getirdiği koruyucu önlemlerin, temel bildirim gerekliliklerinin ötesinde büyük ölçüde gönüllülük esasına dayandığı görülüyor.

Kaliforniya eyalet hükümetine göre, dünyanın en iyi 50 yapay zeka şirketinin 32'si eyalette bulunuyor. Geçen yıl, yapay zeka ve makine öğrenmesi girişimlerine yapılan küresel girişim sermayesi fonlarının yarısından fazlası Silikon Vadisi'ndeki şirketlere aktarıldı. Bu nedenle, eyalet düzeyinde çıkarılan bu yeni yasanın, hem yasal emsal oluşturması hem de dünya çapında kullanılan yapay zeka sistemlerini geliştiren şirketleri etkilemesi açısından daha geniş bir etki alanı yaratması bekleniyor.

Test Yerine Şeffaflık

Veto edilen S.B. 1047, yapay zeka sistemleri için zorunlu güvenlik testleri ve kapatma düğmeleri öngörürken, yeni yasa bildirim ve şeffaflığa odaklanıyor. Şirketlerin, eyaletin "potansiyel kritik güvenlik olayları" olarak adlandırdığı durumları Kaliforniya Acil Durum Hizmetleri Ofisi'ne bildirmeleri ve güvenlik endişelerini dile getiren çalışanlar için ihbarcı koruması sağlamaları gerekiyor. Yasa, 50'den fazla kişinin ölümüne yol açma potansiyeli olan veya 1 milyar dolarlık hasara neden olabilecek silah yardımı, otonom suç faaliyetleri veya kontrol kaybı gibi durumları "katastrofik risk" olarak dar bir şekilde tanımlıyor. Uyumluluk sağlamayan şirketlere karşı, ihlal başına 1 milyon dolara kadar idari para cezası uygulanabilir.

Zorunlu güvenlik testlerinden gönüllü açıklamalara kayan bu değişim, yoğun bir lobi faaliyetinin ardından geldi. Büyük yapay zeka şirketleri ve yatırım firmaları, yapay zeka sektörüne dost politikaları destekleyen siyasi kampanyalara milyonlarca dolar bağışladı. Ayrıca, şirketler eyalet düzeyindeki yapay zeka kurallarını geçersiz kılacak federal yasalar için de baskı yaptı.

Orijinal S.B. 1047, yapay zekanın varoluşsal tehditleri konusunda uyaran ve bilim kurgudan ilham alan senaryoları içeren bir taslakken, yapay zeka firmaları tarafından gereksiz görülen ve raporlama yükünü ağır bulan itirazlarla karşılaştı. Yeni yasa ise Vali Newsom'un bir araya getirdiği, arasında önde gelen akademisyenlerin de bulunduğu uzmanların tavsiyeleri doğrultusunda şekillendi.

S.B.-1047'de olduğu gibi, yeni yasa da bir kamu bilişim kümesi çerçevesi geliştirmek üzere bir konsorsiyum olan CalCompute'u oluşturuyor. Kaliforniya Teknoloji Departmanı, yasa için yıllık güncellemeler önerecek, ancak bu öneriler yasama onayı gerektirmiyor.

Yasanın oluşturulmasında rol alan senatör, düzenlemeyi "sağduyulu sınırlayıcılar" olarak tanımlarken, önde gelen yapay zeka şirketlerinden birinin kurucu ortağı da yasanın güvenlik önlemlerini "pratik" olarak nitelendirdi. Bununla birlikte, şeffaflık gerekliliklerinin halihazırda büyük yapay zeka şirketlerinde standart uygulamaları yansıtması ve yaptırım mekanizmalarına veya belirli standartlara sahip olmayan açıklama gerekliliklerinin, uzun vadede potansiyel yapay zeka zararlarına karşı sınırlı bir koruma sağlayabileceği düşünülüyor.

Önceki Haber
Apple'dan Kritik Güncellemeler: iOS 26.0.1 ve macOS 26.0.1 Hataları Gideriyor!
Sıradaki Haber
Hades 2, Steam'de Kardeşini İkiye Katladı: Rekor Kırıyor!

Benzer Haberler: