Avrupa Birliği, yapay zeka şirketlerini her zamankinden daha şeffaf olmaya zorlayacak yeni adımlar atıyor. Bu kapsamda, teknoloji devlerinin AB'nin çığır açan Yapay Zeka Yasası'na uyum sağlamalarına yardımcı olacak bir Uygulama Esasları Kodu yayımlandı.
Henüz kesinleşmemiş ve telif hakkı korumaları, şeffaflık ve kamu güvenliği gibi konulara odaklanan bu kurallar, 2 Ağustos'tan itibaren “genel amaçlı yapay zeka” geliştiren en büyük şirketler için başlangıçta gönüllü olacak. Ancak AB, Yapay Zeka Yasası'nı Ağustos 2026'da yürürlüğe koymaya başlayacak. Yetkililer, bu gönüllü kurallara uyan şirketlerin “idari yükün azalması ve hukuki güvenliğin artması” gibi avantajlardan faydalanabileceğini belirtiyor. Gönüllü kuralları reddeden şirketlerin, uyumluluğu kanıtlamak için daha maliyetli veya zaman alıcı yollar denemek zorunda kalabileceği de dile getiriliyor.
Yapay zeka sektörü, Yapay Zeka Yasası'nın taslağının hazırlanmasında yer almış olsa da, bazı şirketler son zamanlarda AB'yi yasanın yürürlüğe girişini ertelemeye çağırdı. Bu şirketler, AB'nin ağır kısıtlamalar getirerek yapay zeka inovasyonunu sekteye uğratma riski taşıdığı konusunda uyarılarda bulunuyor.
AB'nin büyük yapay zeka şirketlerinden (örneğin Google ve Meta gibi) gönüllü olarak uymalarını istediği en tartışmalı taahhütlerden biri, yapay zeka eğitimi için asla korsan materyal kullanmama sözü. Birçok yapay zeka şirketi, tartışmalı bir şekilde korsan kitap veri kümelerini yapay zeka eğitimi için kullandı. Ancak AB buna katılmıyor; teknoloji şirketlerine, telif hakkı sahiplerinden gelen şikayetleri “makul bir süre içinde” ele almak üzere personel atamalarını ve dahili mekanizmalar oluşturmalarını öneriyor. Telif hakkı sahiplerinin, yaratıcı eserlerini yapay zeka eğitim veri setlerinden çıkarma hakları olacak.
AB kuralları, yapay zeka geliştiricilerini sektörün çoğunlukla direndiği başka adımlar atmaya zorluyor. En önemlisi, yapay zeka şirketlerinin eğitim verileri hakkında ayrıntılı bilgi paylaşmaları gerekecek. Buna, ana model tasarım seçimleri için bir gerekçe sunulması ve eğitim verilerinin tam olarak nereden geldiğinin açıklanması da dahil. Bu durum, her şirketin modellerinin ne kadarının halka açık verilere, kullanıcı verilerine, üçüncü taraf verilerine, sentetik verilere veya ortaya çıkan yeni bir veri kaynağına dayandığını daha net hale getirebilir.
Kod ayrıca, yapay zeka şirketlerinin ücretli geçitlere ve taramayı kısıtlayan robots.txt yönergelerine saygı göstermesi beklentilerini de detaylandırıyor. Bu durum, yapay zeka tarayıcılarının web sitelerini aşırı yüklemesi gibi büyüyen bir sorunla mücadeleye yardımcı olabilir. Hatta, içerik oluşturucuların telif haklarını, arama indekslemeyi etkilemeden yapay zeka taramasını kısıtlayarak korumalarına olanak tanıyan bir çözümü de teşvik ediyor.
Ek olarak, şirketlerden hem eğitim hem de çıkarım için toplam enerji tüketimini açıklamaları isteniyor. Bu sayede AB, şirketler yapay zeka inovasyonuyla ilerlerken çevresel endişeleri de tespit edebilecek.
Daha da önemlisi, kodun güvenlik rehberliği, diğer zararlı durumlar için ek izleme sağlıyor. Yeni yapay zeka modelleriyle ortaya çıkabilecek “ciddi olayları” (siber güvenlik ihlalleri, kritik altyapı kesintileri, “bir kişinin sağlığına (zihinsel ve/veya fiziksel) ciddi zarar” veya “bir kişinin ölümü” gibi) tespit etmek ve önlemek için tavsiyelerde bulunuluyor. Ciddi olayların AB Yapay Zeka Ofisi'ne 5 ila 10 gün içinde bildirilmesi gereken süreler de belirtilmiş. Ayrıca şirketlerin tüm olayları izlemesi, “yeterli düzeyde” siber güvenlik koruması sağlaması, sistem kısıtlamalarını aşma girişimlerini ellerinden geldiğince önlemesi ve sistemik risk azaltma önlemlerindeki “herhangi bir başarısızlığı veya atlamayı” gerekçelendirmesi gerekiyor.
Teknoloji şirketleri, yeni kurallara ilişkin anlık tepkilerini dile getirmekten kaçındı. Yapay zeka sektörünün önde gelen firmaları, yorum yapmaktan imtina etti. Büyük bir teknoloji şirketinin yetkilisi ise, beklenen sektör tepkisine rağmen Avrupa Komisyonu ve AB üye devletleri tarafından hâlâ onaylanması gereken bu kodu incelediklerini doğruladı.
Bu yetkili, “Avrupalıların, birinci sınıf, güvenli yapay zeka modellerine ulaştıklarında erişebilmeleri ve inovasyonu ve yatırımı teşvik eden bir ortama sahip olmaları gerekir,” dedi. “Kodu incelemeyi ve diğer model sağlayıcılar ve birçok kişiyle birlikte görüşlerimizi paylaşmayı dört gözle bekliyoruz.”
Bu kurallar, Yapay Zeka Yasası'nın sadece bir parçası. Yasa, önümüzdeki bir yıl veya daha uzun bir süre boyunca aşamalı bir yaklaşımla yürürlüğe girmeye başlayacak. Yapay Zeka Yasası'nı ihlal etmek, yapay zeka modellerinin piyasadan çekilmesine veya “şirketin yıllık satışlarının yüzde 7'sine, gelişmiş yapay zeka modelleri geliştiren şirketler için ise yüzde 3'üne varan para cezaları” ile sonuçlanabilir.