Avrupa Birliği Komisyonu yapay zekâya da el attı. Kendi sınırları içerisinde uyulması gereken kısıtlama ve kurallar yayınlayan AB Komisyonu’nun bu kararı, Amerika Birleşik Devletleri ve Çin temelli büyük teknoloji şirketlerini de etkileyecek. Teklife göre, insan haklarını ve yaşamını açıkça tehdit eden yapay zekâ sistemleri yasaklanabilecek.
Avrupa Yaklaşımı

Kurallarını 108 sayfalık metin ve 17 sayfalık ek metin ile açıklayan komisyonun, “Yapay zekâya Avrupa yaklaşımını teşvik etmek” konulu basın açıklamasında Başkan Yardımcısı Vestager öncelikle şunları dile getirdi:
Bugün, yapay zeka konusunda ilk yasal çerçevemiz olan bu dönüm noktası niteliğindeki teklifimizi benimsiyoruz. Yönetmeliğimiz, bir yandan yapay zekânın spesifik kullanımları ile insani ve toplumsal riskleri ele almaktadır. Bu güven inşa etmek amaçlıdır. Diğer bir yandan ise, planımız Üye Devletlerin yatırım ve yeniliği arttırmaları için atması gereken adımların ana hatlarını ortaya koymaktadır. Bu ise mükemmelliği garanti etmek amaçlıdır.
Yapay zekâ bugün, hayatlarımıza çok büyük faydalar sunuyor ve biz sadece başlangıçtayız. Biz şu an konuşurken yapay zekâ daha iyi teşhislerle insanların hayatını kurtarıyor, Paris’te Notre Dame’ın yeniden inşa edilmesinde mühendisleri destekliyor.
Bütün bu örnekler bizim, yapay zekânın Avrupa’da nasıl olmasını istediğimizi gösteriyor. Fakat bunu elde edebilmek için güven inşa etmemiz gerekli.
Riskli Kategoriler Neler?
Vestager, bunu elde edebilmek için teklif ettikleri yasal çerçevenin yapay zekânın kendisi için değil, onun nasıl kullanıldığına ve ne için kullanıldığına yönelik olduğunu belirtti. Spesifik bir yapay zekânın hayatlarımıza sunabileceği risk ne kadar yüksekse, kuralların da o kadar katı olduğunu ve bu temelde yapay zekâ (AI) kullanımını dört farklı kategoriye ayırdıklarını söyledi. Açıklama şu şekilde devam ediyor:
Bir piramit olarak düşünüldüğünde, en alt geniş kısımda yer alan AI uygulamalarının minimum riski temsil ettiğini veya hiç risk oluşturmayan büyük çoğunluğunu görüyoruz. Örneğin, spam mesajları tanıyan ve mesaj kutumuza düşmesini engelleyen filtreler. Yasal çerçevemiz bu tür uygulamaların, daha önceden var olan tüketicileri koruyan yasal kurallar dışında, özgürce ve kısıtlama olmadan kullanılmasına izin vermekte.
Piramitte biraz daha yüksek olan kısmında ise yapay zekânın sınırlı-riskli kullanımı yer alıyor. Örneğin, bize bilet ayırmamıza veya istediğimiz bir şeyi satın almak için en yakın mağazayı bulmamıza yardım eden sohbet botları. Bunlara da izin verilir fakat şeffaflık yükümlülüklerine tabiidir. Amaç kullanıcıların makinelerle etkileşimde olduklarının açıkça belli olmasını sağlamaktır.
Piramidin en üst kısmına yaklaşınca, “yüksek-riskli” AI kullanımını görüyoruz. Bu ana odak noktamız. Bu kullanımlar yüksek riskli kabul edilmekte çünkü hayatımızın önemli noktalarına müdahale ediyorlar. Örneğin, adayların iş başvurularını filtreleyen yapay zekâ veya birinin bankadan ipotek alıp alamayacağını değerlendiren sistemler. Veya, sürücüsüz araçlarda veya tıbbi cihazlarda kullanılan, güvenliğimize ve sağlığımıza yeni riskler getirebilecek yazılımlar.
AI Sistemleri 5 Yeni Katı Zorunluluğa Tabii Tutulacak:
1- AI sağlayıcılarının, sonuçların ayrımcı veya taraflı çıkmasını önlemek için sistemlerini yüksek kaliteli verilerle beslemeleri gereklidir.
2- Yetkililerin mevzuata uyumluluklarını değerlendirebilmeleri için, AI sistemlerinin nasıl çalıştığına dair detaylı dokümantasyon vermeleri gereklidir.
3- Sağlayıcılar, kullanıcıların AI sistemlerini anlamalarına ve doğru şekilde kullanmalarına yardımcı olmak için önemli bilgileri paylaşmalıdır.
4- Yapay zekânın hem tasarımında hem de uygulanmasında uygun düzeyde insan gözetimi sağlanmalıdır.
5- Son olarak, en yüksek siber güvenlik ve doğruluk standartlarına saygı duymaları gereklidir.
Piramidin Tepesi
Piramidin en üstüne ulaştığımızda, tamamen yasakladığımız “sınırlı” AI kullanımlarını görüyoruz çünkü bunların kabul edilemez olduğunu düşünüyoruz. Bu AI kullanımları birine bilinçaltı teknikleriyle fiziksel veya psikolojik zarar verenler. Örneğin, bir çocuğu sesli komutlarla manipüle ederek tehlikeli şeyler yapmaya yönlendiren oyuncaklar söz konusu olduğunda. Bunların Avrupa’da yeri yoktur. Bu nedenle onları yasaklamayı öneriyoruz.
Aynı yasaklama, temel değerlerimizle çakışan kullanımlar için de geçerli. Örneğin, insanları sosyal davranışlara göre puanlayan sosyal puanlama sistemi. Bu kullanım, yetkililerin insanlarla nasıl etkileşim kurduğunu etkiler.
Özellikle spesifik bir AI kullanımı hem yüksek risk hem de yasaklı kategorisine giriyor fakat sıkça kullanılıyor. Bu kullanım uzaktan biyometrik tanımlama. Sınır kontrollerinde gümrük yetkilileri tarafından kullanıldığında veya parmak izi ve yüz tanıma ile imzalama istendiğinde olan kullanımlar sorun teşkil etmemekte.
Avrupa Birliği bu teklifte birçok insanın eşzamanlı izlendiği kullanımları bu kategoride saydığını belirtti. Toplumda kitlesel gözetlemeye yer olmadığını bu nedenle uzaktan biyometrik tanımlamanın halka açık alanlarda kullanımının yasaklandığını söyledi. Kesin olarak tanımlanmış, sınırlı ve oldukça dar istisnai durumlarda kullanılması (Örneğin, polislerin kayıp bir çocuğu araması gibi) önerildi.
Uygunluk Nasıl Sağlanacak?
Ulusal makamlar AI sistemlerinin yükümlülüklerini yerine getirip getirmediğini değerlendirmekten sorumlu olacak. Örneğin, mahremiyetle ilgili yükümlülükler ulusal veri koruma otoriteleri tarafından değerlendirilecek.
Cezai Yaptırım Nedir?
Sürekli uyumsuzluk halinde, AI uygulamalarının yasaklarına uymayanlar, yıllık küresel cirosunun %6’sına kadar cezaya çarptırılabilecek.
Son olarak, Avrupa ve diğer ülkelerin son dijitalleşme dalgasında lider olamadığını ancak bir sonraki dalgaya liderlik yapabilecek her şeye sahip olduğunu söyleyen Vestager; şirketlere gelişmiş yapay zekâ sistemlerini oluşturmak içim en iyi koşullara erişimi sağlamayı hedeflediklerini açıkladı. Yapay zekâlar ile ilgili genel bilgilere kısaca göz atmak isterseniz buradan ulaşabilirsiniz.
Kaynak:
https://tinyurl.com/67ap2tww
https://tinyurl.com/cbmbyt9w
https://tinyurl.com/2vjw3mt9
https://tinyurl.com/nwztnzwk