Yapay Zeka Regülasyonu
Gelecek, onu ve onun içerisindeki hayatımızı hayal etme biçimimizden bağımsız değil. Biz onu hayal ederken bir yandan da gerçekleştirmiş oluyoruz. Gelecek de bizi, yani insanları, kendine göre şekillendiriyor. Ülkeler, kurumlar ve organizasyonlar vizyonlarıyla, kanunlarıyla, hayalleriyle ve her türlü diğer yaratımlarıyla hem geleceğe dair beklentilerini ve hangi geleceğin daha iyi, daha arzulanır olduğunu 'anlatıyorlar' hem de gelecekte nelerden kaçınmak istediklerini ifade ediyorlar. Distopya olmadan ütopyanın da olamayacağı gibi, arzularımız kadar korkularımız da geleceği şekillendirmemizde etkisini gösteriyor. İşte AB'nin bu yapay zeka taslağında bunu, yani geleceğe dair korkularımızı, özellikle taslak metninde benimsenen risk temelli yaklaşımdan görebiliriz.
Kaynak: Pixabay |
Avrupa Komisyonu, yapay zekanın risklerini ele alan ilk yapay zeka yasal çerçeve önerisini/taslağını 21.04.2021 itibarıyla önerdi. AB'nin bu vesileyle, diğer yasal çalışmalarla ve genel AB vizyonuyla uyumlu olarak, Avrupa'yı yeni teknolojilerde küresel lider yapma, iş imkanlarını artırma, rekabetçilik, sürdürülebilirlik, güvenilirlik ve insan-merkezlilik gibi temel değerleri de koruma ve yüceltme amacıyla çalıştığını görüyoruz.
Taslak çalışma yapay zekaya karşı risk temelli bir yaklaşım içeriyor. Buna göre yapay zeka 4 temel gruba ayrılıyor:
Avrupa Komisyonu |
- Kabul edilemez risk: İnsan haklarına ve güvenliğine açık tehdit oluşturan yapay zeka yasaktır. Bu, Black Mirror dizisinde işlenen ve Çin'de de uygulandığı söylenen "social scoring" uygulamalarını yasakladığı gibi aynı zamanda insanların özgür iradesini manipüle eden uygulamaları da kabul edilemez olarak görüyor.
- Not: Burada bir nokta bence çok önemli. Sadece bir örnek olması bakımından ABD'nin silahlı insansız hava araçları, yani droneları vasıtasyla yaptıkları saldırıları düşünelim. Bu araçların otonom, signature strike yapan uygulamaları ne olacak? Yani kendi kendine uçan, düşünen, karar veren ölüm makineleri...Social scoring yasak, peki bunlar? Tabii ki:
- Yüksek risk: Bir çok konuda yüksek risk içeren uygulamaları ifade ediyor. Yine belli bir dereceye kadar insan can, hak ve özgürlüklerini hedef alma ihtimali olan uygulamaların ciddi kısıtlamalara tabii olacağı belirtiliyor.
- Sınırlı risk: Bazı şeffaflık problemlerine değiniyor. Örneğin bir chatbot ile konuştuğunuzda karşınızdakinin yapay zeka tarafından yönetildiğinin size açık olarak belirtilmesi gibi şartlar öneriliyor.
- Asgari risk: Çoğu yapay zeka uygulamasının içinde bulunduğu bu kategori temelde düşük riskler içeriyor. Örneğin, email kutularımızda kullandığımız otomatik spam filtreleri ya da video oyunlarındaki yapay zeka uygulamları bu kategoride.
Tabi bu henüz taslak. Nasıl yayımlanacağı bilinmez, ama önemli değil. Görüşmelerde bir araya gelen tarafların ortaya çıkardığı taslak metin bu. Bizim için önemli olan ise onun yaratıcıları, onların hayal ettikleri gelecek ve geleceğin onları (yani bizi) nasıl şekillendireceği...
Daha fazla bilgi:
Yorumlar
Yorum Gönder