Yapay Zekâ ve Etik
Yapay Zekâ Teknolojilerinin Etik Tartışmaları.
Chat GPT, QuillBot ve Google Bard gibi özellikle son dönemlerde sıkça kullanmaya başladığımız yapay zekâ araçları, hayatı farklı açılardan epey kolaylaştırsa da özellikle etik üzerine sıcak bir tartışma konusu olarak gündemde kendine yer buluyor. Bu yazıda üç farklı açıdan yapay zekâ ve etik polemiğini ele alıyoruz.
- Yapay Zekâ Çizimleri/Besteleri/Metinleri Orijinal Materyaller Mi?
Eser hırsızlığı veya "intihal" kişinin, başkasına ait orijinal bir soyut ya da somut varlığı (fikir, sanat eseri, akademik araştırma vb.) asıl sahibini saymaksızın kendisine ait gibi göstermesidir. Uluslararası platformlarda kapsayıcı kurallar olduğu gibi Türk Anayasasında da telif, patent veya ticari markalar gibi fikrî mülklerin orijinalliği korumaya yönelik maddeler bulunmakta. Hâl böyle olunca bu başlık altında yapay zekânın nasıl çalıştığına ve ürettiğine de değinmemiz doğru olur.
Yapay zekâ, kullanıma açılmadan önce çok büyük sanal veri setleri üzerinde işlemler yapar; onları inceler, analiz eder ve nihayet "öğrenir". Bu veri setleri iki kişi arasındaki e-posta zincirinden elektronik hastane kayıtlarına kadar akla gelebilecek birçok elektronik bilgiyi içerir. Daha net alanlarda "eğitilmek" istenen bir yapay zekâ aracı, daha net veri setleri üzerinde "antrenman yapar". Bu antrenmanlar neticesinde yapay zekâ, kendisine verilen yeni bir bilgiyi analiz ederek öğrendiği şablonlar ve tahmin süreçleri üzerinden bir sonuca ulaşır.
Peki yapay zekâ internetin açık denizlerinde ulaşabildiği bilgileri kullanarak gelişiyorsa kullandığı bilgilerin fikrî mülkiyete veya telif hakkına tabi olmadığından gerçekten emin olabilir miyiz? Şirketler tasarladıkları yapay zekâları çalıştırdıkları veriler konusunda ne kadar şeffaf? Örneğin geçtiğimiz aylarda farklı başlıklarla gündeme gelen Midjourney ve Stability AI davaları ve neticeleri, takip edecek diğer davalar için emsal karar niteliğinde mi?
2. Güvenlik Riskleri
Yukarıda bahsedildiği gibi birçok şirket, geliştirdikleri yapay zekâyı eğittikleri verileri açıklamak konusunda çekimser. Konuyu firmaların gizlilik hakkı sebebiyle çözümleyebilen bir zorunluluk da henüz bulunmuyor. Bu şirketlerin yanı sıra, verileri kendi lehine kullanabileceğini açıklayan Instagram (Meta) ve Google gibi dev bir teknoloji şirketleri yer alıyor: Gmail uzantılı mail adresleri üzerinden gerçekleştirilen işlemlerde kullanıcı aksini belirtmedikçe elde edilen verileri (mail, mesajlaşma, takvim, internet aramaları vb.) şirketin teknolojilerini geliştirmek amacıyla kullanabileceğini açıklayan Google, pazarlama araçlarını bu şekilde iyileştiriyor. Instagram, Ayrıca şirketler arasında yapılan anlaşmalar, elde edilen verilerin bir başka şirket tarafından pazarlama başta olmak üzere kullanılabilmesini de mümkün kılabiliyor.
Yapay zekâ araçları ise bu noktada devreye giriyor. Maliyet ve zamandan çokça tasarruf sağlatmalarına rağmen veri ihlallerine (sızıntılarına) neden olabiliyorlar. Hem kullanıcılardan edindiği bilgiler hem de kimi yapay zekâların sahip olduğu çevrim içi veriyi toplama ve çok hızlı yorumlama özellikleri, yanlış ellerde verilerin siber saldırılara açık olduğunu kanıtlar nitelikte.
3. Ayrımcılık ve Seçicilik
Yapay zekâ sistemleri, yukarıda da açıklandığı üzere analiz ettikleri veri setleri üzerinden öğrenirler. Bu veri setlerinin kapsayıcı ve çeşitli olması hem bilginin doğruluğu hem de sosyal eşitlik açısından önemlidir. Sözgelimi incelediği verilerden yola çıkarak "yoksul bir aile" çizmesi istenen bir yapay zekâ ağırlıklı olarak belli bir demografiden insanların görsellerini oluşturabilir ya da "güçsüzlük" komutuna daha çok kadın resimleriyle cevap verebilir. Yapay zekânın algoritması, onu yazan kişilerin bile farkında olamayabileceği şekilde taraflı ya da sosyal normları yansıtan bir yapıya sahip olabilir. İnsan gibi düşünemeyen bir sistemin insanın normlarına ve ön yargılarına göre hareket etmesi, yaratıcısının da insan olduğu hesaba katılırsa ayrımcı bir yapay zekâ kulağa oldukça ironik geliyor.
Neler Yapılıyor?
Yapay zekânın uluslararası ölçekte tartışılması ve etik açısından farklı soru işaretleri oluşturması, uluslararsı platformların da farkındalık oluşmak için aksiyona geçmesini tetikledi. Birleşmiş Milletler ve özellikle yine BM bünyesindeki UNESCO, "Yapay Zekânın Etiği" başlığı altında eğitim bakanları ve savcılar gibi meslek gruplarıyla çalışacağı bir program hazırlarken Partnership on AI gibi platformlar, farklı alanlardan birçok profesyoneli bir araya getirerek yapay zekâ üzerine iş birliğine katkıda bulunmaya çalışıyor. Konu hakkında aktif bazı kuruluşların bir listesine buradan ulaşabilirsiniz: AI NGOs, Research Organizations, Ethical AI Organizations | AI Ethicist