Yapay zekânın herkesçe kabul edilmiş belli bir tanımı olmamakla beraber, etik ve teknoloji profesörü Joanna J. Bryson’a göre “Algıyı eylem de dahil olmak üzere daha alakalı bilgilere dönüştüren her türlü yapay yapı” yapay zekâ iken, diğer bazı uzmanlara göre insanların doğru cevaplamakta zorlanacakları soruları hesaplayabilen sistemlerdir. Önümüzdeki ay kanunlaşması beklenen Avrupa Birliği yapay zekâ tüzüğüne göre ise “'Yapay zekâ sistemi', makine tabanlı çeşitli otonomi düzeylerinde çalışmak üzere tasarlanmış, uygulamaya konulduktan sonra adaptasyon sağlayan, açık ya da örtülü hedefler için, aldığı girdilerden, fiziksel veya sanal alemi etkileyebilecek tahmin, içerik, tavsiye gibi çıktılar verebilen sistemlerdir.”
Yapay Zekâ Etiği Nedir?
Yapay zekâ etiği, yapay zekâ teknolojilerinin üretim ve kullanımının sosyal ve ahlaki görünümlerini ele alır. Yapay zekâ sistemlerinin sorumlu ve güvenilir tasarım, geliştirme, dağıtım ve bakımının sağlanması için, değerler, ilkeler, yönetişim mekanizmaları ve müzakere süreçlerini araştırır. (Leslie, D. (2019). Understanding artificial intelligence ethics and safety. arXiv preprint arXiv:1906.05684.)
Yapay Zekâ Etiği Alanı Nasıl Ortaya Çıktı?
Eğitim, sağlık, yönetim, enerji yönetimi, çevre, savunma güvenlik, adalet, göç yönetimi gibi çok çeşitli alanda hayatımızı kolaylaştıran yapay zekâ sistemlerinden azamî verimi alabilmek ve ortak insanî değerlerimizi tatbik ettiğinden emin olmak, yapay zekâ etiği alanının oluşmasını tetiklemiştir. Sosyo-teknik sistemler olarak da sınıflandırılan yapay zekâ sistemlerinin insanlarda bulunan önyargılar, yanlış muhakemeler ya da adaletsiz yapılardan etkilenmiş olması çok da şaşırtıcı olmaz. YZ etiği alanının ortaya çıkmasının tetikleyicilerinden bir başkası da YZ’nin günümüzde teknolojinin varabileceği son nokta olarak görülmesi ve tabi çok yüksek kâr marjları bulunan bir sektörde etik ve ahlâki değerlerin göz ardı edilmesidir.
Yapay Zekâ Etiği Alanı Ne Zaman Ortaya Çıktı?
2017’den bu yana konu üzerinde yazılan makaleler artıyor. Bu durumu büyük dil modellerinin her sene biraz daha kabiliyetli hale gelmesine bağlayabiliriz. Bu konuda incelenebilecek diğer bazı dokümanlar, 2019’da OECD tarafından yayımlanan yapay zekâ prensipleri ve 2021’de Unesco’nun yayınladığı yapay zekâ etiği ile ilgili tavsiyeler de 193 ülke tarafından imzalanan, konu ile ilgili ilk küresel anlaşma ünvanını taşıyor. Elbette, yapay zekâ etiğinin başlangıcını Isaac Asimov’un 1950’de yayımlanan Ben Robot kitabındaki üç robot yasasına kadar da uzandırabiliriz. Bu durumda ilk yapay zekâ etiği kurallarının, insanlara müspet ya da menfi bir davranışla zarar vermemek, insanlara birinci kuralı ihlal etmediği müddetçe itaat etmek ve ilk iki kuraldan birini ihlal etmediği müddetçe kendini korumak olduğunu söyleyebiliriz. Buna binaen etik kuralların ve regülasyonların ortaya çıkmasını yapay zekânın giderek daha potansiyelli olmasıyla da ilişkilendirilebilir.
Sosyo-Teknik Sistemler Nelerdir?
Sosyo teknik sistemler, teknolojinin bireysel ve sosyal etkilerini de göz önünde bulundurarak tasarlanan sistemlerdir. Örneğin sosyal medya. Yapay zekânın Sosyo-teknik sistemler sınıfından olmasının sebebi ise insanların oluşturduğu verilerle besleniyor olması.
Sosyo-teknik sistemlerden olması yapay zekâ etrafında pek çok endişeyi de beraberinde getiriyor. Örneğin toplumdaki önyargıları karar verme mekanizmalarına taşıyarak sistemli hale getirmesi, insan gücünün pek çok işkolunda yerine alara işsizlik kaygılarına yol açması, ölümcül otonom silahların kullanımı (LAWs), deepfake gibi uygulamalarla yanlış bilginin hızlıca yayılması, genel yapay zekânın çalışmalarının insan varlığını tehdidi gibi çok ciddi sonuçları var. Aynı zamanda İngilizce’de ‘automation bias’, Türkçe’de otonom yanlılığı denilen elektronik ve belli seviyede otomasyon ile çalışan sistemlerin insanoğlunda aşırı güvene yol açması ve otonom sistemlerden gelen her türlü sonucu doğru olarak algılaması da yine etik olarak ciddi sorunlar doğurabilir. Bu sistemleri uygulamaya koyanların ya da nezaret edenlerin (oversight) ortaya çıkan sorunları saptayamayacak kadar sisteme riayet eder hale gelmesi, veyahut sistemin objektifliği ve üstünlüğü algısına kapılması otonom yanlılığından kaynaklanır. Örneğin sistem gerçeğe aykırı cevaplar vermesine rağmen sorgulamadan bunu uygulama örneğine Amerikan mahkemelerinde yeniden suç işleme eğilimini ölçen algoritmanın, şartlı tahliye kararı için sabıkası kabarık olan bir beyaza düşük risk puanı verirken bir siyahiyi yüksek riskli olarak sınıflandırdığını ve sonuçta kararının yanlış çıktığına dair örnekler mevcut. Okuyucularımız detayları ProPublica websitesinde bulabilirler.
Pratikte yapay zekâ etiği ve yönetimi adında Alan Turing Enstitüsü tarafından hazırlanmış çalışma kitapçığından yararlanarak hazırlanmıştır.