BİLİM & TEKNOLOJİ
okuma süresi: 12 dak.

Yapay zeka etiği: Makinenin kötüye kullanımı ve insanın sorumluluğu

Yapay zeka etiği: Makinenin kötüye kullanımı ve insanın sorumluluğu

Dünya, yapay zeka terimiyle her ne kadar 1950’li yıllarda ABD’deki Dartmouth Koleji'nde düzenlenen bir konferans sırasında tanışmış olsa da gelişimleriyle ilgili etik sorunun netleşmesi ve ilerleme sağlanması onlarca yıl aldı.

Yayın Tarihi: 08/06/23 16:00
Güncelleme Tarihi: 08/06/23 19:55
okuma süresi: 12 dak.
Yapay zeka etiği: Makinenin kötüye kullanımı ve insanın sorumluluğu
A- A A+

Yapay zeka ile ilgili ilk basit girişimlerden, insanların ChatGPT ve birbirini izleyen diğer versiyonlarıyla etkileşime girdiği ana kadar yapay zeka uygulamalarının büyümesi ve yayılmasıyla doğru orantılıydı. Halen de öyle olmaya devam ediyor.

İster sektör ister inovasyon (yenilik) düzeyinde olsun, teknoloji alanında çalışanlar ‘etik’ meselesinde ikiye ayrılıyorlar. Bunlardan ilki, gelişmeleri hayata geçirmeden önce etik sorunlar oluşturup oluşturmayacağının araştırılmasını ve insanlara zarar vermemesi adına ilgili düzenlemelerin yapılmasını isterken ikinci kesim bu tür ön adımların gelişmeleri kesintiye uğratabileceği ya da geriletebileceğini savunuyor.

Şarku’l Avsat’a konuşan uzmanlar ve akademisyenler, yapay zeka uygulamalarının önemli olduğu, heyecan yarattığı, birçok kişinin hayatına lüks kattığı ve faydalı olduğu konusunda hemfikirler.

Teknoloji üreticilerinden ve yapay zeka uzmanlarından bir grup geçtiğimiz mart ayında, çalışmaların daha fazla kontrol altına alınmasına izin vermek ve insanların bu gelişmelerden zarar görmesini engellemek için yapay zekanın araştırma ve geliştirmesinin altı ay süreyle durdurulması çağrısında bulundular.

Kâr amacı gütmeyen Future of Life Institute (Yaşamın Geleceği Enstitüsü) adlı kuruluş tarafından hazırlanan ve üç bine yakın bilim insanı ve girişimcinin imzasını taşıyan çağrıda yapay zeka laboratuvarlarının daha güçlü dijital beyinler geliştirme ve dağıtma yarışından duyulan korku dile getirildi. Söz konusu gelişmelerin hiç kimsenin, hatta üreticilerinin bile güvenilir bir şekilde anlayamayacağı ve kontrol edemeyeceği kadar kontrol dışı kalabileceği belirttildi.

BM TAVSİYELERİ

Yapay zekanın insanlığa sunduğu avantajlara, hastalıkların teşhisinde, iklim değişikliklerini tahmin etmede ve diğer konulardaki faydalara rağmen bazı cinsiyetçi ve ırkçı algoritmaların neden olduğu etik zorlukları ve uygulamalarının mahremiyete yönelik potansiyel tehdidi Birleşmiş Milletler Eğitim, Bilim ve Kültür Örgütü'nü (UNESCO) 2021 yılının kasım ayında ‘yapay zeka etiğiyle ilgili tavsiyelere ilişkin ilk küresel anlaşmayı’ kabul etmeye itti.

Bu tavsiyeler 4 maddeden oluşuyordu:

1- Verilerin korunması: Kişisel verileri ve bunları kontrol etme haklarını koruyan prosedürler.

2- Kitlesel gözetleme amacıyla yapay zeka sistemlerinin kullanımının yasaklanması: Herhangi bir görevde nihai sorumluluğun insanlarda olması ve böylece yapay zeka teknolojilerinin kendi başına ahlaki bir kritere dönüşmesinin önüne geçilmesi.

3- Veri, enerji ve kaynak kullanımında verimli yapay zeka yöntemlerinin desteklenmesi: Böylece bu yöntemlerin çevre sorunlarının çözümüne katkı sağlaması.

4- Yapay zekanın etik sonuçlarını değerlendirecek bir mekanizma: Yapay zekanın yol açacağı etik sorunları değerlendirmek üzere bir mekanizma oluşturulması.

SIK SIK YAPILAN ÇAĞRILAR

Yapay zeka ile ilgili korkular, yapay zeka teriminin ortaya çıkışı kadar eski olsa da İspanya Granada Üniversitesi'nden deneysel psikoloji uzmanı Jose Martinez Delgado, Şarku’l Avsat’a yaptığı değerlendirmede, ChatGPT’yi, bilim kurgu dünyasından pratik gerçekliğe daha yakın gördüğünü ifade etti.

Yazarlar, düşünürler ve filozoflar daima, tıpkı uzman akademisyenler gibi yapay zeka etiğine sahip olmanın önemli olduğunu vurgulamışlardır. ABD’li roman yazarı Vernor Vinge de 1983 yılında insanlığın geleceğinin yapay zeka sistemlerinde yerleşik ahlaki standartların uygulanmasına bağlı olabileceğini, çünkü bu sistemlerin bir noktada insan yetenekleriyle eşleşebileceğini yahut onların yerini alabileceğini söylemişti.

İsveçli filozof Nick Bostrom, 2018 yılında akıllı makinelerin geliştiricilerine, bu makinelerin insanların karşısında yer alması durumunda teknolojik mükemmelliğin potansiyel tehlikeleri konusunda uyarmış ve ‘dost canlısı yapay zeka’ vurgusu yapmıştı.

Akademisyenler de etik kaygılar konusunda uyarıda bulunan düşünürlerle aynı fikirdeler. ABD’li tanınmış bilgisayar bilimcisi Rosalind Picard, 1997 yılında, “Bir makine ne kadar özgürse, o kadar çok ahlaki standarda ihtiyaç duyar” demişti.

Delgado’nun, ChatGPT'nin hatalarının üstesinden gelmeyi başaracağına şüphesi yok. Öyle ki ‘makine öğreniminin onu bir insandan daha akıllı hale getirebileceğine’ dahi inanıyor. Delgado’ya göre yapay zekayı insanlarla ortak çalışmada kullanırken ortaya çıkan tehlike burada yatıyor. Bu yüzden Delgado, insanların yapay zeka sistemlerinin davranışları ve sonuçları üzerinde tam kontrole ve sorumluluğa sahip olması gerektiğine güçlü bir şekilde dikkat çekiyor. Çünkü, araştırmacıların son yıllarda meydana gelen (2013’de İspanya'da Madrid'den Santiago de Compostela'ya giden Alfia treni kazası, 2009'da Air France Flight 447 uçağı kazası ve 2013'te Asiana Airlines Flight 214 uçağı kazası gibi) bazı olayları analiz ederken, bunların yapay zekanın sızmasından kaynaklandığını buldular.

Söz konusu olayları inceleyen araştırmacılar, altta yatan nedenin, yapay zeka kontrol stratejilerinin insanlar tarafından kullanılanlarla aynı ya da benzer olmaması olduğu sonucuna vardılar. Delgado’ya göre insanlarla yapay zeka arasındaki etkileşimde olduğunu söylediği zorluk da buradan geliyor. Delgado, insanlar ve yapay zeka sistemleri arasında etik ve adil bir ilişki için etkileşimlerin, insanların bilişsel yeteneklerine saygı duyma temel ilkesine dayanması gerektiğini vurguladı.

OLAĞANÜSTÜ İNSAN

Bir önceki meydan okuma, ikinci bir meydan okumayla çelişmez. ABD'de Kaliforniya Üniversitesi Sentetik Mühendislik ve Yönetim Sistemleri Bölümü'nde yardımcı doçent olan Özlem Garibay’a göre ‘sorumlu yapay zeka’ terimi, ‘insanlığın refahını, insani değerlerle tutarlı bir şekilde desteklemek’ anlamına geliyor.

Şarku’l Avsat’a konuşan Garibay şunları söyledi:

“Bu meydan okuma çerçevesinde, akıllı robotlar bazı bedensel engellerde tıbbi çözümler sağlayabilir. Ancak mesele, teknolojinin tanrılaştırılmasına ve onun özelliklerini geliştirip örneğin elektronik çiplerle hafızayı güçlendirerek olağanüstü insan yaratmak amacıyla kullanma noktasına evrilmemelidir.”

Kanada'nın Montreal Üniversitesi'nde Etik ve Siyaset Felsefesi Bölümü'nden Yar. Doç. Marc-Antoine Dilhac, 2018’in mart ayında UNESCO Courier dergisinde yayınlanan makalesinde, başka bir boyuta ya da diğer bir deyişle başka bir meydan okumaya işaret etti. Dilhac, yüz tanıma teknolojisini kullanarak kişilerin 'terörist eylemlerini’ ya da 'suçlu kişiliğini' tespit etmek için birçok ülkede hali hazırda kullanılan yazılımların olduğunu belirtti. Dilhac, ABD’deki Stanford Üniversitesi'nden iki araştırmacının ‘bir bireyin kişiliğini yüz hatlarına ve ifadelerine göre analiz eden fizyonomi teorisinin bu yeni dirilişi karşısında dehşete düştüğünü’ de sözlerine ekledi.

Massachusetts Teknoloji Enstitüsü’ne (MIT) bağlı MIT Technology Review tarafından 2022’nin şubat ayında yapılan bir çalışmada, önyargılı fizyonominin (bir kişinin karakterini ya da kişiliğini dış görünüşünden, özellikle de yüzünden değerlendirme) yalnızca önleyici bir güvenlik tedbiri olmadığı, istihdam uygulamalarının da bunun bir parçası olduğu ve LinkedIn gibi sitelerin ‘kararlı insanlara ve kadın iş adaylarına karşı önyargılı olan bazı iş görüşmesi yazılımlarını kaldırmaya çalıştığı vurgulandı.

SİLAH OLARAK KULLANILMASI

Çağımızın önde gelen bilgisayar uzmanlarından biri olan ve 2018’de (bilgisayar bilimlerinde Nobel Ödülü'nün eşdeğeri olarak görülen) Turing Ödülü'nü alan Kanadalı bilim insanı Yoshua Bengio, silah olarak kullanılabilen sistemler gibi çok yüksek riskler taşıyan yapay zeka sistemlerinin tasarlanmasının önüne geçilmesi için çalışmalar yapılması gerektiğini vurguladı.

Yapay zeka sistemlerinin insanlığa büyük faydalar sağlayabileceğinin altını çizen Bengio, “Yapay zeka uygulamaları, sağlık hizmetlerine ulaşmada da yararlı olabilir, ancak öte yandan silah olarak kullanılan sistemler geliştirilebilir ve bunun engellenmesi gerekir” dedi.

Ele alınması gereken bir başka zorluk ise İtalya'nın ChatGPT'nin yasaklanması çağrısında bulunması ve İspanya ve Fransa'nın da bu çağrıya katılmasının nedenlerinden biri olan yapay zeka sistemlerinin ihlal etmemesi adına ‘gizliliğin güvence altına alınması’ olarak karşımıza çıkıyor.

Avrupa Konseyi Kişisel Verilerin Otomatik İşleme Tabi Tutulması Karşısında Kişilerin Korunması Sözleşmesi Danışma Komitesi, ChatGPT'ye yönelik yapılabilecek her türlü eylem hakkında bilgi alışverişini teşvik etmek için bir ekip oluşturulduğunu duyurdu. Komite 14 Nisan'da yaptığı açıklamada, ‘yapay zeka alanında yenilikçi teknolojileri’ desteklediğini, ancak ‘insanların hak ve özgürlükleriyle her zaman uyumlu olması gerektiğini’ vurguladı.

‪İtalya Calabria Üniversitesi’den bilgisayar mühendisliği profesörü Domenico Talia, Şarku’l Avsat’a yaptığı değerlendirmede, ChatGPT’nin algoritmalarını eğitmek için kişisel verileri toplamasının ve işlemesinin, gizliliğin açıkça ihlali olduğunu söyledi.  Talia, “Bu uygulamanın ve insanların hayatına getirdiği faydaların yanındayım. Ancak aynı zamanda kendisi ile etkileşim kurduğumda kişisel verilerimin toplanmasını kabul etmiyorum” ifadelerini kullandı.

ULUSLARARASI ANLAŞMALAR

Kanadalı bilim insanı Bengio da yapay zekanın ortaya çıkardığı zorlukların kendi kendisini düzeltmesinin beklenmesi yerine bağlayıcı yasalar ve yönetmelikler çerçevesinde ele alınması gerektiğini belirterek, “Araba kullanmak gibi ister sağdan ister soldan olsun, herkes aynı şekilde sürmek zorunda yoksa başımız belaya girer” yorumunda bulundu.

AB tarafından ‘yapay zeka’ konulu bir yasa tasarısının hazırlanmakta olduğunu ve Kanada'da yakında bir yasa çıkarılacağını söyleyen Bengio’ya göre ancak bu çalışmalar, ‘nükleer tehlikeler’ ve ‘insan klonlama’ ile olanlara benzer uluslararası anlaşmaların yapılması anlamına gelmiyor.

UNESCO, iki yıldan daha kısa bir süre önce yapay zekanın etik zorluklarına ilişkin tavsiyelerini yayınlarken 40'tan fazla ülke ‘yapay zeka ile ilgili ulusal düzeydeki kontrolleri ve düzenlemeleri’ geliştirmek için bu kurum ile birlikte çalışıyor.

UNESCO, tüm ülkeleri ‘yapay zeka etiği’ için öncülük ettiği bu harekete katılmaya çağırırken 30 Mart'ta yayınlanan bir bildiride, bu alanda başarılanlara dair bir ilerleme raporunun önümüzdeki aralık ayında Slovenya'da düzenlenecek UNESCO Yapay Zekâ Etiği Küresel Forumu'nda sunulacağını bildirdi.

#mesajınızvar
Levent ÖZADAM'dan
#mesajınızvar
Gözden Kaçmadı
#gozdenkacmadi

En güncel gelişmelerden hemen haberdar olmak için

Yorumlar

Dikkat!
Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.