Post Author Avatar
Zeynep Senis
Çevirmen/Yazar

İlk olarak 1967'de Philippa Foot tarafından ortaya atılan Tramvay İkilemi (Trolley Dilemma), günümüzde modern felsefedeki en zor etik sorulardan biri olarak kabul edilmektedir. Bu sorunun ikilemi, otonom araçlar dünyasında da oldukça önemli bir tartışma yaratıyor.

Problem bildiğiniz gibi, bir görgü tanığının, kaçamayacak durumda olan beş kişiye doğru hızla yaklaşan bir sürücüsüz bir tramvay gördüğünde ne yapması gerektiğini soruyor. Tanığın, çekildiğinde, tramvayı sadece bir kişinin bağlı olduğu alternatif bir yola yönlendiren bir kola erişimi bulunuyor. İkileme sebep olan şey ise, masum görgü tanığının, beş kişinin ölümünü izlemesi mi yoksa aktif olarak müdahale edip diğer beş kişiyi kurtarmak için bir kişinin ölümüne neden olması mı gerektiğine derhal karar vermesidir. 

Bu çözülmesi kolay bir problem değil. Tabii ki, dürtüsel tepki, yaşamları nicelik olarak değerlendirerek beş yaşamın bir yaşamdan daha önemli olacağına karar vermek olabilir. Ancak, ya bu bir kişi yeni doğmuş bir bebekse ve beş yaşlı insan da 90 yaşındaysa? Bu durum verilen kararları nasıl etkiler?

Görsel Kaynak: theconversation.com Çeviri-Düzenleme: BilimFili.com

Otomatik ve otonom araçların önlenemez yükselişleri ile bu sorun, otomobil üreticilerinin kendi kendini süren araçlarını nasıl programlayacaklarına karar verirken etik sorumluluklarını da vurguladığı için yeniden ilgi gördü. Yapay zekâ günümüzde iş, sağlık ve üretim alanlarında kararlar alsa da programcılar, mühendisler ve tasarımcılar artık toplu olarak “karar vericiyi” oluşturuyor ve nihayetinde, öngörülemeyen bir olaya yanıt olarak otomobilin vereceği en uygun yanıtı kodluyor ve entegre ediyor.

Peki yapay zekâ sistemleri, insanlar için ölüm kalım anlamına gelebilecek bağımsız kararlar almak zorunda kalsaydı ne olurdu?

İnsanlardan farklı olarak “robotlar” ahlaki bir vicdandan yoksundur ve kendilerine programlanmış “etik”leri takip eder. Aynı zamanda, insan ahlakı da oldukça değişkendir. Herhangi bir durumda yapılacak “doğru” şey, kime sorduğunuza bağlı olacaktır. Makinelerin bize tam potansiyellerinde yardımcı olmaları için etik davrandıklarından emin olmamız gerekir. Böylece soru şu hale geliyor; AI geliştiricilerinin ve mühendislerinin etiği, AI tarafından verilen kararları nasıl etkiler?

Otonom Sürüşün Geleceği

Tamamen otonom olan, kendi kendini sürebilen arabalarla dolu bir gelecek hayal edin. Her şey istendiği gibi giderse yolculuğunuz, sabah işe gidip gelmek, günlük toplantılara hazırlanmak, haberleri takip etmek veya arkanıza yaslanıp rahatlamak için bir fırsat olacaktır. 

Ama ya işler ters giderse? Araba bir trafik ışığına yaklaşır, ancak aniden frenler bozulur ve bilgisayarın anlık bir karar vermesi gerekir: yakındaki bir direğe çarparak arabanın içindeki yolcuyu öldürebilir veya devam edip önündeki yayayı öldürebilir. Arabayı kontrol eden bilgisayar, sadece araba sensörleri aracılığıyla toplanan sınırlı bilgilere erişebilecek ve buna göre bir karar vermek zorunda kalacak. Bu ne kadar dramatik görünse de potansiyel olarak bu tür ikilemlerle yüzleşmekten sadece birkaç yıl uzaktayız. Otonom arabalar genellikle daha güvenli sürüş sağlayacaktır, ancak özellikle öngörülebilir bir gelecekte, bu arabaların, yolları insanlı araçlar ve yayalarla paylaşacağı zaman kazalar kaçınılmaz olacaktır.

Örneğin Tesla, planlasa da henüz tam otonom otomobiller üretmeye başlamadı. Çarpışma durumlarında, kontrol bir insan sürücüdeyse Tesla otomobilleri “Otomatik Acil Durum Frenleme” (AEB) sistemini otomatik olarak çalıştırmaz veya devre dışı bırakmaz. Başka bir deyişle, çarpışmaya kendileri sebep olsalar bile, sürücünün eylemleri kesintiye uğramaz. Bunun yerine, araç olası bir çarpışma tespit ederse, harekete geçmesi için sürücüye uyarılar gönderir. Ancak, araç “otomatik pilot” modundayken, yayaları tespit ettiğinde otomatik olarak fren yapmalıdır. Bazıları, otomobilin her olası senaryoda, bir çarpışmayı önlemek için sürücünün eylemlerini geçersiz kılmanın ahlaki bir zorunluluk olduğunu tartışıyor. Ancak bu kararı bizim adımıza otonom bir otomobilin vermesini ister miydik?

Bir Hayatın Değeri

Bir arabanın yapay zekâsı, arabadaki yolcunun ve yayanın göreli "değerini" değerlendirebilseydi nasıl olurdu? Aslında kararı verirken bu değeri dikkate alsaydı, teknik olarak sadece bir maliyet-fayda analizi yapıyor olurdu. Bu durum oldukça endişe verici görünebilir, fakat bunu sağlayabilecek olası teknolojiler günümüzde halihazırda geliştiriliyor. Örneğin, yakın zamanda yeniden markalaştırılan Meta(eski adıyla Facebook) 2 Kasım 2021 tarihine kadar, kişileri kolayca tanımlayabilen oldukça gelişmiş yüz tanıma teknolojisini kullanıyordu.

Bu veriler otonom bir aracın yapay zekâ sistemine dahil edilirse, algoritma her bir ömre bir değer de pekâlâ biçebilir. Bu olasılık, Massachusetts Institute of Technology'deki uzmanlar ve meslektaşları tarafından yürütülen kapsamlı bir 2018 çalışmasında tasvir edilmiştir.

Moral Machine” deneyi aracılığıyla araştırmacılar, katılımcıları evsiz bir yayayı mı yoksa yönetici vasıflı bir yayayı mı öldüreceklerine karar vermeye zorlayan çeşitli otonom araba senaryoları ortaya koydu. Sonuçlar, katılımcıların seçimlerinin ülkelerindeki ekonomik eşitsizlik düzeyine bağlı olduğunu ortaya çıkardı; daha fazla ekonomik eşitsizlik, evsiz adamın feda edilme olasılığının da daha yüksek olduğu anlamına geliyordu. Bu kadar gelişmiş olmasa da Çin’de bu tür veri toplama uygulamaları ve toplanan verilere göre kişilerin hangi sosyal haklara sahip olduğuna karar veren sosyal kredi sistemi zaten kullanılıyor. Bu konuyu bir sonraki yazımızda detaylı olarak inceleyeceğiz.