Views
1 year ago

OCAK - MART 2017 SAYI 75

YpB6sb

mızdan) ‘kötü’

mızdan) ‘kötü’ olan şeylerden kaçınmasını nasıl sağlayabileceğimiz önemli bir soru… Doğada, ahlakî karar veren başka bir canlı olmadığına göre, bu soruyu yanıtlamak için başvuracağımız kaynak da belli: BİZZAT BİZ! O halde haydi ahlâk felsefecisi Philippa Foot'un yaratıcısı olduğu, Peter Unger’ın çeşitli varyasyonlarıyla meşhur olan, meşhur muzip sorulardan birine bakalım: Bir tren raylarda gitmektedir. İleride ise bir makas var. Makasın bir yanında dört kişi raylara yatırılarak bağlanmış ve ölüme terk edilmiş. Diğer yanında ise bir kişi, aynı şekilde hasmı tarafından yatırılarak bağlanmış. O da üzerinden geçecek treni bekliyor. Eğer makası değiştirmezseniz o tren dört kişinin üzerinden geçecek, değiştirirseniz bir kişinin üzerinden geçecek. Yani oradaki insanlardan hangilerinin öleceği, başka bir deyişle kaç insanın öleceği tamamen sizin elinizde. Treni durdurma şansınız yok. Kimseyi gidip çözecek vaktiniz yok. Ancak ve ancak makası kontrol edebiliyorsunuz… Bu makası değiştirerek ölü sayısını bire düşürür müydünüz? Yoksa sistemi olduğu gibi bırakır ve dört kişinin ölümüne seyirci mi kalırdınız? Soru bizi kötü bir senaryo karşısında sorumlu kılıp, önemli bir karar için ‘makası’ elimize veriyor… Merak ediyorsanız söyleyeyim: İnsanların çok büyük bir çoğun- Şu an tekillikten hâlâ çok uzaktayız. Bir yapay zekânın insan zekâsını taklit edebilme gücü, bundan yarım asır evvelki bilim insanlarının içinde bulunduğumuz çağa yönelik tahminlerinden çok daha geride! Tren Problemi luğu makası değiştirmeyi tercih ediyor. Hiç tanımadıkları dört kişiyi kurtarmayı, yine hiç tanımadıkları bir kişiyi kurtarmaya yeğliyorlar. Kader çoktan dört kişiyi hedeflemiş olsa bile…Muhtemelen bu kararın ardında, hiç tanımadığımız insanları birbiriyle özdeş görüp, azami düzeyde insan kurtarmaya çalışıyoruz. Belki bir tarafta tanıdıkların olması sonucu değiştirir. Hatta şüphesiz bir tarafta çok sevdiğimiz bir yakınımız ya da aile bireyimiz olsaydı, karar üzerinde muazzam bir etkiye sahip olurdu. Bunun nedeni bu tercihimizin temel karar biriminin fayda olması. Eğer çoğunluğun yaptığı gibi makası değiştirip de dört kişiyi kurtarıyorsak, azami faydayı elde edecek tercihi yapmış bulunuruz. Eğer tercihimiz buysa, doğal olarak iyi ahlâka yakışanın ve insana uygun davranışın da bu olacağını düşünüyoruzdur (yoksa tutarsız oluruz!). İşte bu ahlâk “sonuççu etiğin” bir ürünüdür. Eski etikçiler buna “utiliteryanizm” de derler; basitçe iyiliğin ölçütünün azami sayıda kişiyi mutlu etmek olduğu temeline dayanır. Demokrasi neredeyse tamamen utiliteryanizm üzerine kuruludur, politikalar -uygarlık bazı sosyal sorunları aşmak amacında olanlar hariç- utiliteryanist bir bakış açısıyla oluşturulurlar ve hayatın her alanında insanları bir konunun neden öyle olması gerektiğine “daha fazla insanın mutlu olduğu” gerekçesiyle ikna edebilirsiniz. Peki robotlar da öyle yapar mı dersiniz? Başka bir deyişle: Sizce robotlar da sonuççu etiğe göre mi davranmalı? Sonuççu etik meselesi günümüz robotikçilerini epey derinden ilgilendiriyor. Henüz hayatımızdaki robotlar evde bulaşıklarımızı yıkayan, biz yokken çocuğumuza bakan, gündelik yaşamda dertlerimizi anlattığımız ve sırlarımızı kimseyle paylaşmayacağını ümit ettiğimiz varlıklar olmayabilirler; lakin iyi kötü aramıza karışmaya itü vakfı dergisi 19

İNSANLAŞAN MAKİNALAR - YAPAY ZEKÂ başlayan, kendi kararlarını veren yapay zekâların idare ettiği makine bedenlerin ahlâklarını nasıl programlayacağımız önemli bir soru işaretidir. Zira bir şekilde öğrenebilen, tamamen kendi iradesiyle karar alabilen -ve hareket ederek gündelik yaşamda yolu bizimle kesişen- bir yapay zekâ yapacaksanız, onun kritik kararları nasıl vereceği üzerine de kafa yormanız, ona bir de yapay ahlâk entegre etmeniz gerekiyor. Hele ki bu kritik kararlar insan hayatıyla da ilgiliyse. Bilimkurgu eserleriyle tanıdığımız Asimov, meşhur robot yasalarında bir robotun bir insana asla zarar veremeyeceği, bir insanın zarar görmesine asla seyirci kalamayacağı gibi yasalarla insan robot ilişkisinin bir temelini oluşturmuştu. Pek güzel… Bu tür bir programlama ile robotların insan yaşamını ilgilendiren kararlarını iyi kötü düzenleyebiliriz gibi görünüyor. Tabii robota “insanın zarar görmesi” konusunu gerçekten iyi anlatabilmiş isek, zira aslında robota bir şey anlatmayız: Onun anlaması için, doğayı matematiğe çeviririz. Ve çevresinde olan bitenleri tıpkı bizim gibi algılayıp yorumlamasa bile, en azından bu matematiğe dayanarak alacağı kararların bizim kararlarımıza benzemesini isteriz. Şu halde az önceki soruyu bir yapay zekâya sorsak, onun da insanların çoğunluğuyla aynı kararı vermesini bekler ve dört kişiyi kurtarmasını bekleyeceğimizi söyleyebiliriz. Teorik konuşmayı bırakıp pratiğe dönelim: Bugünlerde test amacıyla insanoğlu arasına karışan, yakında sayıca çok daha fazlasını caddelerde görmeye başlayacağımız bir robot var: Google Car. Google’ın geliştirdiği bu otonom aracın bir aracın kaza riski ile karşı karşıya kaldığında ne yapacağı problemi sadece teknik içerikli bir problem değildir, çünkü kazanın niteliğine göre aynı zamanda çok ciddi bir ahlâki problemi de ihtiva eder. Direğe çarpma ya da tek bir arabayla hafif bir çarpışma olasılığı halinde neye nasıl karar vereceği ahlakçıları ilgilendirmiyor ancak öyle bir senaryo düşünün ki, Google Car, Foot’un sorusundaki gibi bir ikilemde kalsın ve sağa kırarsa tek, hiçbir şey yapmazsa dört kişinin öleceği bir pozisyonda karar versin… Otonom aracın ne yapmasını istersiniz? Gerçekten de yolunu değiştirip, aslında zaten çarpacağı dört kişiden vazgeçip, 20 itü vakfı dergisi Google'ın geliştirdiği otonom araç. Bugünlerde test amacıyla insanoğlu arasına karışan, yakında sayıca çok daha fazlasını caddelerde görmeye başlayacağımız bir robot var: Google Car. Google’ın geliştirdiği bu otonom aracın bir aracın kaza riski ile karşı karşıya kaldığında ne yapacağı problemi sadece teknik içerikli bir problem değildir, çünkü kazanın niteliğine göre aynı zamanda çok ciddi bir ahlâki problemi de ihtiva eder. kaldırımdan yürüyen masum bir yayayı ezmesini mi? Fakat biz olsak öyle yapabilirdik! Bunu bir makinenin yaptığını düşünmek de aynı derecede normal mi geliyor, yoksa hafiften mide bulandırıcı mı? Eğer sonuççu ahlâk egemen olacaksa ve bunun karar vermek için doğru bir ölçüt olduğuna inanıyorsak, kendimize ve robotlara karşı çifte standart uygulamamız gerekir. Ancak bunun da sosyal hayata etkileri olacaktır: Otonom araçlar ortalarda vızır vızır dolanırken, “Yalnız gezmek riskli… Kalabalık olmak lazım” demek hiç de abes olmaz. Belli mi olur? Bir kaza halinde yalnızlar resmen topun ağzındalar. Hem öyle bir durumda araca kalabalık binmek de daima emniyeti artırıcı bir unsur olurdu. Bir de işin sorumluluk kısmı var: Size ait bir otonom araç bir arıza dolayısıyla kötü bir karar verirse sorumluluk kime ait olacak? Bakımlarını zamanında yaptırmadıysak, katil sayılacak mıyız? Birbirimize “siz aracınıza böyle mi terbiye verdiniz!” diye bağırıp çağıracak mıyız? Elbette bir kısmı oldukça spekülatif ve abartılmış olan bu sorulardan daha pek çok türetilebilir. Komik dahi olsa, her bir soruya karşılık başarılı bir ahlâki algoritma üretilerek, çoğunluğu tatmin edebilecek davranış örüntüleri de geliştirilebilir. Esasında, en azından kaza istatistiklerine dayanarak, endişeye pek mahal olmayacağını da söyleyebilirim, zira otonom araçlar insanlardan çok daha az kaza yaptıkları ispatlanmadıkça caddelerdeki yerlerini almayacaklar. Bana sorarsanız her durumda araçları insanların kullanmasından daha iyi sonuç alınacaktır. Tekillik riskine karşı da işte tam da bu yüzden savunmasızız.

MEDYATABLET 2017 OCAK
Kobilife Mart 2018
23 Mart 2017