Mert: Otonom bir araç, kaza anında bir seçim yapmak zorunda kalırsa, kime öncelik vermeli? İçindeki yolcuya mı, yoksa yoldaki bir grup yayaya mı?
Suna: Bu, yapay zeka etiğinin en klasik ve zor sorularından biri. Buna "tramvay problemi" deniyor. Bu kararı programlayan mühendisin değer yargıları, bir anlamda makinenin ahlakını belirliyor.
Mert: Daha da endişe verici olan, yapay zekanın eğitildiği verilerdeki önyargıları öğrenmesi ve pekiştirmesi. Örneğin, işe alım algoritmalarının belirli bir cinsiyete veya ırka karşı ayrımcılık yaptığı ortaya çıktı.
Suna: Evet, bu çok büyük bir risk. Algoritmaların şeffaf ve denetlenebilir olması gerekiyor. Bir yapay zekanın belirli bir kararı neden verdiğini anlayabilmeliyiz. "Kara kutu" olarak kalmamalılar.
Mert: Sonuç olarak, yapay zeka geliştikçe, sadece teknik değil, felsefi ve ahlaki sorularla da daha fazla yüzleşmek zorunda kalacağız.