Kaplan ve İki Kampçı

[English]

Günlük hayatta sık sık yapılan bir mantık hatasını bir fıkra üzerinden inceleyeceğiz. Fıkra, iki kampçının korkutucu bir hayvan (genelde bir aslan ya da kaplan, bazen de bir ayı) ile karşılaşması ile başlıyor. Bu fıkranın internette bulabildiğim tek yazılı versiyonu burada. Eski bir HTTP sitesi olduğu için sizin tıklamanıza gerek kalmasın diye orada yazanın Türkçe çevirisini buraya koyuyorum:

İki adam ormanda geziniyor. Aniden, uzakta onlara doğru koşan bir kaplan görüyorlar. Dönüp kaçmaya başlıyorlar. Biraz sonra biri duruyor, çantasından koşu ayakkabılarını çıkarıyor ve giymeye başlıyor. Diğeri, “Ne yapıyorsun, o ayakkabılarla kaplandan daha hızlı koşabileceğini mi sanıyorsun?” diye soruyor. “Kaplandan daha hızlı koşmama gerek yok,” diyor öbürü. “Senden daha hızlı koşmam yeter.”

Uyanık kampçının davranışının etik olup olmadığı tartışmasına bu yazıda girmeyeceğim. Bana bu yazıyı yazma fikrini veren gözlemim, insanların bu fıkranın gerçek hayatta karşımıza çıktığı durumlarda gerçek hayattaki kişiler/durumlar ve fıkradaki karakterler arasındaki eşleştirmeyi yanlış yapıyor olmaları. Aşağıdaki tabloyu inceleyelim:

Kaplanın hızı Uyanık kampçının hızı Diğer kampçının hızı
Yanlış eşleştirme ulaşmak zorundasın yeni/önerilen durum/çözüm [göz ardı ediliyor]
Doğru eşleştirme kusursuz, ulaşılması imkansız/çok zor olan durum yeni/önerilen durum/çözüm şu anki durum/çözüm

Kaplan ve iki kampçı fıkrası sayesinde anlıyoruz ki, yeni fikirlerin faydalı olabilmesi için mükemmel olmalarına gerek yok. Çoğu durumda, yerini almak istediklerinden daha iyi olmaları yeterli. Şimdi gerçek hayattan bazı örneklere geçelim.

Örnek Durumlar

Bu örneklerin hepsi kendi hayatımdan, yaşanmış örnekler.

Aşılar varken Covid-19 ölümleri

X kişisi: “Bunca aşıya rağmen Covid-19 nedeniyle birçok ölüm yaşandı. Peki o zaman aşıların ne anlamı vardı?”

Y kişisi: “Aşıların bütün sorunlarımızı çözmesi ve herkesi kurtarması zaten beklenen bir durum değil [kaplandan daha hızlı koşmak]. Aşılar olmasaydı çok daha fazla insan hayatını kaybedecekti [koşu ayakkabılarını giymemek].”

ChatGPT’nin ve DuckDuckGo’nun doğru yanıt oranları

X kişisi: “ChatGPT bazen bana yanlış cevaplar veriyor. Neden kullanayım ki?”

Y kişisi: “DuckDuckGo (ya da Google) da bazen yanlış cevaplar veriyor. Bu nedenle kendimize, ChatGPT’nin DuckDuckGo’dan daha iyi olup olmadığını sormalıyız. Eğer daha iyiyse neden ChatGPT’ye geçmeyelim?”

Yapay zeka, insan doktorlara karşı

X kişisi: “Yapay zeka bazen yanlış teşhis koyuyor ya da bir şeyleri gözden kaçırıyor, bu yüzden ona güvenmemeliyiz. Yakın zamanda yayımlanmış bir çalışma bir yapay zeka modelinin $H$ hastalığından muzdarip insanların yüzde $p$‘sine yanlış teşhis koyduğunu gösterdi.”

Y kişisi: “Yapay zekanın şu anda koşulsuzca güvenilebilecek kadar iyi çalışmadığını kabul ediyorum. Ancak insanlar da yanlış teşhis koyabiliyor ya da hastalıkları gözden kaçırabiliyor. İnsanların $H$ hastalığı vakalarının yüzde kaçına yanlış teşhis koyduğunu biliyor musun?”

X kişisi: “Bilmiyorum.”

Y kişisi: “O zaman bir sonuca varamayız.”

Kriptopara ve ABD doları ile yapılan yasa dışı işlem oranları

X kişisi: “Bitcoin/ETH/vb. işlemlerinin yüzde $p$‘si yasa dışı faaliyetlerle bağlantılı. Ne kadar yanlış, değil mi? Bitcoin/ETH/vb.’ni yasaklamalıyız.”

Y kişisi: “Bitcoin’in yasa dışı işlem oranını iyi ya da kötü olarak nitelendirmeden önce EUR/USD/CNY için yasa dışı işlem oranı ile karşılaştırmalıyız. Bu oranı biliyor musun?”

X kişisi: “Hayır.”

Y kişisi: “O zaman bir sonuca varamayız.”

Enerji tüketimi: Blokzincir ve geleneksel finans

X kişisi: “Bitcoin/Ethereum çok fazla enerji tüketiyor. Bu saçmalık değil mi? Bitcoin’i/Ethereum’u yasaklamalıyız.”

Y kişisi: “Bitcoin ağı gerçekten de çok (ama çok) fazla enerji tüketiyor (ve israf ediyor). Yalnız adil bir karşılaştırma yapabilmek için tamamlamaya/yerine geçmeye çalıştığı endüstrilerin enerji tüketimini de bilmeliyiz (muhtemelen ölçmesi/tahmin etmesi çok zor). Bu sayıyı biliyor musun?”

X kişisi: “Hayır.”

Y kişisi: “O zaman bir sonuca varamayız.” [Not: Ethereum’un Merge‘ine bir göz atın, Ethereum ağının enerji tüketimini ciddi ölçüde azalttığını görecekseniz.]

Gizliliği arttırıcı araçları kullanma

X kişisi: “Tabii ki Signal kullanabilir ve Google Arama’dan kaçınabilirim ama yine de başka yöntemlerle takip edilmeye devam edeceğim. O zaman Signal kullanmanın ve Google Arama’dan kaçınmanın ne anlamı var?”

Y kişisi: “Hayatında yaptığın değişikliklerin bir anlamı olması için tam gizliliğe ulaşmak zorunda değilsin.”

ChatGPT!

Bu konuda ChatGPT’nin de görüşünü almak istedim. Meğersem nirvana yanılgısı diye bir yanılgı varmış, bu yazıda vermek istediğim mesajı çok güzel özetliyormuş:

Ben: Let’s say that an artificial intelligence-based program was invented that can make diagnoses by scanning MRI scans, which is what radiologists do. This program has a higher accuracy rate than humans, but it is not perfect. It sometimes issues wrong diagnoses. However, the fact that it has a higher accuracy than humans leads it to replace many radiologists. If someone argues that this program should not be used because it occasionally makes mistakes, would they be committing a fallacy? If yes, what is the name of this fallacy?

ChatGPT: Yes, if someone argues against using the AI-based program solely based on the fact that it occasionally makes mistakes despite having a higher accuracy rate than humans, they would be committing a fallacy. The fallacy at play here is known as the fallacy of perfection or the nirvana fallacy.

The fallacy of perfection occurs when someone rejects a proposed solution or course of action because it is not flawless or does not meet an unattainable standard of perfection. In this case, the argument against using the AI program is based on the premise that it occasionally makes mistakes, disregarding the fact that it still outperforms human radiologists in terms of accuracy.

While the program may not be infallible, its higher accuracy rate suggests that it can contribute significantly to diagnosing medical conditions more reliably than human radiologists. By focusing on the occasional mistakes while ignoring the overall improved performance compared to humans, the person committing the fallacy is failing to recognize the value and benefits provided by the AI program.

It’s essential to evaluate technological advancements and interventions based on their overall effectiveness and benefits, considering their potential to improve outcomes, even if they are not perfect or free from occasional errors.