Ana Sayfa Yazı Aristo Bilgisayarı Nasıl İcat Etti

Aristo Bilgisayarı Nasıl İcat Etti

PAYLAŞ

Bilgisayarların tarihi, abaküsten başlayarak İkinci Dünya Savaşının şifre kırıcı makinelerine ve ardından Babbage makinesine uzanarak, genellikle bir objeler tarihi olarak anlatılır. Aslına bakarsanız onu, çoğunlukla 19. yüzyılda gelişen müphem ve kült benzeri bir disiplin olan matematiksel mantıktan ortaya çıkan fikirlerin bir tarihi olarak anlamak daha kolaydır. Matemetiksel mantık alanında, en önemlileri George Boole ve Gottlob Frege olan felsefeci-matematikçiler öncülük etmişlerdir ki onlar da Leibniz’in evrensel “kavram dili” rüyasından ve Aristo’nun antik mantık sisteminden ilham almışlardır.

Matematiksel mantık önceleri, akla uygun uygulamaları bulunmayan, umutsuz derecede soyut bir kavram olarak değerlendirilmiştir. Bir bilgisayar uzmanının bir yorumda yazdığı gibi: “Eğer 1901 yılında yetenekli ve anlayışlı biri dışarıdan getirilip, bilimleri inceleyerek önümüzdeki yüzyılda en az meyve verecek bilimi tespit etmesi talep edilse, tercihi pekâlâ matematiksel mantıktan yana olabilirdi.” Yine de matematiksel mantık, modern dünyaya başka her şeyden daha büyük etki gösteren bir alanın temelini sağlamaktadır.

Matematiksel mantıktan bilgisayar biliminin evrilmesi süreci 1930’larda iki adet dönüm noktası niteliğinde makale ile zirve yapmıştır. Claude Shannon’un “A Symbolic Analysis of Switching and Relay Circuits – Anahtarlama ve Röle Devrelerinin Sembolik Bir Analizi” ve Alan Turing’in “On Computable Numbers, With an Application to the Entscheidungsproblem – Saptama Problemi Hakkında Bir Uygulamayla Birlikte Hesaplanabilir Sayılar”. Shannon ve Turing bilgisayar bilimleri tarihindeki devasa iki şahsiyettir fakat onlardan önce gelen felsefeci ve mantıkçıların önemi sıklıkla görmezden gelinmektedir.

Bilgisayar bilimleri üzerine iyi bilinen bir tarihçede Shannon’un makalesi “muhtemelen yüzyılın en önemli ve ayrıca en tanınmış yüksek lisans tezi” olarak tanımlanmıştır. Shannon bu makaleyi MIT’deki bir elektrik mühendisliği öğrencisi iken yazmıştır. Danışmanı Vannevar Bush hızlı diferansiyel hesaplar yapabilen Differential Analyzer – Diferansiyel Analizci adlı bir prototip bilgisayar inşa etmiştir. Cihaz büyük oranda mekanikti ve o dönemde henüz devre tasarımına zemin oluşturan sistematik bir teori bulunmadığı için doğaçlama (plansız) bir biçimde organize edilen elektrik röleleri ile idare edilen alt sistemleri bulunuyordu. Bush bu tip bir teori keşfetmesini tavsiye ettiğinde Shannon’un tez konusu ortaya çıkmıştı.

“Matematik, neyden bahsettiğimiz hakkında asla bir fikrimizin olmadığı konu olarak tanımlanabilir.”

Shannon’un makalesi birçok açıdan, denklemler ve elektrik devresi tasarımlarıyla dolu olan tipik bir elektrik mühendisliği makalesiydi. Sıradışı olan şuydu ki makaledeki başlıca referans, George Boole’nin “The Laws of Thought – Düşünce Kanunları” adlı 90 yıllık matematiksel felsefe çalışmasıydı.

Günümüzde Boole ismi bilgisayar uzmanlarınca iyi bilinmektedir (birçok programlama dilinde Boolean adlı temel veri tipi kullanılır), fakat 1938 yılında felsefe bölümleri haricinde nadiren okunurdu. Shannon’un kendisi de Boole’nin ismini bir önlisans felsefe dersinde duymuştu. Daha sonra yaptığı bir açıklamada Shannon, “tesadüf eseri bu alanların ikisiyle birden ilgilenen başka kimse yoktu” demiştir.

Boole sıklıkla bir matematikçi olarak anılır fakat o kendini Aristo’nun ayak izlerini takip eden bir filozof olarak görüyordu. The Laws of Thought adlı eserine hedeflerini tarif ederek başlar. Hedefi, insan zekâsının işleyişindeki temel kanunları keşfetmektir:

“Aşağıdaki ilmi inceleme, insan zekasının düşünme eylemini icra ettiği sırada gerçekleştirdiği zihinsel işlemlerdeki temel kanunları keşfetmek; onları Calculus gibi sembolik bir dil ile anlamlandırmak ve bu temel üzerine Mantık bilimini kurmak üzere tasarlanmıştır … ve son olarak, insan zihninin doğası ve tıyneti üzerine bazı muhtemel çıkarımları derlemek için.”

Ardından, mantığın mucidi ve kendi çalışmasının başlıca ilham kaynağı olan Aristo’ya şükranlarını sunar.

“Gerçekten de antik ve skolastik biçimi ile mantık konusu adeta yalnızca büyük şahsiyet Aristo ismine münhasır olarak varlık gösterir. Yer yer teknik yer yer metafiziksel tetkikler içeren The Organon adlı eser şeklinde antik Yunan’a takdim edildiği haliyle, neredeyse hiç esaslı değişime uğramadan günümüze kadar geçerli kalmıştır.”

Aristo’nun mantık çalışmalarını iyileştirmeye kalkışmak, entelektüel olarak zorlu bir girişimdi. Aristo’nun altı bölümlük The Organon adlı kitabında anlatılan mantığı 2 bin yıldan uzun bir süre boyunca, ilmi kaynaklar listesinde merkezi bir konumda yer almıştır. Konu üzerine söylenebilecek her şeyin Aristo tarafından söylenmiş olduğuna dair yaygın bir kanı bulunuyordu. Büyük filozof Immanuel Kant, Aristo’dan bu yana mantık ilminin “tek bir ileri adım dahi atamadığı ve dolayısıyla nereden bakarsak bakalım onun tamamlanmış ve eksiksiz olduğu” açıklamasını yapmıştı.

Aristo’nun merkezi gözlemi şuydu ki bir argümanın (savın) geçerliliğini belirleyen şey, onun mantıksal yapısıydı; kullanılan mantıksal olmayan kelimelerden bağımsız bir biçimde. İrdelediği en meşhur argüman taslağı, uslamlama (kıyas) adıyla bilinmektedir.

  • Tüm insanlar fanidir.
  • Sokrat bir insandır.
  • Öyleyse, Sokrat fanidir.

“Sokrat” kelimesini başka bir nesne ile ve “fani” kelimesini başka bir koşul ile değiştirseniz dahi argümanın geçerliliği korunacaktır. Argümanın doğruluğunu tayin eden tek şey mantıksal yapıdır. “Tüm”, “olmak” ve “öyleyse” gib kelimeler bütün işi hallediyorlar.

Aristo ayrıca, mantık sisteminin kalanını türetirken istifade ettiği bir dizi temel aksiyom da tanımlamıştır.

  • Bir nesne ne ise odur (Kimlik kanunu)
  • Hiçbir önerme hem doğru hem yanlış olamaz (Çelişmezlik kanunu)
  • Her bir önerme ya doğru yahut yanlıştır (Üçüncünün olmazlığı kanunu)

Bu aksiyomlar insanların nasıl düşündüklerini izah etmek amacını taşımıyorlardı (bu, psikolojinin ilgi alanıdır). Onlar, idealize edilmiş, mükemmel bir biçimde rasyonel (akılcı) bir insanın nasıl düşünmesi gerektiğini tarif ediyordu.

Aristo’nun aksiyoma dayalı yöntemi daha da ünlü bir başka kitaba da ilham vermiştir; İncil’den sonra en fazla sayıda nüshası basılan kitap olduğu tahmin edilen Öklid’in Elements – Elementler adlı kitabına.

Görünüşte geometri ile alakalı olsa da Elementler kitabı sıkı tümdengelimli muhakeme eğitimleri için standart ders kitabı haline gelmiştir. (Abraham Lincoln bir zamanlar düzgün biçimde hukuki muhakeme yapmayı Öklid çalışarak öğrendiğini söylemiştir.) Öklid sisteminde geometrik fikirler, uzaysal çizimler olarak ifade edilmişti. René Descartes 1630’lu yıllarda geometrinin çizimler yerine formüller ile ifade edilebileceğini gösterene kadar geometri uygulamaları çizimlerle yapıldı. Discourse on Method – Yöntem Üzerine adlı eseri, halihazırda kullanılan standart cebir notasyonunu yani değişkenler için x, y, z ve bilinen değerler için a, b, c kullanmaya dayalı sembolle gösterim sistemini meşhur eden Batı’daki ilk metindi.

Descartes cebiri sayesinde matematikçiler uzaysal (mekânsal) içgüdüleri aşarak kesin bir biçimde tanımlanmış yapısal kurallara bağlı semboller üzerinde çalışmaya başlayabildiler. Bu, baskın matematik yöntemini çizimlerden formüllere dönüştürdü ve diğer başka şeylerin yanı sıra, Descartes’tan kabaca 30 yıl sonra birbirinden bağımsız biçimde Isaac Newton ve Gottfried Leibniz tarafından, Calculus’un icadına yol açtı.

Boole, Descartes’in Öklid geometrisi için yaptığı şeyi Aristo’nun mantığı için yapmayı hedefliyordu: kesin sınırları olan bir cebir notasyonu ortaya çıkararak cebiri insan içgüdülerinin sınırlarından azat etmeyi. Basit bir örnek olması için, Aristo şunu yazdığında:

Tüm insanlar fanidir.

Boole “insanlar” ve “fani” kelimelerinin yerine değişkenler; “tüm”, “olmak” gibi mantıksal kelimelerin yerine ise aritmetik işleçleri (operatörler) koydu.

x = x * y

Bu ifade şöyle yorumlanabilir: “x dizisindeki her şey ayrıca y dizisindedir”.

Düşünce Kanunları matematiksel mantık adlı yeni bir akademik alan ortaya çıkarmıştı. Bu alan ilerleyen yıllarda matematikçiler ve felsefeciler için en faal araştırma alanlarından biri haline gelecekti. Bertrand Russell Düşünce Kanunları için “saf matematiğin keşfedildiği çalışma” demiştir.

Shannon’un kavradığı şey, Boole sisteminin doğrudan doğruya elektrik devrelerine eşleştirilmesinin mümkün olduğuydu. O tarihlerde elektrik devrelerinin tasarımına yönelik sistematik bir teorem bulunmuyordu. Shannon doğru teoremin, “mantığın sembolik çalışmaları sırasında kullanılan önermeler hesabına birebir benzer” olması gerektiğini fark etti.

Boolean işlemler ile elektrik devrelerinin birbirlerine tekabül ettiklerini (karşılıklı uyduklarını) basit bir tablo ile gösterdi.

Bu karşılıklı uyum sayesinde bilgisayar uzmanları, Boole ve ardından gelen mantıkçıların mantık ve matematik alanındaki onlarca yıllık çalışmalarını kendi alanlarına aktarabildiler. Makalesinin ikinci yarısında Shannon, ikilik sistemdeki iki haneyi toplayabilen bir devre yapmak için Boolen mantığının ne şekilde kullanılabileceğini gösterdi.

Bu toplama yapan devreleri uç uca eklemek suretiyle istenen karmaşıklıkta aritmetik işlemler inşa edilebilirdi. Bu devreler zamanla günümüzde aritmetik mantık birimi olarak bilinen, modern bilgisayarların anahtar niteliğindeki bileşenlerinin temel yapı taşları halini alacaktır.

Shannon’un başarısında dikkat çeken bir diğer yan ise, bilgisayarların mantıksal ve fiziksel katmanları arasında ayrım yapan ilk kişinin o olmasıdır.  (Bu ayrım günümüz bilgisayar bilimi için o kadar temel niteliktedir ki çağdaş okuyucular bu fikrin o zamanlar ne kadar derin bir sezgiye dayandığını kavramakta güçlük yaşayabilirler. Akıllara “bir çağın felsefesi bir sonraki çağın genel kültür bilgisidir” veczini getiriyor.)

Shannon’un makalesinden günümüze bilgisayarların fiziksel katmanında devasa miktarda gelişmeler kaydedildi. 1947 yılında William Shockley ve Bell Laboratuvarları’ndaki iş arkadaşları tarafından transistörün icat edilmesi de bu gelişmelerden bir tanesidir. Transistör, Shannon’un elektrik rölesinin çarpıcı biçimde geliştirilmiş sürümüdür ve Boole işlemlerini fiziksel olarak kodlamak için bilinen en iyi yoldur. İlerleyen 70 yıl boyunca yarı iletken endüstrisi daha küçük alanlara gitgide artan sayıda transistör sıkıştırmaya devam etti. 2016 model bir iPhone, her biri Shannon’un çizimlerindeki “elektrik rölelerine” benzeyen yaklaşık 3.3 milyar transistöre sahiptir.

Mantığın fiziksel dünya ile nasıl eşleştirilebileceğini Shannon gösterirken, Turing ise matematiksel mantığın dili ile bilgisayar tasarlamanın yolunu gösterdi. Turing 1936 yılında makalesini yazdığında, ilk kez matematikçi David Hilbert tarafından tespit edilmiş olan “karar verme problemini” çözmeye çalışıyordu. Hilbert, rastgele bir matematiksel önermenin doğruluğunu sınayacak bir algoritmanın varlığını sorgulamıştı. Shannon’un makalesine kıyasla Turing’in makalesi oldukça tekniktir. Tarihi açıdan taşıdığı önem yalnızca karar verme problemine getirdiği cevap sebebiyle değil, ayrıca bunu yaparken bilgisayar tasarımı için bir şablon da sunmuş olmasından kaynaklanmaktadır.

Turing, Newton’dan bağımsız olarak yüksek matematiği icat eden felsefe devi Gottfried Leibniz’e kadar uzanan bir gelenek üzerine çalışıyordu. Leibniz’in moden düşünceye sunduğu sayısız katkının en ilginçlerinden bir tanesi “evrensel karakteristik ” adını verdiği bir dildi; muhtemel tüm matematiksel ve bilimsel bilgileri ifade edebilme kabiliyetine sahip olduğunu hayal ettiği bir dil. İlhamını kısmen 13. yüzyıl din filozofu Ramon Llull‘dan alan Leibniz bu dilin Mısır hiyeroglifleri gibi kavramsal simgelerden oluşan fakat karakterlerin matematik ve bilimin “atomik” kavramlarını temsil ettiği bir dil olacağı varsayımında bulunmuştu. Bu dilin, insan muhakemesi için teleskop ve mikroskop gibi “optik aletlerin sağladığından çok daha fazla ilerleme” sağlayabilecek bir “aleti” insanlığın hizmetine sunacağını iddia etmişti.

Kendisi ayrıca Calculus Ratiocinator adını verdiği, dil işleyebilen bir makine de hayal etmişti.

Çelişkilere rastlanması durumunda, iki muhasebeci arasında tartışma çıkması için ne kadar sebep varsa felsefeciler arasında tartışma çıkması için de o kadar sebep olacaktı. Çünkü kalemleri ellerine alıp birbirlerine şunu demeleri yeterli olacaktı: Calculemus! (Hadi hesaplayalım!).

Leibniz evrensel dilini veya buna tekabül eden makineyi geliştirme fırsatını bulamamıştır (fakat nispeten basit bir hesap makinesi olan adımlı hesaplayıcı adlı bir icadı bulunmaktadır). Leibniz’in rüyasını gerçeğe dönüştürmeye yönelik ilk muteber girişim 1879 yılında Gottlob Frege adlı Alman filozof tarafından Begriffsschrift adlı mantık üzerine dönüm noktası niteliğindeki ilmi çalışmanın yayınlanışı ile olmuştur. Boole’nin Aristo mantığını geliştirme girişiminden ilham alan Frege çok daha ileri bir mantık sistemi geliştirmiştir. Günümüzde felsefe ve bilgisayar bilimleri derslerinde anlatılan mantık (yani birinci derece mantık yahut yüklem mantığı) Frege sisteminin yalnızca ufak değişiklikler içeren bir halidir.

Frege’nin 19. yüzyıldaki en önemli filozoflardan biri olduğu yönünde genel bir kanı mevcuttur. Diğer başarılarının yanı sıra Frege, namlı filozof Richard Rorty’nin felsefede “dilbilimsel yöneliş” adını verdiği şey için katalizör görevi gören kişi olarak da bilinir. Aydınlanma felsefesi bilgi ile ilgili sorulara takıntılı olduğu için, Frege dil ile ilgili sorulara takıntılı hale geldi. Öğrencileri arasında 20. yüzyılın en önemli filozoflarından ikisi bulunuyordu: Bertrand Russell ve Ludwig Wittgenstein.

Frege’nin mantığındaki büyük yenilik, sıradan dilin mantıksal yapısını çok daha isabetli bir biçimde temsil edebiliyor oluşuydu. Diğer şeylerin yanı sıra Frege, nicelik sözcüklerini (“her biri için”, “bir … vardır”) ilk kullanan ve nesneler ile yüklemleri (müsnetleri) ilk kez ayıran kişiydi. Kendisi ayrıca özyineli fonksiyonlar, kapsamı ve bağlama özelliği olan değişkenler gibi günümüz bilgisayar bilimlerindeki temel bazı kavramları ilk kez geliştiren kişidir.

Frege’nin “kavram pusulası” adı verdiği şekilsel dil, iyi tanımlanmış kurallar tarafından idare edilen anlamsız sembollerden oluşuyordu. Bu dile yalnızca açıklama yolu ile anlam veriliyordu ki bu da ayrıca belirtiliyordu (bu ayrım ileride sözdizim – anlambilim ayrımı olarak bilinecektir). Bu durum mantığı, seçkin bilgisayar bilimcileri Alan Newell ve Herbert Simon’un “sembol oyunu” adını verdikleri “salt sözdizimsel belirli kurallara göre, anlamsız jetonlar ile oynanan” bir oyuna dönüştürdü.

Anlam tamamen ortadan kaldırılmıştı. Elimizde çeşitli şeyleri ispat etmeye yarayabilecek mekanik bir sistem vardı. Dolayısıyla ilk ilerlemeler, anlam ve insan sembolleri ile ilgili görünen her şeyden uzaklaşarak kaydedildi.

Bertrand Russell’in meşhur esprisinde dediği gibi: “Matematik, ne hakkında konuştuğumuzu yahut söylediklerimizin doğru olup olmadığını asla bilemediğimiz bilim dalı olarak tanımlanabilir.”

Frege’nin çalışmasının beklenmeyen sonuçlarından bir tanesi matematiğin temellerinde zayıflıkların keşfine yol açmasıydı. Örneğin, binlerce yıldır mantıki kesinlik açısından altın standart kabul edilen Öklid’in Elementler adlı eserinin mantık hataları ile dolu olduğu ortaya çıktı. Öklid “doğru” ve “nokta” gibi sıradan kelimeler kullandığı için kendisi ve yüzlerce yıldır onu okuyanlar bu kelimeleri içeren cümleler ile ilgili varsayımlar yapma gafletine düştüler. Basit bir örnek olması açısından, günlük kullanımda “doğru” kelimesinden şu anlaşılır: Eğer bir doğru üzerinde üç nokta bulunuyorsa, bunlardan biri diğer ikisinin arasında olmalıdır.  Fakat yapısal mantık kullanılarak “doğru” tanımlandığı takdirde “arada olma durumunun” da ayrıca tanımlanması gerektiği ortaya çıkar. Bu Öklid’in görmezden geldiği bir konudur. Yapısal mantık bu tip boşlukların tespit edilmesini kolay hale getirir.

Bu kavrayış sebebiyle matematiğin köklerinde bir kriz ortaya çıktı. Matematiğin İncil’i Elementler’de mantık hataları bulunduğuna göre, acaba matematiğin hangi diğer alanlarında hatalar vardı? Peki ya matematiğin üzerine inşa edilmiş olan fizik gibi bilimler?

İyi haber şu ki bu hataları keşfetmekte kullanılan mantıksal yöntemler, onları düzeltmek için de kullanılabilir. Matematikçiler matematiğin temellerini baştan aşağı yeniden inşa etmeye giriştiler. 1889 yılında Giuseppe Peano aritmetik için aksiyomlar geliştirdi. Ardından1899 yılında David Hilbert aynı şeyi geometri için yaptı. Hilbert ayrıca matematiğin geri kalanını yapısal mantığa uygun hale getirecek bir programın ana hatlarını belirledi. Bu tip bir girişimin hangi gereksinimleri karşılaması gerektiğini açıkça belirtmişti:

  • Bütünlük: Yapısal bir sistem içinde tüm gerçek matematiksel önermeleri ispatlayan kanıtlar olmalıdır.
  • Karar verilebilirlik: Herhangi bir matematiksel önermenin doğruluğunu yahut yanlışlığını ortaya çıkaracak bir algoritma olmalıdır. (Turing’in makalesinde bahsi geçen Entscheidungsproblem veya “karar verme problemi”).

Bu gereksinimleri karşılayacak şekilde matematiğin yeniden inşasına Hilbert programı adı verildi. Hilbert, Russell, Kurt Gödel, John Von Neumann, Alonzo Church ve tabii ki Alan Turing’in dahil olduğu çekirdek bir mantık ekibinin 1930’lu yıllar boyunca odaklandığı şey buydu.

“Bilimde yenilikler, yalnızca zorlukla ortaya çıkarlar.”

Hilbert programı en azından iki cephede ilerledi. İlk cephede mantıkçılar Hilbert’in gereksinimlerinin karşılanıp karşılanamayacağını ispatlamayı deneyen mantık sistemleri oluşturdular.

İkinci cephede matematikçiler klasik matematiği yeniden inşa etmek için mantıksal kavramlar kullandılar. Örneğin Peano’nun aritmetik sistemi, herhangi bir sayıya bir ekleyen, takipçi fonksiyonu adlı basit bir fonksiyon ile başlar. Takipçi fonksiyonunu yineleyen bir biçimde kullanarak toplamayı, toplamayı yineleyen bir biçimde kullanarak çarpmayı tanımlar ve bu şekilde devam ederek sayı teorisindeki tüm işlemlerin tanımını yapar. Ardından bu tanımları ve yapısal mantığı kullanarak aritmetik hakkındaki teoremleri ispatlar.

Tarihçi Thomas Kuhn bir zamanlar “bilimde yeniliklerin yalnızca zorlukla ortaya çıktıkları” gözlemini yapmıştı. Hilbert programı süresince mantık, üretim ve yıkıma sahne olan fırtınalı bir süreçti. Mantıkçılardan bir tanesi özenerek detaylı bir sistem hazırlarken, bir diğeri çıkıp onu yıkıyordu.

Yıkımda kullanmak için en çok yeğlenen araç, kendi kendine gönderme yapan paradoksal ifadeler yardımıyla, bunların türetilmesinde kullanılan aksiyomların tutarsız olduğunu göstermekti. Bunun basit bir halini “yalancı paradoksu” adlı şu cümlede görüyoruz:

Bu cümle yanlıştır.

Cümle eğer doğru ise yanlıştır ve eğer yanlış ise doğrudur ve bu şekilde sonu gelmez bir kendi kendiyle çelişme döngüsüne girmektedir.

Yalancı paradoksunun matematiksel mantıktaki ilk dikkat çekici kullanımı Russell ile olmuştur.  Russell, Frege’nin sisteminin kendi kendiyle çelişen diziler türetmeye olanak verdiğini göstermiştir.

R kendilerini içermeyen tüm dizilerin dizisi olsun. Eğer R kendinin üyesi değilse, öyleyse tanımı gereği kendi kendisini içermesi gerekmektedir ve eğer kendi kendisini içeriyorsa o halde kendilerini içermeyen tüm dizilerin dizisi şeklindeki tanıma uymuyor demektir.

Russell paradoksu olarak adlandırılan bu durum, Frege’nin başarılarındaki ciddi bir kusur olarak değerlendiriliyordu. Frege’nin kendisi de bu keşif sebebiyle şoktaydı. Russell’a şöyle cevap verdi: “Bu tutarsızlığı keşfetmeniz benim için çok büyük bir sürpriz oldu ve hatta neredeyse afalladım diyeceğim çünkü bu gelişme, üzerine kendi aritmetiğimi inşa etmek istediğim temeli sarstı.”

Russell ve meslektaşı Alfred North Whitehead 1910 ve 1913 yılları arasında üç cilt olarak yayınlanan Principia Mathematica ile Hilbert’in programını tamamlamak üzere epey iddialı bir girişim başlattılar. Principia’nın yöntemi o kadar detaylıydı ki 1+1=2 denkleminin ispatına gelene kadar 300’den fazla sayfa geçmişti.

Russell ve Whitehead, Frege paradoksunu tür teorisi adlı yenilik ile çözmeyi denediler. Bu fikir yapısal dilleri çoklu katmanlara veya türlere parçalamaya dayanıyordu. Her bir seviye kendinden alttaki seviyelere gönderme yapabiliyordu fakat kendi seviyesine veya üst katmanlara aynı şeyi yapamıyordu. Uygulamada, kendine referans yasaklanarak, kendine gönderme yapan paradoks problemi çözülmüştü. (Bu çözüm mantıkçılar arasında pek popüler değildi fakat bilgisayar bilimine katkıları oldu. Modern bilgisayar dillerinin çoğu tür teorisinden ilham almıştır.)

Kendi kendine referans veren paradokslar nihayetinde Hilbert programının asla başarılı olamayacağını gösterdi. İlk darbe 1931 yılında, Gödel şimdi meşhur olan eksiklik teorisini yayınladığında geldi. Bu teori şunu gösterdi ki aritmetik içerecek kadar güçlü herhangi bir tutarlı mantık sistemi aynı zamanda, doğru olan fakat doğruluğu ispat edilemeyen ifadeler de içermek zorundaydı. (Gödel, Escher, Bach ve The Emperor’s New Mind gibi kitaplar sayesinde Gödel’in eksiklik teorisi, yaygın rağbet gören nadir mantıksal sonuçlardan biri haline gelmiştir.).

Son darbe ise rastgele bir matematiksel önermenin doğru veya yanlışlığını belirleyen bir algoritmanın var olamayacağını Turing ve Alonzo Church birbirlerinden bağımsız bir biçimde ispat ettiklerinde geldi. (Church bunu, daha sonraları Lisp gibi bilgisayar dillerine ilham olacak olan lambda calculus adlı tamamen değişik bir sistem icat ederek başarmıştır.) Karar verme probleminin cevabı negatifti.

Turing’in anahtar niteliğindeki sezgisi 1936 yılında yayınlanan “On Computable Numbers, With an Application to the Entscheidungsproblem” adlı meşhur makalesinin ilk bölümünde bulunmaktadır. Karar verme problemini (Entscheidungsproblem) kesin bir biçimde formüle dökmek amacıyla Turing öncelikle bilgisayar olmanın ne anlama geldiğine dair matematiksel bir model geliştirmiştir (günümüzde bu modele uyan makineler “evrensel Turing makineleri” olarak bilinmektedirler). Mantıkçı Martin Davis’in anlatımı ile:

Turing, tipik bir algoritmanın yemek kitabından alınmış bir tarif gibi, insanın kesin mekanik bir usulde takip edebileceği bir kurallar listesi ile belirlendiğini biliyordu. İşlemin nihai sonucunu değiştirmeksizin, bu insanın ziyadesiyle basit birkaç temel işlem ile sınırlandırılmasının mümkün olduğunu göstermeyi başardı.

Ardından, yalnızca bu temel işleri yapabilen hiçbir makinenin belirli şartlar altında Frege kurallarını takip ederek belirli bir sonucun elde edilip edilemeyeceğini tespit edemeyeceğini ispat ederek Turing, Entscheidungsproblem için bir algoritma bulunmadığı sonucuna varmayı başardı.

Yan bir ürün olarak Turing, çok amaçlı bir hesaplama makinesi için matematiksel bir model buldu.

Ardından bilgisayarın idare ettiği bilginin yanında bir bilgisayar programının da saklanabileceğini gösterdi. Günümüz diliyle konuşacak olursak, modern bilgisayarların büyük kısmının altında yatan “kayıtlı (kurulu) program” mimarisini icat ettiği söylenebilir.

Turing’den önce bu tip makinelerle ilgili olarak, üç kategorinin (yani makine, program ve verinin) birbirinden tamamen ayrı şeyler oldukları yönünde genel bir varsayım bulunuyordu. Makine, günümüzde donanım adını verdiğimiz fiziksel bir nesneydi. Program, bir hesaplama yapmak için gereken plandı. Bu program belki delikli kartlara yahut anahtar kumanda tablosu üzerindeki kablo bağlantılarına yüklenmişti.  Son olarak veri, rakamsal girdilerdi. Turing’in evrensel makinesi bu tip üçlü bir ayrımın bir illüzyondan ibaret olduğunu göstermiş oldu.

Donanıma kodlanabilen (işlenebilen) herhangi bir hesaplama mantığının aynı zamanda yazılıma da kodlanabileceğini gösteren ilk titiz çalışma buydu. Turing’in tarif ettiği mimari daha sonraları “Von Neuman mimarisi” olarak adlandırılmıştır fakat modern tarihçiler genel olarak bunun Turing’den geldiği konusunda aynı görüşü paylaşıyorlar. Görünen o ki Von Neumann’ın bizzat kendisi de böyle düşünüyor.

Teknik düzeyde Hilbert programı başarısızlığa uğramış olsa da yol boyunca sarf edilen çabalar mantık kullanılarak epey geniş matematiksel alanlar inşa edilebileceğini göstermiş oldu. Ayrıca Shannon ve Turing’in sezgileri sayesinde (elektronik, mantık ve hesaplama arasındaki bağlantıları ortaya sermek), artık bu yeni kavramsal mekanizmayı bilgisayar tasarımına aktarmak mümkün hale gelmişti.

İkinci Dünya Savaşı sırasında devlet laboratuvarları bir dizi seçkin mantıkçıyı askere aldığında, bunca teorik çalışma işe koyulmuş oldu. Von Neumann Los Alamos’taki atom bombası projesine dâhil olarak fizik araştırmalarına destek olmak amacıyla bilgisayar tasarımı üzerinde çalıştı. 1945 yılında, yazılım yüklü ve mantık temelli ilk bilgisayar olan EDVAC’ın teknik şartnamesini yazdı. Bu teknik şartname modern bilgisayar tasarımı için tanımlayıcı kaynak rehber olarak genel kabul görmektedir.

Turing Londra’nın kuzeybatısındaki Bletchley Park’taki gizli bir ekibe katılarak Alman şifrelerinin kırılmasında etkili olan bilgisayarların tasarlanmasına yardımcı oldu. Bilgisayar tasarımının tatbikine Turing’in sunduğu en kalıcı katkı, hazırladığı ACE yani Automatic Computing Engine adlı teknik şartnamedir (spesifikasyon).

Boole mantığı tabanlı ve yazılım yüklü mimariye sahip ilk bilgisayarlar olarak ACE ve EDVAC birçok benzerliğe sahiptiler. Fakat aynı zamanda aralarında ilginç farklar da bulunuyordu. Bu farkların bazıları bilgisayar tasarımındaki modern münazaraların (fikir ayrılıklarının) ön habercisiydiler. Von Neumann, donanım içine zengin işlevsellik gömen günümüzün CISC (“karmaşık”) işlemcilerine benzer tasarımları yeğliyordu. Turing’in tasarımı ise daha çok, donanımı mümkün olduğunca az karmaşık hale getirip daha fazla işi yazılımın üstüne yıkan modern RISC (“indirgenmiş”) işlemcilere benziyordu.

Von Neuman bilgisayar programcılığının can sıkıcı bir sekreterya işi olacağını düşünüyordu. Buna kıyasla Turing ise bilgisayar programcılığının “çok ilgi çekici olacağını tahmin ettiğini” söylemiştir. “(Yazılım işinin) günün birinde can sıkıcı hale gelme tehlikesi arz etmesine gerek yoktur çünkü gerçekten mekanik olan herhangi bir süreci makinenin kendisine devredebiliriz.”

1940 yılından bu yana bilgisayar programcılığı dikkat çekici bir biçimde daha karmaşık hale geldi. Değişmeyen bir şey var ki, bilgisayar programcılığı halen büyük oranda bilgisayarların izleyeceği kurallar belirleyen yazılımcılardan oluşuyor. Felsefi terimler kullanacak olursak bilgisayar programcılığının, yapısal kurallara göre sembolleri idare (manipüle) etmekle iştigal eden yukarıda değindiğimiz tümdengelimli mantık geleneğini takip ettiğini söyleyebiliriz.

Makinelerin istatistiki çıkarımlar yaparak öğrenmelerini sağlamak üzere çerçeveler oluşturmaya dayanan makine öğreniminin popülerliğinin geçtiğimiz on yıl içinde artmasına bağlı olarak bilgisayar programcılığı değişime uğramaya başladı. Bu durum programcılığı mantığın diğer ana dalı olan tümevarımlı mantığa bir adım yaklaştırdı.

Günümüzün en umut vaat eden makine öğrenim teknikleri nöral ağlardan istifade ediyor. Nöral ağlar ilk kez 1940’lı yıllarda Warren McCulloch ve Walter Pitts tarafından icat edilmiştir. McCulloch ve Pitts, Boole mantığı gibi, bilgisayar devreleri oluşturmak için istifade edilebilecek olan bir sinir hücresi ağı kalkulusu geliştirmek fikri ile yola çıkmıştılar. Nöral ağlar onlarca yıl boyunca ancak küçük bir azınlığın zihninde varlığını sürdürdüler fakat ardından istatistiksel tekniklerle birleştirildiler ve bu sayede daha fazla veri ile beslenerek gelişim gösterdiler. Bilgisayarların büyük veri dizilerini işlemek konusunda gitgide daha becerikli hale gelmesi sonucunda bu teknikler son zamanlarda göz alıcı sonuçlar ürettiler. Gelecek zamanlarda progamcılık, nöral ağları dünyaya açarak öğrenmelerine izin vermek anlamına geleceğe benziyor.

Bu, bilgisayarların hikâyesine yaraşır bir ikinci sahne olurdu. Mantık düşüncenin kanunlarını keşfetmenin bir yolu olarak başladı. Ardından tümdengelimli mantık kuralları çerçevesinde akıl yürütme (uslamlama) yapabilen makineler üretmemize yardımcı oldu. Hem uslamlama hem de öğrenim yapabilen makineler üretmek için günümüzde tümdengelimli ve tümevarımlı mantık birleştiriliyor. Boole’in sözleri ile “insan zihninin doğasına ve yapısına dair” bir araştırma olarak başlayan bu serüven günün birinde bizimkilere denk hatta bizi aşan yeni zihinlerin (yapay zekâların) ortaya çıkması ile sonuçlanabilir.