[ Pobierz całość w formacie PDF ]

znaczenie pojęcia uniwersalnej obliczalności, należy cofnąć się do roku 1900 do słynnego
referatu matematyka Davida Hilberta, w którym przedstawił on to, co uważał za dwadzieścia trzy
najistotniejsze problemy matematyczne do rozwiązania. Jednym z nich było pytanie, czy
możliwe jest znalezienie ogólnej procedury dowodzenia twierdzeń matematycznych.
Hilbert był świadom, że dziewiętnasty wiek przyniósł szereg niepokojących odkryć
matematycznych, a niektóre z nich wydawały się zagrażać niesprzeczności samej matematyki.
Były to problemy związane z pojęciem nieskończoności i rozmaite logiczne paradoksy oparte na
samoreferencji, które pózniej krótko omówię. W odpowiedzi na te wątpliwości Hilbert wezwał
matematyków do znalezienia systematycznej procedury pozwalającej w skończonej liczbie
kroków stwierdzić, czy dane twierdzenie matematyczne jest prawdziwe czy fałszywe. Nikt w
owym czasie nie wydawał się wątpić, że taka procedura istnieje, jakkolwiek praktyczne jej
podanie mogło nastręczać trudności. Niemniej jednak można sobie było wyobrazić, że jakiś
pojedynczy człowiek lub grupa ludzi jest w stanie zweryfikować każdą matematyczną hipotezę
poprzez ślepe wykonywanie ustalonego ciągu operacji aż do skutku. W istocie, można by się
obyć nawet bez ludzi, gdyż taką procedurę dałoby się zautomatyzować i cały ciąg operacji
realizowany byłby przez maszynę, która po jego zakończeniu drukowałaby otrzymany wynik -
 prawda lub  fałsz .
Widziana w ten sposób matematyka staje się dyscypliną całkowicie formalną, czymś w
rodzaju gry polegającej na manipulowaniu symbolami według wcześniej ustalonych reguł i
znajdowaniu związków tautologicznych. Nie potrzebuje ona żadnych odniesień do świata
fizycznego. Prześledzmy to na przykładzie. Gdy wykonujemy działanie matematyczne, takie jak
(5 x 8) 6 = 34, postępując według prostych reguł otrzymujemy wynik 34. Aby otrzymać
prawidłowy wynik, nie musimy rozumieć samych reguł, ani wiedzieć, skąd się one wzięły. W
istocie, nie musimy nawet wiedzieć, co symbole, którymi się posługujemy, takie jak 5 czy x
s
naprawdę znaczą. Jeśli tylko rozróżniamy poszczególne symbole i trzymamy się reguł,
otrzymamy prawidłowy wynik. Fakt, że obliczenie możemy przeprowadzić na kieszonkowym
kalkulatorze, świadczy o tym, iż procedura ta da się wykonać całkowicie na ślepo.
Kiedy dzieci zaczynają naukę arytmetyki, potrzebują odnosić poznawane symbole do
konkretnych obiektów otaczającego ich świata, więc początkowo liczą na palcach lub liczydłach.
W pózniejszych latach jednak dzieci na ogół potrafią już przeprowadzać operacje matematyczne
w sposób całkowicie abstrakcyjny, do tego stopnia, że używają x i y zamiast konkretnych liczb.
Ci, którzy podejmują naukę na wyższym poziomie, poznają inne rodzaje liczb (np. zespolone) i
działań matematycznych (np. mnożenie macierzy), które w żaden oczywisty sposób nie wiążą się
z tym, co znamy z rzeczywistego świata. Mimo to studenci bez trudu uczą się manipulowania
abstrakcyjnymi symbolami oznaczającymi te niezwyczajne obiekty i działania, nie zastanawiając
się nawet nad tym, co one naprawdę, jeśli w ogóle, znaczą. W ten sposób matematyka w coraz
większym stopniu staje się czysto formalnym manipulowaniem symbolami. Może się wręcz
wydawać, że matematyka to nic innego, jak manipulowanie symbolami. Taki pogląd zwany jest
 formalizmem .
Mimo jej pozornej możliwości formalistycznej interpretacji matematyki został zadany w
1931 roku poważny cios. Tego roku austriacki logik i matematyk Kurt Godeł dowiódł
zdumiewającego twierdzenia, że w matematyce istnieją zdania, których prawdziwości lub
fałszywości nie da się udowodnić poprzez żadną systematyczną procedurę. Było to zaiste
twierdzenie nie do przejścia, ponieważ wykazywało nieodwołalnie, że czegoś w matematyce
naprawdę nie da się zrobić, nawet w zasadzie. Fakt, że w matematyce istnieją zdania
nierozstrzygalne, stanowił wielki szok, gdyż wydawał się podważać całe logiczne podstawy tej
dyscypliny.
Twierdzenie Godła wpisuje się w całą konstelację paradoksów związanych z pojęciem
samoreferencji. Jako proste wprowadzenie w tę zawikłaną tematykę rozważmy niepokojące
zdanie:  To zdanie jest kłamstwem . Jeżeli wypowiedz ta jest prawdziwa, to jest ona fałszywa; a
jeżeli jest fałszywa, to jest prawdziwa. Takich paradoksalnych wypowiedzi odnoszących się do
samych siebie można z łatwością przytoczyć wiele; są one niezwykle intrygujące i zastanawiały
ludzi od stuleci. Na przykład w średniowieczu formułowano tę antynomię w następujący sposób:
Sokrates:  To, co Platon zaraz powie, jest kłamstwem .
Platon:  Sokrates właśnie powiedział prawdę .
Wielki matematyk i filozof Bertrand Russel wykazał, że istnienie tego typu paradoksów
uderza w samą istotę logiki i podważa wszelkie uczciwe próby oparcia matematyki w sposób
ścisły na podstawach logicznych. Godeł poszedł jeszcze dalej i w niezwykle genialny sposób
zastosował samozwrotność w oniesieniu do całej matematyki, rozważając związki między
opisem matematyki a samą matematyką. Jest to łatwo powiedzieć, lecz w rzeczywistości
rozumowanie Godła było długie i bardzo zawiłe. Aby wyrobić sobie jednak pojęcie, na czym ono
polegało, wyobrazmy sobie, że wypisujemy zdania matematyczne opatrując je kolejnymi [ Pobierz całość w formacie PDF ]

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • sulimczyk.pev.pl