Diese Seite mit anderen teilen ...

Informationen zum Thema:
Forum:
Das Weltknotenforum
Beiträge im Thema:
71
Erster Beitrag:
vor 16 Jahren, 3 Monaten
Letzter Beitrag:
vor 16 Jahren, 3 Monaten
Beteiligte Autoren:
Janosch, Martin V, Kay S

[Aus "F widerspruchsfrei folgt G(F)"] ["Wenn A(k,k) endet, endet Tk(k) nicht"]

Startbeitrag von Martin V am 12.10.2000 10:21

Geschrieben von Martin V am 12. Oktober 2000 12:21:46:
Ich



bin noch etwas angeschlagen, doch muss ich nunmal Vorlesungen besuchen. U.a. werde ich heute Nachmittag Vorlesung: Beweistheorie II besuchen ;)
Wie ich sehe, kommen wir mit der reinen Gödel Argumentation kaum weiter. Das ist auch das Problem des Logikers John Randolph Lucas. In einer eMail an Prof.Lucas, was er denn nun von der Penrose-Variation seiner Argumentation halte, schrieb John, dass er mit Roger in den meisten Punkten konform gehe, doch die Umlegung des Gödel Arguments gegen die starke AI, auf das Halteproblem Turings, sei gegen seine persönliche Intention. Ausserdem beschrieb er Roger als Menschen, mit der genialen Fähigkeit zur Selbstdarstellung, worüber ich virtuell lachen musste, da mir klar war, dass John eine kleinere Abneigung gegen Roger hegen muss; hat Roger doch von John geklaut und stärker als er selbst argumentiert.
Nebenbei habe ich mich mit einigen anderen Mitgliedern der SRPS (soweit mein von Fieber gepackter Geist sich konzentrieren konnte) über Putnams Kritik (die im allgemeinen auch Janoschs Kritik gleicht und ich denke, Janosch weiss darum) an Rogers These, unterhalten. Diese Kritikpunkte sind in der Tat stark. Sie sind stark, weil sie formal sind. Und Gegenargumente an Putnam zu schicken, ist mit Problemen gespickt, da G(F) = Verum sozusagen ein "Outut" von Schlussfolgerungen ist, obwohl dieser Output während der Folgerungen zu eben diesen, schon vorausgesetzt werden muss. Die Penrose Argumentation hat demnach eine semantisch - zirkuläre Struktur, was nicht bedeutet, sie wäre Paradox und unsinnig -- sie ist einfach nur schwer formal nachzuvollziehen; eben aufgrund der zirkulären Struktur des P-Arguments.
Dies erinnert mich an Foersters "nicht-triviale-Maschine" sowie an den Satz, dass Anfang und Ende keinen Namen hätten. Die P-Argumentation ist nicht-trvial (im Foersterschen Sinn) und deshalb gibt`s da Kausalprobleme, die aber eine nicht-triviale Maschine ausmacht.
Es fällt mir schwer, als einziger in diesem Forum, die P-These zu vertreten. Automatisch muss ich den Part einnehmen, den Penrose einnehmen muss, wenn ihn Putnam und unzählige andere kritisieren (was ja sein muss, denn dies ist nun einmal Wissenschaft). Ich werde auch weiterhin, ohne irgendwo zu klauen, mit meinem beschränkten Wissen (ich bin ja ein unvollständiges System voller Widersprüche -- Gott sei Dank) versuchen, die P-These zu verteidigen.
Aber es bleibt mir nichts anderes übrig als:
1. auf die Geschichte der Enstehung des G-Satzes zu verweisen, denn diese ist notwendig, um einen der schwierigsten Sätze der Logik (John von Neumann meinte dies) zu verstehen. Partiell habe ich dies auch schon, als ich sogar Wittgenstein in die Diskussion einbezog (was absolut notwendig ist, um wirklich alle Konsequenzen auf vielen anderen Gebieten aufzuzeigen)
2. Was ich vermeiden wollte, G(F) auf das Halteproblem anzuwenden, was man schon etwas am neuen Thread ersehen kann, ich aber erst später anreissen möchte.
3. Was ich vermeiden wollte, Spencer Browns Formalismus "Gesetze der Form" auf G(F) anzuwenden (dieser Punkt ist so zeitaufwendig, dass man mir verzeihen muss, wenn ich nicht alle 10 Stunden einen Beitrag posten kann -- ich muss auch noch studieren. Schliesslich will ich auch bald mal damit fertig werden.
Usw.
Und wer es noch nicht hören durfte, hier als RealAudio Sir Roger Penrose himself (2h lang) über "seine These"; wenn auch wirklich nur grob umrissen:







Bis dahin,



cheers,

MV 37.5°C















Die 50 interessantesten Antworten:

Geschrieben von Kay S am 12. Oktober 2000 18:25:10:
Als Antwort auf: [Aus geschrieben von Martin V am 12. Oktober 2000 12:21:46:
>Ich

>

>bin noch etwas angeschlagen, doch muss ich nunmal Vorlesungen besuchen. U.a. werde ich heute Nachmittag Vorlesung: Beweistheorie II besuchen ;)
Freut mich, dass es Dir wieder besser geht.
Wie ich sehe, kommen wir mit der reinen Gödel Argumentation kaum weiter. Das ist auch das Problem des Logikers John Randolph Lucas. In einer eMail an Prof.Lucas, was er denn nun von der Penrose-Variation seiner Argumentation halte, schrieb John, dass er mit Roger in den meisten Punkten konform gehe, doch die Umlegung des Gödel Arguments gegen die starke AI, auf das Halteproblem Turings, sei gegen seine persönliche Intention.

Ausserdem beschrieb er Roger als Menschen, mit der genialen Fähigkeit zur Selbstdarstellung, worüber ich virtuell lachen musste, da mir klar war, dass John eine kleinere Abneigung gegen Roger hegen muss; hat Roger doch von John geklaut und stärker als er selbst argumentiert.
Und ich dachte, Du hättest Lucas im Puff getroffen, wo er so beglückt über einen intelligenten Anhänger seiner Thesen war, dass er sein Triebleben hintangestellt hatte?
Nebenbei habe ich mich mit einigen anderen Mitgliedern der SRPS (soweit mein von Fieber gepackter Geist sich konzentrieren konnte) über Putnams Kritik (die im allgemeinen auch Janoschs Kritik gleicht und ich denke, Janosch weiss darum) an Rogers These, unterhalten. Diese Kritikpunkte sind in der Tat stark. Sie sind stark, weil sie formal sind. Und Gegenargumente an Putnam zu schicken, ist mit Problemen gespickt, da G(F) = Verum sozusagen ein "Output" von Schlussfolgerungen ist, obwohl dieser Output während der Folgerungen zu eben diesen, schon vorausgesetzt werden muss. Die Penrose Argumentation hat demnach eine semantisch - zirkuläre Struktur, was nicht bedeutet, sie wäre Paradox und unsinnig -- sie ist einfach nur schwer formal nachzuvollziehen; eben aufgrund der zirkulären Struktur des P-Arguments.

Dies erinnert mich an Foersters "nicht-triviale-Maschine" sowie an den Satz, dass Anfang und Ende keinen Namen hätten. Die P-Argumentation ist nicht-trvial (im Foersterschen Sinn) und deshalb gibt`s da Kausalprobleme, die aber eine nicht-triviale Maschine ausmacht.

Es fällt mir schwer, als einziger in diesem Forum, die P-These zu vertreten. Automatisch muss ich den Part einnehmen, den Penrose einnehmen muss, wenn ihn Putnam und unzählige andere kritisieren (was ja sein muss, denn dies ist nun einmal Wissenschaft). Ich werde auch weiterhin, ohne irgendwo zu klauen, mit meinem beschränkten Wissen (ich bin ja ein unvollständiges System voller Widersprüche -- Gott sei Dank) versuchen, die P-These zu verteidigen.
Nun ja, wir sind ja nur drei. Und bis vor kurzem waren es nur zwei, die die Penrose-Debatte im Weltknoten geführt haben. Wonach verlangst Du? Allerdings bin ich ein wenig verwirrt? Verteidigst Du die P-These nun, weil Du an sie glaubst oder weil Du Penrose sympathisch findest und meinst, irgendjemand müsse seine Fahne hochhalten? Was die zirkuläre Struktur angeht, so

habe ich sie auch bemerkt, aber denkbar andere Konsequenzen gezogen oder doch nicht?


>Aber es bleibt mir nichts anderes übrig als:

>1. auf die Geschichte der Enstehung des G-Satzes zu verweisen, denn diese ist notwendig, um einen der schwierigsten Sätze der Logik (John von Neumann meinte dies) zu verstehen. Partiell habe ich dies auch schon, als ich sogar Wittgenstein in die Diskussion einbezog (was absolut notwendig ist, um wirklich alle Konsequenzen auf vielen anderen Gebieten aufzuzeigen)



Wenn man sich nicht über die Voraussetzungen einigen kann, dann hilft es nicht

im Rahmen der Konsequenzen zu argumentieren.


>2. Was ich vermeiden wollte, G(F) auf das Halteproblem anzuwenden, was man schon etwas am neuen Thread ersehen kann, ich aber erst später anreissen möchte.



Wo liegt der große Unterschied? Was versuchst Du denn durch die Verschiebung zu erreichen? Glaubst Du, es gäbe da wirklich einen neuen Aspekt?


>3. Was ich vermeiden wollte, Spencer Browns Formalismus "Gesetze der Form" auf G(F) anzuwenden (dieser Punkt ist so zeitaufwendig, dass man mir verzeihen muss, wenn ich nicht alle 10 Stunden einen Beitrag posten kann -- ich muss auch noch studieren. Schliesslich will ich auch bald mal damit fertig werden.

>Usw.



Niemand will Dich an Deinem Studium hindern. Aber wenn der zentrale Punkt, um den es für Dich geht, eben die "Laws of Form" sind, sind sie das was uns vielleicht weiterbringt und nicht ein neuer Endlosthread, der das wiederholt, was schon in aller Breite ausgeführt wurde. Wir sind geduldig. Du kannst Dir gerne Zeit lassen. Von mir aus bis Weihnachten.

(...)
Gruß Kay
















von Kay S - am 12.10.2000 16:25
Geschrieben von Janosch am 12. Oktober 2000 18:53:30:
Als Antwort auf: [Aus geschrieben von Martin V am 12. Oktober 2000 12:21:46:
Hi,
>(...) In einer eMail an Prof.Lucas, was er denn nun von der Penrose-Variation seiner Argumentation halte, schrieb John, dass er mit Roger in den meisten Punkten konform gehe, doch die Umlegung des Gödel Arguments gegen die starke AI, auf das Halteproblem Turings, sei gegen seine persönliche Intention.
Ich erkenne auch nicht, daß das Halteproblem irgendwie eine objektiv bessere Grundlage für Anti-KI-Argumente liefert als der Gödel-Satz. Man kann auf der Basis des Halteproblems vielleicht ein besser aussehendes Argument aufbauen, aber wirklich besser wird das Argument anscheinend nicht.

Im Gegenteil könnte es sein, daß das Argument schlechter wird, weil man die Unlösbarkeit des Halteproblems unter Umständen auf die Unlösbarkeit eines bekannten philosophischen Problems zurückführen kann; dieser Gedanke wird beispielsweise in dem folgenden Text ausgedrückt, der einem meiner Postings in der Newsgroup sci.logic entnommen ist:
I do not quite understand one of the more popular proofs to the halting

problem. It goes like this...:
Assume there is a computer Program P that decides whether some other given

program will terminate and whose decisions regarding problems of this kind are

always correct. Then let P' be a program that consists of a main routine A and

a subprogram S which is identical to P, where A asks S whether P' will

terminate and subsequently terminates exactly if S replies "P' does not

terminate". Obviously, it is impossible for P to decide correctly whether P'

will terminate and so by our assumption we can know that P will not answer that

question at all.
Two somewhat technical points come to my mind here...:
1. In the exact scenario described above, could a sufficiently intelligent

program not escape the problem by, for example, deciding to print out that "P'

does not t-e-r-m-i-n-a-t-e"?

2. Would it not also be a way out for P (or S respectively) to print out that

"P' does not terminate" and not terminating itself?
Of course, both problems can be easily fixed; the first one by giving A the

same natural language comprehension capabilities that P might have, the second

one by constructing S from P in such a way that S periodically returns control

to A so that A can read the output of S.

This of course seems to pretty much rule out any possibility of ever having a

sound algorithm for deciding the halting problem, although it suggests that the

A used in the proof may have to be of a complexity comparable to P for the

proof to work. I wonder, however, how far one could go in trying to build

halting problem deciders with "very low" probabilities of error.

Suppose, for example, that P is a program that normally sits in a robot

governing the behavior of named robot. In that case, S in the scenario above

would notice that it was the copy of P that was used by P' to determine which

decision P would arrive at faced with the problem of deciding whether or not P'

ever halts, because A did not feed it with the kind of sensory information P

was used to get from its environment when sitting in its robot body.

Even if A simulated a convincingly realistic environment, it seems to me that S

could look whether the environment it perceived might be identical with the

environment it would expect to see if its robot body were merely a product of

A's simulation, since by assumption it knows the code of P'. Since it would be

highly unlikely for sensory information coming from the natural world to

exactly match that which might be produced by A's world simulation, this would

give S or P respectively a very safe (yet not mathematically sound) method of

determining whether itself was S or P, which in turn would enable it to get to

an equally safe decision on the question of P's termination or non-termination.

I see three lines of reasoning allowing to kill that possibility:
1. Assume A exerts some sort of mind control over S.

2. Assume A is clever enough to figure out how P will decide by merely

inspecting (instead of running) P's code

3. Assume A itself has some access to sensors, giving it the possbility of

building some inpredictability into its world simulation.
However, all three possibilities to me seem to reduce the halting problem to

Descartes' problem - the impossibility to prove (both for humans and robots)

that not all of the information reaching the possibly intelligent being in

question has been compromised or generated by a malevolent demon.

So here comes my question: is it possible to give a mathematical proof ruling

out the possibility of "extremely safe" (let's, for the purpose of producing a

well-defined question, say probability-of-error should be smaller than ten

percent) robot-usable methods of deciding the halting problem in finite time,

where the proof does not implicitly use the unsolvability of Descartes'

problem?
Den letzten Absatz würde ich inzwischen schärfer formulieren, weil die sichere Lösbarkeit des Descarteschen Problems hier sogar unter Umständen einen Weg zur sicheren Lösung des Halteproblems eröffnen würde - genau dann nämlich, wenn ein Roboter die Methode zur Lösung des Realitäts-Problems anwenden könnte.

Darüberhinaus aber fängt sich jede Argumentation, die auf dem Halteproblem aufbaut, selbstverständlich auch alle Probleme im Zusammenhang mit Korrektheitsbeweisen für komplizierte Computerprogramme ein, die man sonst haben kann.



>(...)

>Nebenbei habe ich mich mit einigen anderen Mitgliedern der SRPS (soweit mein von Fieber gepackter Geist sich konzentrieren konnte) über Putnams Kritik (die im allgemeinen auch Janoschs Kritik gleicht und ich denke, Janosch weiss darum)
Du wirst lachen - genau den Aufsatz von Putnam habe ich bisher nicht lesen können, weil der einzige Link auf eine entsprechende Seite, den ich dazu gefunden habe, nicht funktioniert hat. Zu meinen zentralen Kritikpunkten, nämlich daß (a) im Beweis des Unvollständigkeitssatzes die Konsistenz der betrachteten Theorie vorausgesetzt werden darf, während sie in einem Beweis zum Gödel-Satz einer jeden gegebenen Theorie bewiesen werden muss, was schwierig werden kann und daß (b) der Unvollständigkeitssatz selbst im Rahmen einer üblichen Mengenlehre mit Sicherheit von einem Computerprogramm bewiesen werden kann, bin ich durch eigenes Nachdenken gekommen. Paradoxerweise habe ich das allereinfachste Argument - daß nämlich Menschen als Theorembeweiser nicht perfekt sind - tatsächlich erst gesehen, als ich einen Aufsatz von Churchland gelesen hatte ;).

In der Tat denke ich, daß praktisch jedem halbwegs guten Mathematiker, der mindestens eine zweisemestrige Vorlesung über mathematische Logik gehört hat und also den Unvollständigkeitssatz kennt, diese Dinge auffallen werden, wenn er über die Lucas-Argumentation nachdenkt. Das hängt damit zusammen, daß man als Mathematiker eben ab dem ersten Semester die Fähigkeit haben muss , jeden Satz, den man verwenden will, ganz genau auf Anwendbarkeit im gegebenen Fall zu überprüfen und nichts anderes muss man tun, um zu den beiden angesprochenen Punkten zu kommen.

Daß ich nachher in der Tat auch Aufsätze von Mathematikern gefunden habe, die meine Meinung teilten, will ich keineswegs abstreiten ;). Im Gegenteil ist es mir bislang nicht gelungen, irgendwo einen Aufsatz eines Mathematikers aufzutreiben, der etwas anderes gesagt hätte und nicht zufällig mit Penrose identisch war.



> Die Penrose Argumentation hat demnach eine semantisch - zirkuläre Struktur, was nicht bedeutet, sie wäre Paradox und unsinnig -- sie ist einfach nur schwer formal nachzuvollziehen; eben aufgrund der zirkulären Struktur des P-Arguments.
Ich finde, daß sie ganz allgemein gar nicht nachzuvollziehen ist, solange Penrose nicht einmal einen Weg findet, die implizit notwendige Beschränkung auf kleine Computerprogramme zu überwinden.
>(...)
Grüße,

Janosch.
















von Janosch - am 12.10.2000 16:53

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 12. Oktober 2000 23:57:20:
Als Antwort auf: Re: [Aus geschrieben von Janosch am 12. Oktober 2000 18:53:30:
hi,



Ich erkenne auch nicht, daß das Halteproblem irgendwie eine objektiv bessere Grundlage für Anti-KI-Argumente liefert als der Gödel-Satz. Man kann auf der Basis des Halteproblems vielleicht ein besser aussehendes Argument aufbauen, aber wirklich besser wird das Argument anscheinend nicht.


"Wenn A(k,k) endet, endet Ck(k) nicht"
A(k,k) und Ck(k) sind ident (Diagonalverfahren). Wenn Berechnung Ck(k) endet, endet sie nicht. Heisst, sie endet nicht. In der rechnerischen Prozedur A kann die Gesamtheit aller mathematischen Argumentationen zum Beweis für Sätze Q (Behauptung, dass eine bestimmte Berechnung nicht endet) nicht gesammt erfasst werden. Es können nicht alle Argumentationen enthalten sein, die zum Schluss führen, dass bestimmte Berechnungen nie enden.
A endet nicht und "weiss" auch nicht, dass Ck(k) nicht endet.

Wir wiederum müssen von A überzeugt sein und dann müssen wir auch glauben, dass Ck(k) nicht endet.
Verstehen oder "Einsicht" mathematisch zu kodieren, scheint auch im Halteproblem eine grundlegende Rolle zu spielen. Während Gödel die Grenzen der Beweisbarkeit wahrer mathematischer Sätze aufzeigte, zeigt uns das Halteproblem die Grenzen der Berechenbarkeit selbst; wobei auch hier informal gezeigt werden kann, dass Ck(k) nicht endet. Wenn das Gehirn eine universelle T-Maschine ist, dann dürfte sie "Ck(k) endet nicht" oder "G(f) ist wahr" nicht einsehen.
Also:



Ist die Mathematik vollständig in einem technischen Sinn, dass nämlich jede ihrer Aussagen zumindest im Prinzip entweder bewiesen oder widerlegt werden kann?



Ist die Mathematik widerspruchsfrei, oder können falsche Aussagen mittels logischer Beweisführung hergeleitet werden?



Ist die Mathematik entscheidbar, d.h., gibt es ein Verfahren, das für jede Aussage deren Wahrheit beziehungsweise Falschheit feststellt?
Gödel konnte zeigen, dass sich die beiden ersten Aussagen gegenseitig ausschließen: Entweder ist das Axiomensystem der Mathematik hinreichend vollständig, dann führt es unvermeidlich zu Widersprüchen, oder man hält es widerspruchsfrei, dann deckt es aber nicht alle Aussagen ab, es bleibt unvollständig. Turing zeigte, dass Punkt 3 unlösbar ist. Und die Unlösbarkeit

des Halteproblems wird informal "bewiesen". Könnten wir es formal beweisen, wärs kein Halteproblem mehr und es gäbe einen A.



Den letzten Absatz würde ich inzwischen schärfer formulieren, weil die sichere Lösbarkeit des Descarteschen Problems hier sogar unter Umständen einen Weg zur sicheren Lösung des Halteproblems eröffnen würde - genau dann nämlich, wenn ein Roboter die Methode zur Lösung des Realitäts-Problems anwenden könnte.



Excuse me, aber ich kann mir nicht vorstellen, dass x sich selbst beschreibt, ohne "aus sich selbst" zu treten, um sich zu beschreiben.



Darüberhinaus aber fängt sich jede Argumentation, die auf dem Halteproblem aufbaut, selbstverständlich auch alle Probleme im Zusammenhang mit Korrektheitsbeweisen für komplizierte Computerprogramme ein, die man sonst haben kann.



Leider wahr.



Du wirst lachen - genau den Aufsatz von Putnam habe ich bisher nicht lesen können, weil der einzige Link auf eine entsprechende Seite, den ich dazu gefunden habe, nicht funktioniert hat. Zu meinen zentralen Kritikpunkten, nämlich daß (a) im Beweis des Unvollständigkeitssatzes die Konsistenz der betrachteten Theorie vorausgesetzt werden darf, während sie in einem Beweis zum Gödel-Satz einer jeden gegebenen Theorie bewiesen werden muss, was schwierig werden kann und daß (b) der Unvollständigkeitssatz selbst im Rahmen einer üblichen Mengenlehre mit Sicherheit von einem Computerprogramm bewiesen werden kann, bin ich durch eigenes Nachdenken gekommen. Paradoxerweise habe ich das allereinfachste Argument - daß nämlich Menschen als Theorembeweiser nicht perfekt sind - tatsächlich erst gesehen, als ich einen Aufsatz von Churchland gelesen hatte ;).



Ich werfe Dir vor, die einzelnen Punkte in "Shadows of the Mind" nicht gelesen zu haben. U.a. wird dort Putnams Kritik behandelt. Wenn ich unrecht habe und Du hast die einzelnen Kritikpunkte bei Penrose gelesen, so lass es mich wissen. Der Churchland-Aufsatz hat ebenfalls ein Reply von Penrose. Und: G(F) kann nicht bewiesen werden. Bitte beweise mir im nächsten Posting die Wahrheit von G(F). Du wärst der Erste ;)



In der Tat denke ich, daß praktisch jedem halbwegs guten Mathematiker, der mindestens eine zweisemestrige Vorlesung über mathematische Logik gehört hat und also den Unvollständigkeitssatz kennt, diese Dinge auffallen werden, wenn er über die Lucas-Argumentation nachdenkt.



Ob er G(F) kennt, oder ob er ihn versteht, das macht den Kern der Gödelschen Arbeit aus. Lucas iss ja schon lange kein Zweisemester mehr. Penrose, ich glaubs, dürfte auch kein Zweisemester mehr sein. Sind denn die alle in einer regressiven Phase? Oder gar, sagen wir mal, blöde im nicht-rechnerischen Kopf? ;)



Das hängt damit zusammen, daß man als Mathematiker eben ab dem ersten Semester die Fähigkeit haben muss , jeden Satz, den man verwenden will, ganz genau auf Anwendbarkeit im gegebenen Fall zu überprüfen und nichts anderes muss man tun, um zu den beiden angesprochenen Punkten zu kommen.



Als ich mit G(F) in ner Vorlesung konfrontiert war, erkannte ich, dass mir die Wahrheit dieses Satzes in natürlicher Sprache plötzlich evident war. Das schockte mich, denn einen Formalismus für diesen Wahrheitsschlag, den konnte mir mein Prof. natürlich nicht liefern. "Herr Voggenberger, der Satz ist wahr. Ich kann es ihnen nicht beweisen. Sie haben die Klausur geschafft, wenn sie mir keinen Formalismus für G(F) = Verum liefern. Dann weiss ich, dass sie G(F) verstanden haben!"
Natürlich wardhier nicht die Rede von nicht-rechnerischen Aspekten im menschlichen Denken, sondern eher eine Debatte hin zum Platonismus.



Daß ich nachher in der Tat auch Aufsätze von Mathematikern gefunden habe, die meine Meinung teilten, will ich keineswegs abstreiten ;). Im Gegenteil ist es mir bislang nicht gelungen, irgendwo einen Aufsatz eines Mathematikers aufzutreiben, der etwas anderes gesagt hätte und nicht zufällig mit Penrose identisch war.



Im allgemeinen, so weiss ich es, beschäftigt sich kein Mathematiker mit Gödel. Ich bekomme am Institut fast immer diesen Satz zu hören: Gödel, das war doch nur ein Philosoph.



Ich finde, daß sie ganz allgemein gar nicht nachzuvollziehen ist, solange Penrose nicht einmal einen Weg findet, die implizit notwendige Beschränkung auf kleine Computerprogramme zu überwinden.



Doch, sie ist nachvollziehbar, aber leider auf einer schon nicht-mehr-formalen-Ebene (die Argumentation ist die, die eine nicht-triviale-Maschine liefern würde). Es wäre für einen Mathematiker und Rouse-Ball Professor wie Penrose Plicht, formal, bis zum Ende zu argumentieren. Und er kann`s ja. Seine Singuralitäten und Parkettierungsebenen, sein Wissen um die Gesetze der Physik, all dies muss uns doch zeigen: Penrose, du kannst formal argumentieren und bist ein toller Mathematiker.
Aber, warum argumentiert / formalisiert Mr.Rouse-Ball nicht, wenns um G(F) geht? Er kanns nicht. Weil G es so vorschreibt. Da gibt es nicht mehr zu formalisieren. Nur zu verstehen.



Leider noch etwas im Dämmerzustand schreibend (man kann es ersehen)

MV


















von Martin V - am 12.10.2000 21:57

Re: Ein Universum voller Widersprüche

Geschrieben von Martin V am 13. Oktober 2000 00:44:20:
Als Antwort auf: Re: [Aus geschrieben von Kay S am 12. Oktober 2000 18:25:10:
Hi Kay,



Nur kurz zu den "Laws of Form". Dieses Kalkül in ein Forum zu pressen, wäre dasselbe, wie eine komplette Beschreibung der Mengenlehre oder Prädikatenlogik.

Vor allem stellt sich hier das Problem, das die Symbole in den Forms völlig fremdartig sind und nichts mit der herkömmlichen Logik zu tun haben.
Axiom1:
()() = ()
Axiom2
(()) = .
Primäre Arithmetik:
(()()) = (()) = .
ect.
Was das alles bedeutet, dies ist am besten im Orginal zu bewundern. Ich brauchte 1 Jahr, bis ich die Forms und damit die Endophysik zu 98% verstand. Ich will mich aber anstrengen und in nächster Zeit das Ganze näher erläutern.

Mit Penrose wird dies aber wenig zu tun haben ;)
Ich verteidige die Penrose These, weil sie mich fasziniert. Ich weiss um ihre Lücken, gehe aber mit Penrose konform, dass G uns etwas über das menschliche Denken verraten kann. G wäre nicht Verum, gäbe es nichts, was sich mit G beschäftigt. Ob nun eine KI oder ein Mensch. Das ist die Kontexturalität bezüglich eines sich mit-dem-System-beschäftigenden-Systems. Und, G zeigt mir, dass da ein Unterschied bestehen muss zwischen dem, wie eine KI mit G umgeht und wie ein Gehirn damit umgeht. Bisher jedenfalls, habe ich noch keinen Formalismus gesehen, der mir zeigt, wie ich zur Wahrheit G`s gelange. Und es kann solchen auch nicht geben, denn Gödels Beweis zeigt ja die formale Unentscheidbarkeit wahrer mathematischer Sätze.
Ich sprach vorher um die Lücken der Penrose-Argumentation. Diese sind keine Erklärungslücken, sondern formale Lücken. Und diese haben wiederum die Form einer semantischen Zirkularität. Ob dies ein Fehler ist, oder ob dies aus G einfach folgen muss, dies ist mir derzeit nicht klar. auf jedenfall würde ich Penrose nicht mit einen Handschlag abtun. In Shadows of the Mind sowie im virtuellen Magazin "Psyche" hat er massenweise Gegenargumente bezüglich aller möglichen Kritiker geschrieben. Ich denke, man sollte sich mal eingehend damit befassen, bevor man, aufgrund mangelnder intuitiv-logischer Evidenzfähigkeit, Penrose und somit auch Kurt Gödel (ein Verfechter des Mentalismus und Platonismus) abtut. Es ist nicht meine Aufgabe, Penrose zu verteidigen. Dass soll er selbst tun. Es ist nicht meine Idee. Und ich vertrete nicht gerne Ideen anderer. Ich vertrete lieber meine Ideen. Aber die Ideen anderer können mich auch begeistern. Und Penrose begeistert mich. Weil ich G für wahr halte.
Mir fehlt immer eins: Die Betonung der Selbstreferenz in G und der auftretenden Paradoxien, wenn man den externen Beobachter in das gödelisierte Universum einführt. Und damit wären wir dort, wo ich persönlich beginne und arbeite. Jenseits dieses virtuellen Raums ;)



Schamanische Grüsse,

MV

















von Martin V - am 12.10.2000 22:44

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Kay S am 13. Oktober 2000 11:18:45:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 12. Oktober 2000 23:57:20:
Hallo Martin,
gerade habe ich aus dem INet eine Version des Beweises des Halteproblems gefischt. Ich möchte Dich nun bitten uns zu sagen, an welcher Stelle für Dich der Einbruch des 'Informellen' in die Mathematik beginnt. Ich habe den Eindruck hier herrscht nur eine Verwirrung der Begriffe, mehr nicht. Wenn ich davon überzeugt wäre, dass es keine formale Semantik gebe, dann hätte ich es vielleicht einfacher Dir zu folgen. Dann hätten wir gemeinsamen Stand, aber mir ist nicht klar, ob Du das glaubst?

Halteproblem


Sei A die Menge aller Algorithmen und E dieMenge aller Eingabedaten.
Die Funktion fH : A x E -> {true, false} mit fH(A, e) := true,

falls der Algorithmus A Element A, angewendet auf die Eingabe e, nach endlich vielen Schritten hält (terminiert), sonst false.


Es gib keinen Algorithmus, der fH berechnet,

also als Eingabe einen beliebigen anderen Algorithmus und dessen Daten

erhält und feststellt, ob die Berechnung terminieren wird.

Beweis für die Nicht-Existenz eines Algorithmus für das

Halteproblem:


Sei fH : AxE -> {true,false}

(A : Menge aller Algorithmen, E : Menge aller Eingabedaten)

mit fH (A,e) : = true falls der Algorithmus A angewendet auf die Eingabe e hält.

und fH(A,e) : = false falls der Algorithmus A angewendet

auf die Eingabe e nicht hält.
Annahme:Es existiert so ein fH (ein Algorithmus der

das Halteproblem berechnet)
Man definiere den Algorithmus fP:

mit fP(A) : = (hält nicht) falls fH(A,A)= true

und fP(A) : = (hält) falls fH(A,A) = false


Bei einem Aufruf von fP (fP) ergeben sich zwei

Möglichkeiten:





falls fH (fP,fP) = true (d.h. fPP) hält)

=> fP(fP) hält nicht



falls fH(fP, fP) = true (d.h. fP(fP)hält nicht)

=>fP (fP) hält



In beiden Fällen ergibt sich ein Widerspruch. Es kann also

keinen solchen Algorithmus fH geben.

Nebenbei gesagt haben Gödels Unvollständigkeitssatz und Turings Halteproblem keine besondere technische Bedeutung. So etwa, wie man aus dem Beweis, dass es kein Perpetuum-Mobile geben kann, auch keine Bauanleitung für ein solches zu extrahieren vermag. Die etwas spöttische Äußerung Gödel sei "nur Philosoph"

kann nur jemandem eingehen, der den Wissenschaftsbetieb als etwas erlebt hat, dessen primäres Ziel die Selbsterhaltung ist, ungeachtet jeden Verständigungswunsches. Das einzige Ziel der Mathematik besteht in der Erwirtschaftung eines "intellektuellen Mehrwertes", der sie am Laufen hält. Darin hat sich Gödel vielleicht nicht als Superproduzent erwiesen, an den alle anderen Produzenten anknüpfen können, anders als z.B. Gauß oder Riemann.
Was einem selbst wichtig ist oder was prägenden Einfluss auf das Selbstverständnis der Mathematik oder die intellektuelle Kutltur insgesamt hat,

spielt dabei keine Rolle. Gödel hat, meine ich, die "Grundlagenkrise" der Mathematik mit ihren kryptoreligiösen Motiven beendet.

Er hat nämlich, indem er durch sein Arithmetisierungsverfahren die "Metamathematik" erfand, die Mathematik durch sich selbst begründet. Sie war nun soetwas wie Subjekt geworden, dass sprach, statt sich durch Logik oder Anschauung auf etwas anderes zurückführen

zu lassen ( bei Kronecker war es die 1 oder der Herr im Himmel ).
Viele Grüße

Kay

















von Kay S - am 13.10.2000 09:18

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Janosch am 13. Oktober 2000 13:51:27:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 12. Oktober 2000 23:57:20:
Hallo,


>"Wenn A(k,k) endet, endet Ck(k) nicht"

>A(k,k) und Ck(k) sind ident (Diagonalverfahren). Wenn Berechnung Ck(k) endet, endet sie nicht. Heisst, sie endet nicht.
Ok, ich nehme an, wir haben es hier mit einer Argumentation der folgenden Art zu tun:
Sei jedem möglichen Computerprogramm C, das eine natürliche Zahl als Eingabe annimmt, eine Zahl Z(C) zugeordnet und sei P ein Programm, das eine natürliche Zahl k als Eingabe annimmt und das die Eigenschaft hat, daß in dem Falle, daß es in Reaktion auf eine gegebene Eingabezahl terminiert, das Programm mit der Nummer k in Reaktion auf die Eingabe k nicht terminiert.

Angenommen, P würde in Reaktion auf die Eingabe Z(P) anhalten, dann folgt aus unserer Annahme, daß P in Reaktion auf die Eingabe Z(P) nicht anhält. Widerspruch. Also wissen wir , daß P in Reaktion auf die Eingabe Z(P) nicht terminiert, was P aber ganz unmöglich wissen kann.
Nun betrachten wir einmal die folgenden zwei Computerprogramme:
A:
10 input n

20 if n=mynumberA then print"Programm mit Nummer "; n; " hält.":end

30 goto 30
und B:
10 input n

20 if n=mynumberB then print "Programm ";n;" terminiert nicht."

30 goto 30


wobei mynumberA und mynumberB die Nummern der Programme A und B sein sollen.

(Man könnte hier versuchen, einzuwenden, daß das "Einstellen" der Konstanten mynumberA bzw. mynumberB nicht funktionieren würde, weil man dadurch die Programmnummern wieder verändern würde, aber es ist offensichtlich, daß ein Programm beispielsweise durch Inspektion des eigenen Codes die ihm zuzuordnende Nummer berechnen könnte.)

Beide Programme entscheiden Halteprobleme und entscheiden sie stets richtig, wenn sie zu einer Entscheidung kommen und sie entscheiden über das eigene Halteverhalten richtig :). Das Programm B genügt sogar trivialerweise den Voraussetzungen unseres Satzes, weil immer, wenn es terminiert (passiert nie), das Programm mit der Nummer n in Reaktion auf die Eingabezahl n anhält. Also haben wir offensichtlich aus dem Beweis, den ich oben angegeben habe, eine falsche Folgerung gezogen.

Um noch klarer zu erkennen, wo wir etwas falschgemacht haben, betrachten wir nun die folgende Argumentation für Menschen:
Nehmen wir an, es gäbe einen Menschen, der fehlerfrei vorhersagen kann, ob ein anderer Mensch Suizid begehen wird, wenn man ihm eine gegebene Frage stellt und der seine Meinung zu diesem Thema kundtut, indem er selbst Suizid begeht, falls er der Ansicht ist, daß der andere Mensch nicht in Reaktion auf die gegebene Frage Suizid begehen wird.

Angenommen, wir fragen diesen Menschen nun:
Wirst Du Suizid begehen?
Offensichtlich wird er in Reaktion auf diese Frage nicht Suizid begehen, denn wenn er das täte, würde daraus ja nach Annahme folgen, daß er nicht Suizid begehen wird, was ein Widerspruch wäre. Folglich können wir etwas über jeden Menschen wissen, was dieser nicht über sich selbst wissen kann...
Hier werden beide Fehler der genannten Argumentation klar:
1. Wir haben die Unfehlbarkeit der betrachteten Systeme als gegeben angenommen, während wir sie in jedem konkreten Fall beweisen müßten.

2. Wir haben die Ausdrucksmöglichkeiten der betrachteten Systeme in einer Weise eingeschränkt, die das Problem in jeder Weise trivial macht.
Der zweite Punkt ändert natürlich nichts daran, daß man einen funktionierenden Beweis für die Nichtexistenz eines immer terminierenden Entscheidungsverfahrens für Halteprobleme bauen kann. Aber: wie ich auch in meinem vorhin zitierten sci.logic-Posting ausgeführt habe, scheint ein solcher Beweis zum Einen gar keine praktisch auswertbare Konstruktionsvorschrift für ein Programm zu liefern, über dessen Terminationsverhalten ein gegebener komplizierter Halteproblems-Entscheider keine Aussagen mehr machen kann. Zum Anderen scheint das Halteproblem für Roboter unlösbar zu sein genau dann, wenn Descartes Problem nicht lösbar ist, und die philosophische Unlösbarkeit des Realitätsproblems von Descartes ist allgemein anerkannt.
> (...)

>A endet nicht und "weiss" auch nicht, dass Ck(k) nicht endet.
Dies ist ein Fehlschluss, siehe mein Gegenbeispiel oben.
>(...) Wenn das Gehirn eine universelle T-Maschine ist, dann dürfte sie "Ck(k) endet nicht" oder "G(f) ist wahr" nicht einsehen.
Mein Programm B genügt den Forderungen des hier zur Diskussion stehenden Argumentes und gibt ganz ohne Schwierigkeiten aus, daß es selbst nicht anhalten wird ;)))). Also ist es ein Gegenbeispiel gegen die erste dieser Behauptungen.

Und was die andere Behauptung betrifft, kann ich nur wiederholen, daß einerseits G(ZFC) nicht für Menschen einsichtig zu sein scheint und andererseits beispielsweise G(PA) ganz leicht von einem ZFC-Theorembeweiser bewiesen werden könnte.
>(...)

>Gödel konnte zeigen, dass sich die beiden ersten Aussagen gegenseitig ausschließen: Entweder ist das Axiomensystem der Mathematik hinreichend vollständig, dann führt es unvermeidlich zu Widersprüchen, oder man hält es widerspruchsfrei, dann deckt es aber nicht alle Aussagen ab, es bleibt unvollständig.
Ok, schauen wir einmal, was Gödel so alles zeigen konnte.

Da ist zuallererst einmal der erste Unvollständigkeitssatz. Er sagt, daß es zu jeder konsistenten Theorie, in der mindestens alle rekursiven Funktionen über den natürlichen Zahlen repräsentierbar sind, einen Satz gibt, der eine richtige Aussage über natürliche Zahlen ist und der in der Theorie nicht beweisbar ist.

Dann gibt es noch den Vollständigkeitssatz, der auch von Gödel ist. Er sagt, daß jede Aussage, die in allen Modellen einer Theorie wahr ist, auch in dieser Theorie bewiesen werden kann.

Daraus folgt: ist T eine konsistente Theorie erster Stufe, die mindestens Arithmetik umfasst, dann gibt es ein Modell dieser Theorie, in der in der Tat die arithmetische Gleichung G(T) falsch wird.

Es ist jetzt verlockend, zu behaupten, dies zeige, daß "nur Menschen über die 'echten natürlichen Zahlen' reden können". Das ist schon deshalb falsch, weil das Diagonalisierungsargument aus dem Beweis des Gödelschen Satzes sich schwierigkeitslos auch auf die Menge aller von Menschen als wahr erkennbaren Sätze über natürliche Zahlen anwenden läßt und dann zeigt, daß Sätze über natürliche Zahlen existieren, die Menschen nicht als wahr erkennen können, falls sie wahr sind und Menschen keine Fehler machen.

Dennoch will ich mich hiermit weiter befassen. Man könnte jetzt anführen, daß man als Mensch die Struktur der natürlichen Zahlen tatsächlich bis auf Isomorphie definieren könne, etwa durch das folgende Axiomensystem zweiter Stufe :
1. 0 Element N.

2. Ist S(k)=S(l), so stets k=l und es gibt kein x mit S(x)=0.

3. Ist A Teilmenge von N mit 0 Element N und der Eigenschaft k Element A===>S(k) Element A, dann ist A=N.
Erstens hängt nun aber die Funktionsfähigkeit dieser Definition der natürlichen Zahlen bis auf Isomorphie von der Widerspruchsfreiheit mindestens von ZFC ab, die überhaupt nicht absolut trivialerweise o.B.d.A. einsichtig ist. Ebensowenig ist zweitens irgendwie einsichtig, welche Folgerungsregeln in einer Sprache zweiter Stufe erlaubt sein sollten und welche nicht. Drittens kann man die angegebene formale Definition der natürlichen Zahlen auch explizit innerhalb von ZFC durchführen, wo sich dann eine Charakterisierung der natürlichen Zahlen bis auf ZFC-Isomorphie ergibt und alle Sätze, die jemals über natürliche Zahlen bewiesen wurden, auch beweisbar zu sein scheinen.

Man könnte nun behaupten, wir hätten ein "intuitives" Verständnis der natürlichen Zahlen, das über die Peano-Axiome respektive ihr Äquivalent innerhalb einer geeigneten Sprache innerhalb von ZFC hinausginge. Ich halte eine derartige Behauptung allerdings für höchst zweifelhaft; ich jedenfalls kann nicht behaupten, daß in meinem Kopf ein Modell der natürlichen Zahlen existiere. Abgesehen von den Peano-Axiomen habe ich einige diffuse Vorstellungen, die argumentativ weniger leistungsfähig als die ZFC-Formulierung der Peano-Axiome sind, und die darauf hinauslaufen, daß man "immer weiter zählen kann". Das Zählen alleine ist aber nur eine Methode zur Erzeugung natürlicher Zahlen, und nicht etwas, was man benutzen könnte, um von einer beliebigen gegebenen Struktur zu sagen, ob sie zu den natürlichen Zahlen isomorph sei.

Auch die Einführung formaler Sprachen und ihrer Modelle geschieht in der mathematischen Logik unter ausschliesslicher Benutzung von Mitteln der normalen Mengenlehre und ist also in ZFC nachvollziehbar.

Kehren wir nun zum Beweis des Unvollständigkeitssatzes zurück. Wir haben eine als konsistent vorausgesetzte (!) Theorie T und einen Satz G(T). Wir operieren in ZFC und wollen zeigen, daß G(T) in den natürlichen Zahlen wahr und in T unbeweisbar ist.

Nehmen wir nun an, G(T) wäre in den natürlichen Zahlen falsch. Dann wäre in den natürlichen Zahlen nach Stabilitätsaxiom die Verneinung von G(T) richtig und es gäbe also ein n Element N mit Herl(T,n,G(T)). Nach Konstruktion der Funktion Herl kann man aber zeigen: Ex(a).Herl(T,a,b)b Element T. Also bekämen wir G(T) Element T, so daß die natürlichen Zahlen kein Modell der Theorie T wären, Widerspruch zu den Annahmen Repräsentierbarkeit der Arithmetik und Konsistenz.

Also ist G(T) wahr in den natürlichen Zahlen und nicht Element T, q.e.d.

Der wirklich schwierige Teil in diesem Beweis ist, Ex(a).Herl(T,a,b)b Element T für die natürlichen Zahlen zu zeigen, aber wenn man sich die entsprechenden Beweise ansieht, wird man nichts finden, was im Rahmen der Mengenlehre nicht gemacht werden kann.
> (...)

>

>Den letzten Absatz würde ich inzwischen schärfer formulieren, weil die sichere Lösbarkeit des Descarteschen Problems hier sogar unter Umständen einen Weg zur sicheren Lösung des Halteproblems eröffnen würde - genau dann nämlich, wenn ein Roboter die Methode zur Lösung des Realitäts-Problems anwenden könnte.

>

>Excuse me, aber ich kann mir nicht vorstellen, dass x sich selbst beschreibt, ohne "aus sich selbst" zu treten, um sich zu beschreiben.
Ich kann mir nicht vorstellen, was Du damit eigentlich ausdrücken willst. Ich würde es begrüßen, wenn Du dies näher erläutern würdest.
>(...)

> Und: G(F) kann nicht bewiesen werden. Bitte beweise mir im nächsten Posting die Wahrheit von G(F). Du wärst der Erste ;)
....das kommt darauf an, welche Theorie F sein soll und in welcher Theorie ich arbeiten darf...

Ok, ich setze meine Theorie T={G(F)} und weise darauf hin, daß G(F) ein Axiom von T ist. Beweis fertig.

Falls T konsistent ist, kann ich natürlich auch das obige ZFC-formalisierbare Argument benutzen.
>(...)

>Ob er G(F) kennt, oder ob er ihn versteht, das macht den Kern der Gödelschen Arbeit aus. Lucas iss ja schon lange kein Zweisemester mehr. Penrose, ich glaubs, dürfte auch kein Zweisemester mehr sein. Sind denn die alle in einer regressiven Phase? Oder gar, sagen wir mal, blöde im nicht-rechnerischen Kopf? ;)
Lucas ist Philosoph und nicht etwa Mathematiker und unter Mathematikern findet Penrose keine Anhänger.

Ich habe in de.sci.mathematik sogar testweise unter anderem Namen ein pro-Penrose-Argument formuliert, als die Diskussion dort schon zuende war, um zu sehen, ob es dort vielleicht Penrose-Anhänger gibt, die sich möglicherweise nur nicht trauen, sich an dem dortigen Thread zu beteiligen. Die Reaktionen auf diesen Beitrag waren ausnahmslos negativer Art.
> (...)

>

>Daß ich nachher in der Tat auch Aufsätze von Mathematikern gefunden habe, die meine Meinung teilten, will ich keineswegs abstreiten ;). Im Gegenteil ist es mir bislang nicht gelungen, irgendwo einen Aufsatz eines Mathematikers aufzutreiben, der etwas anderes gesagt hätte und nicht zufällig mit Penrose identisch war.

>

>Im allgemeinen, so weiss ich es, beschäftigt sich kein Mathematiker mit Gödel. Ich bekomme am Institut fast immer diesen Satz zu hören: Gödel, das war doch nur ein Philosoph.
Seltsam, aber in der Vorlesung zu mathematischer Logik, die ich gehört habe, wurden immerhin drei Sätze Gödels bewiesen und nichts deutete darauf hin, daß ihn irgendwer nicht als Mathematiker ansehen würde. Ich bin auch praktisch sicher, daß keiner meiner Kommilitonen Gödel zuerst als Philosophen bezeichnen würde.

Ich könnte mir vorstellen, daß vielleicht Wissenschaftstheoretiker und Philosophen zu solchen Diffamierungen neigen könnten *grübel*.
>(...)

>Doch, sie ist nachvollziehbar, aber leider auf einer schon nicht-mehr-formalen-Ebene (die Argumentation ist die, die eine nicht-triviale-Maschine liefern würde).
Der Beweis des Unvollständigkeitssatzes ist ohne weiteres nachvollziehbar. Ein korrekter Beweis für die Unlösbarkeit des Halteproblems ist auch nachvollziehbar.

Nicht nachvollziehbar ist die Folgerung, daß Menschen nicht algorithmisch beschreibbar sein sollten, schon weil wir für halbwegs komplizierte Programme nichts mehr über ihr Halteverhalten wissen, wovon wir sicher sein können, daß sie es nicht wissen. Genauso wissen wir nicht, ob sich der Unvollständigkeitssatz auch nur auf einen ZFC-Theorembeweiser anwenden läßt.

Es geht hier nicht um eine niedliche kleine rein formale "Begründungslücke", sondern um einen schlichten Fehlschluss der Art, daß aus einer bewiesenen Behauptung das Antecedens entfernt und dann das Konsequens immer noch für wahr gehalten wird.
Grüße,

Janosch.
















von Janosch - am 13.10.2000 11:51

Re: Ein Universum voller Widersprüche

Geschrieben von Kay S am 13. Oktober 2000 15:24:45:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Martin V am 13. Oktober 2000 00:44:20:

Hallo Martin,


Nur kurz zu den "Laws of Form". Dieses Kalkül in ein Forum

zu pressen, wäre dasselbe, wie eine komplette Beschreibung der Mengenlehre

oder Prädikatenlogik.



Vor allem stellt sich hier das Problem, das die Symbole in den Forms

völlig fremdartig sind und nichts mit der herkömmlichen Logik

zu tun haben.


Axiom1:


()() = ()


Axiom2


(()) = .


Primäre Arithmetik:


(()()) = (()) = .


ect.


Was das alles bedeutet, dies ist am besten im Orginal zu bewundern.

Ich brauchte 1 Jahr, bis ich die Forms und damit die Endophysik zu 98%

verstand. Ich will mich aber anstrengen und in nächster Zeit das Ganze

näher erläutern.



Mit Penrose wird dies aber wenig zu tun haben ;)


Es macht nichts, dass es nichts mit Penrose zu tun hat. Da der Kalkül

offenbar steht, ist es doch interssanter seine Beziehungen zur klassischen

Mathematik zu klären, zur Rekursionstheorie etc.


Ich verteidige die Penrose These, weil sie mich fasziniert. Ich weiss

um ihre Lücken, gehe aber mit Penrose konform, dass G uns etwas über

das menschliche Denken verraten kann. G wäre nicht Verum, gäbe

es nichts, was sich mit G beschäftigt. Ob nun eine KI oder ein Mensch.

Das ist die Kontexturalität bezüglich eines sich mit-dem-System-beschäftigenden-Systems.

Und, G zeigt mir, dass da ein Unterschied bestehen muss zwischen dem, wie

eine KI mit G umgeht und wie ein Gehirn damit umgeht. Bisher jedenfalls,

habe ich noch keinen Formalismus gesehen, der mir zeigt, wie ich zur Wahrheit

G`s gelange. Und es kann solchen auch nicht geben, denn Gödels Beweis

zeigt ja die formale Unentscheidbarkeit wahrer mathematischer Sätze.


Niemand von uns hat ja behauptet, dass sich G im System konstruieren

lässt, für das er gebaut wurde. Aber ich sehe nicht ein, warum

es nicht zwei aufeinander nicht reduzierbare formale Systeme geben soll,

in der das nicht möglich ist. Es muss gar kein gemeinsames Obersystem

geben, dass keinen Widerspruch enthält, während jedes für

sich widerspruchsfrei ist usw. Dies führt dann zu heterarchischen

oder netzförmigen Systemen, die man im Rahmen der Graphentheorie oder

diskreten Topologie eigentlich verstehen sollte.


Ich sprach vorher um die Lücken der Penrose-Argumentation. Diese

sind keine Erklärungslücken, sondern formale Lücken. Und

diese haben wiederum die Form einer semantischen Zirkularität.Ob dies

ein Fehler ist, oder ob dies aus G einfach folgen muss, dies ist mir derzeit

nicht klar. auf jedenfall würde ich Penrose nicht mit einen Handschlag

abtun. In Shadows of the Mind sowie im virtuellen Magazin "Psyche" hat

er massenweise Gegenargumente bezüglich aller möglichen Kritiker

geschrieben. Ich denke, man sollte sich mal eingehend damit befassen, bevor

man, aufgrund mangelnder intuitiv-logischer Evidenzfähigkeit, Penrose

und somit auch Kurt Gödel (ein Verfechter des Mentalismus und Platonismus)

abtut. Es ist nicht meine Aufgabe, Penrose zu verteidigen. Dass soll er

selbst tun. Es ist nicht meine Idee. Und ich vertrete nicht gerne Ideen

anderer. Ich vertrete lieber meine Ideen. Aber die Ideen anderer können

mich auch begeistern. Und Penrose begeistert mich. Weil ich G für

wahr halte.


Ich bin der Ansicht, dass Deine Sicht der KI von der klassischen sog.

physical-symbol-hypothesis (Fodor) beeinflusst wird

(Janosch übrigens auch, allerdings mit entgegengetzter Schlussfolgerung).
Dies ist eine Sicht gegen die sich nahezu alle Attacken von philosophischen

Kritikern richten, aber auch Kritikern in der KI-selbst. Das hat schon

in den 80er Jahren zum aufkommen des Konnektionismus in all seinen Varianten

geführt. Die ganze sub-symbolische KI bleibt von Deiner Kritik vollkommen

unberührt, denn dort gibt es gar keine Deduktionssysteme, die aus

wahren Annahmen, wahre Schlussfolgerungen ziehen: ein neuronales Netz oder

ein genetischer Algorithmus, um nur die bekanntesten zu nennen, haben überhaupt

keine symbolische Struktur. Die große Frage der gegenwärtigen

Forschung ist doch, wie wir logische Systeme oder Symbolsysteme in den

viel allgemeineren subymbolischen Systemen beschreiben können, welche

dafür geeignet sind und vor allem wie man das zum funktionieren bringt.

Es kann natürlich sein, dass Penrose auf bestimmte Weise recht hat:

das Gehirn ist ein sich selbstorganisierendes nichtlineares System, dass

z.T. chaotisches Verhalten zeigt, wie z.B. W.Freeman am Riechhirn gezeigt

hat. Das zerstört algorithmische Ansätze von einer anderen Seite

her, welche die Physik  ernst nehmen. Dann benötigt man wirklich

einen Analogrechner wie den Quantencomputer oder besser noch ein anderes

Gehirn aus Feisch und Blut. Dass das Gehirn kein Digitalrechner im modernen

Sinne ist, ist eigentlich auch klar, da ihm eine programmierbare I/O-Schnittstelle

fehlt. Mir scheint, Penrose zieht seine ganze Argumentation mit Gödel

nur auf, um dadurch zu solchen Schlussfolgerungen zu gelangen, denn von

Hause aus betreibt er mathematische Physik in hochabstrakten algebro-geometrischen

Formalismen, die unglücklicherweise noch komplizierter sind als die

der schon komplizierten Stringtheorie ( die man ja notfalls immer noch

auf dem Kreis betreiben kann und nicht in projektiven Räumen ). Aber

man könnte dann auch symmetrisch argumentieren. Da der Computer auf

Halbleitertechnologie beruht, ist dem menschlichen Gehirn grundsätzlich

die Ausführung (welcher?) von Operationen verwehrt, die der Computer

ausführt. Das kann durchaus stimmen, sofern man davon ausgeht, dass

eine sehr aufwendige und komplexe Berechnung ein 'Ding' für sich ist.

Ich möchte nicht wissen, wie ein Mensch einen Wirbelsturm oder einen

Crashtest simuliert. Ich möchte mir keine Science-Fiction-Welt ausmalen,

in der superschnelle Rechner über geometrische Eigenschaften von Wirbelsturmsimulationsergebnissen

miteinander kommunizieren, aber wer weiß? Aus einer solchen Kommunikation

wären wir vermutlich total ausgeschlossen.


Mir fehlt immer eins: Die Betonung der Selbstreferenz in G und der

auftretenden Paradoxien, wenn man den externen Beobachter in das gödelisierte

Universum einführt. Und damit wären wir dort, wo ich persönlich

beginne und arbeite. Jenseits dieses virtuellen Raums ;)


Ay Prophet! Wo führst Du uns hin...?



Schamanische Grüsse,



MV


Wie... Du auch?

Gute Reise und Schamanische Grüsse,



Kay
















von Kay S - am 13.10.2000 13:24

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 13. Oktober 2000 15:44:48:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Kay S am 13. Oktober 2000 11:18:45:
Grüsse Kay,



ich werde diese Version des Halteproblems löschen und die Gödel/Turing Version näher erläutern. Das ist notwendig, denn aus diesen Formalismus, den Du hier verwendest, wird tatsächlich nichts offensichtlich, das auf nicht-recherische Entitäten verweist.
Ich habe weiter oben 3 Punkte aufgezählt, die vor Gödel/Turing "hard problems" in der analytischen Philosophie des Wiener Kreises und der damaligen Grundlagenforschung der Mathematik waren.
Gödel kam, und er erledigte 2 dieser Punkte. Doch ein Punkt ward noch offen, nämlich:
Ist die Mathematik entscheidbar, d.h., gibt es ein Verfahren, das für jede Aussage deren Wahrheit beziehungsweise Falschheit feststellt?
Kurz nach erscheinen der Arbeit Gödels machte sich Turing an das nun vor uns stehende Halteproblem ran.
Die Sätze Gödels, sowie Turings Halteproblem haben folgende gemeinsame Eigenschaften:
Gödel: Zeigte die Grenzen der formalen Beweisbarkeit wahrer mathematischer Sätze
Turing: Kann man ein Programm schreiben, welches beliebige Programme auf ihre Richtigkeit überprüft? Dabei darf es nicht passieren, dass die Maschine in eine Endlosschleife gerät, oder kurz, nicht anhält. Turings Antwort war: Nein, solch ein Programm zeigt die Grenzen der Programmierbarkeit.
Was ist eine Berechnung:
Die Tätigkeit einer Turing-Maschine
Was sind nicht-anhaltende Berechnungen?
[ Finde eine ungerade Zahl, die die Summe von zwei geraden Zahlen ist ]
Es ist klar, dass diese Berechnung nicht anhalten wird, da keine ungerade Zahl die Summe von zwei geraden Zahlen sein kann.
Wie wird entschieden, ob eine Berechnung nicht anhält?
Es gibt Fälle, wo es leicht ist, diese Frage zu entscheiden, in anderen Fällen ist es natürlich schwerer. So schwer, dass noch niemand eine Antwort hat.
Klar, dass man sich also einen Algorithmus A wünscht, der uns zeigt, dass Berechnungen, bei denen wir zu keinen Ende kommen, tatsächlich nie anhält.
Seit Gödel/Turing ist auch klar, dass es solch einen A nicht geben kann. Jede Menge von Regeln ist dafür unzureichend.
Halteproblem auf Gödel umgemünzt:
Sei C(n) eine Berechnung, die von einer natürlichen Zahl n abhängt.

C(n) liefert eine ganze Anzahl von Berechnungen -- für jede natürliche Zahl 0,1,,2,3,4,5,6,... somit jeweils Berechnung C(0), C(1), C(2)..die Realtion zu n ist berechenbar.
Für eine TM heisst dass, das sie C(n) für die Zahl n ausführt.

Zahl n sei Input, und TM beginnt zu rechnen.
Berechnung die von einer natürlichen Zahl n abhängt:
Q:[ Finde Zahl, die nicht Summe von n Quadratzahlen ist ]
Q hört nur dann auf, wenn n = 0, 1, 2, 3 ist, was Zahlen 1, 2, 3, 7 ergibt.
W:[ Finde ungerade Zahl, die Summe von n geraden Zahlen ist ]
W wird bei keinen n aufhören.
Frage: Mit welchem Verfahren kann man allgemein beweisen, dass solche Berechnungen nicht aufhören? Lässt sich solch ein Verfahren selbst in Form einer Berechnung bringen?
Das angenommene Rechenverfahren A:
Annahme: Es gibt ein Rechenverfahren A, dass, wenn es anhält, uns beweist, dass eine bestimmte Berechnung wie C(n) nie aufhört.
Wenn A zum Schluss kommt, C(n) halte nicht an, tut C(n) dies auch nicht. A, so die Annahme, liefert uns niemals falsche Antworten, A ist korrekt (bei Gödel sei es die Konsistenz des F - Systems).



Wenn A nicht korrekt ist, lässt sich dies nachweisen. Wenn A fälschlicherweise zeigt, dass C(n) niemals aufhört, und C(n) hört doch auf, würde Durchführung der Berechnung C(n) zu Widerlegung von A führen.
Ein allgemeines A:
Nun muss man die verschiedenen Berechnungen C(n) codieren, damit A mit dieser Codierung arbeiten kann.
Alle möglichen C wären
C0, C1, C2, C3, C4...
Sei Cq die q'te Berechnung. Solche Berechnung soll auf Zahl n angewendet werden:
C0(n), C1(n), C2(n) ect.
Diese Auflistung ist berechenbar (ähnlich Gödels Formelbaum in seiner Orginalarbeit) , so dass eine einzige Berechnung C° ein Cq liefert, wenn ihr q eingegeben wird. Die Berechnung C° wird auf das Zahlenpaar q,n angewendet, was dann Cq(n) ergibt.
Was ist jetzt A?
A ist jetzt eine Berechnung, die, wenn ihr Zahlenpaar q,n vorgelegt wird, versucht zu zeigen, dass Berechnung Cq(n) nicht aufhört.
Hört A auf, dann ist bewiesen, dass Cq(n) nicht aufhört.
Sei A die Menge aller Algorithmen, wie in obigen Beispiel. Dazufügen möchte ich, dass A jede korrekte Menge von Rechenregeln ist, mit der sich beweisen lässt, dass manche Berechnungen Cq(n) niemals anhalten.
Die Berechnung A's, die von q,n abhängt schreibt sich A(q,n)
Somit:
K Wenn A(q,n,) anhält, hält Cq(n) nicht an
Digonalverfahren like Gödel:
q = n
L Wenn A(n,n) anhält, hält nicht Cn(n) an (sei dies Gödels Onkel)
C(n,n) ist nun von einer Zahl n abhängig, so dass es eine der Berechnungen C0, C1, C2, C3.. sein muss. Angenommen, dies sei nun Ck. Dann:
L A(n,n) = Ck(n)
Diagonalverfahren: n = k

Aus L folgt
M A(k,k) = Ck(n)
und aus Gödels Onkel L mit n = k folgt:
N Wenn A(k,k) anhält, hält nicht Ck(k) an
Setzt man K in L ein folgt:
O Wenn Ck(k) anhält, hält Ck(k) nicht an
Wir können nun folgern, dass Ck(k) nicht anhält. Aber A(k,k) kann auch nicht anhalten, weil es wegen A(k,k) = Ck(n) dasselbe ist wie Ck(k).

Somit kann Verfahren A (Halteproblem) nicht zeigen, dass Berechnung Ck(k) nicht aufhört, obwohl sie nicht aufhört.
Wenn wir also A in seiner Korrektheit kennen, lässt sich eine Berechnung Ck(k) konstruieren, von der wir sehen können, dass sie niemals aufhört. Somit kann A Menschen nicht zur Verfügung stehen (wenn sie TM sind).



Folgerung: Gehirne verwenden zum Nachweis der Wahrheit mathematisch-logischer Sätze keinen erkennbar korrekten Algorithmus.
Wie bei Gödel gilt: Es gibt kein formales Rechenverfahren, dass entscheiden könnte, ob die Berechnung Ck(k) anhält oder nicht.
4 umstrittene Konsequenzen:
1. Konsequenz: Menschen können einsehen, dass Ck(k) nie anhält.

2. Konequenz: Es kann kein algorithmisches Verfahren geben, dass mir sagt, dass Ck(k) nie anhält

3. Konsequenz: Wenn Gehirne universelle TM sind, können Gehirne nicht einsehen, dass Ck(k) nie anhält

4. Konequenz:: Unseren Denkprozessen liegt etwas nicht-rechnerisches zugrunde, dass von einer TM nicht erfasst werden kann.
Die starke AI muss entschlüsseln, was hinter der Gödelgrenze steckt. Viele vermuten, dass dort Quantenprozesse stecken. Ich selbst weiss es nicht.



Nebenbei gesagt haben Gödels Unvollständigkeitssatz und Turings Halteproblem keine besondere technische Bedeutung. So etwa, wie man aus dem Beweis, dass es kein Perpetuum-Mobile geben kann, auch keine Bauanleitung für ein solches zu extrahieren vermag.
Ich hoffe, Du siehst dies nun etwas mehr relativiert.



Die etwas spöttische Äußerung Gödel sei "nur Philosoph"

kann nur jemandem eingehen, der den Wissenschaftsbetieb als etwas erlebt hat, dessen primäres Ziel die Selbsterhaltung ist, ungeachtet jeden Verständigungswunsches.



Ja, diese Äusserung stammte vom Institutsleiter selbst.



Das einzige Ziel der Mathematik besteht in der Erwirtschaftung eines "intellektuellen Mehrwertes", der sie am Laufen hält. Darin hat sich Gödel vielleicht nicht als Superproduzent erwiesen, an den alle anderen Produzenten anknüpfen können, anders als z.B. Gauß oder Riemann.



Eigentlich sollten Mathematiker froh sein, dass da in Wien ein gewisser Kurt Gödel gezeigt hat, dass die Mathematik die einzige Religion sei, die auch beweisen könne, dass sie eine Religion ist (wenn es etwas wahres gibt, dass aber formal nicht bewiesen werden kann )



Was einem selbst wichtig ist oder was prägenden Einfluss auf das Selbstverständnis der Mathematik oder die intellektuelle Kutltur insgesamt hat,

spielt dabei keine Rolle. Gödel hat, meine ich, die "Grundlagenkrise" der Mathematik mit ihren kryptoreligiösen Motiven beendet.



Genau. Das fällt z.b. in die 2 erwähnten Punkte.



Er hat nämlich, indem er durch sein Arithmetisierungsverfahren die "Metamathematik" erfand, die Mathematik durch sich selbst begründet. Sie war nun soetwas wie Subjekt geworden, dass sprach, statt sich durch Logik oder Anschauung auf etwas anderes zurückführen zu lassen ( bei Kronecker war es die 1 oder der Herr im Himmel ).
Die Mathematik wurde ein Subjekt das sprach. Aber sie wird nur sprechendes Subjekt, wenn da auch ein sprechendes Subjekt da ist, dass der sprechenden Mathematik zuhört. In Wahrheit aber ist das sprechende Subjekt der Mathematik gleich dem Subjekt, dass es ist, wenn es sich damit befasst; der Beobachter.



Shamen greets,

MV

















von Martin V - am 13.10.2000 13:44

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Janosch am 13. Oktober 2000 20:50:18:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 13. Oktober 2000 15:44:48:
Hallo,
> Wenn Ck(k) anhält, hält Ck(k) nicht an
Das scheint mir exakt das Argument zu sein, mit dem ich mich schon in meinem anderen Posting heute auseinandergesetzt habe ;).

Ich stimme auch zu, daß es kein Programm geben kann, daß dadurch, daß es anhält , signalisiert, daß es nicht anhalten wird...

Das ist in der Tat alles, was die von Dir angegebene Argumentation zeigt und dieses Resultat ist im Grunde trivial. Ich stimme keinesfalls zu, daß es keine Programme geben kann, die sehen können, daß sie nicht anhalten - sie dazu meine Gegenbeispiele im anderen Beitrag.
>Wir können nun folgern, dass Ck(k) nicht anhält.
Das Programm kann das unter Umständen auch folgern, aber es kann das nicht durch Selbstabschaltung mitteilen.
> Aber A(k,k) kann auch nicht anhalten, weil es wegen A(k,k) = Ck(n) dasselbe ist wie Ck(k).
Menschen bekommen ihre Überzeugungen auch nicht unbedingt erst in dem Moment, in dem sie anhalten ... *gg*
>Somit kann Verfahren A (Halteproblem) nicht zeigen, dass Berechnung Ck(k) nicht aufhört, obwohl sie nicht aufhört.
Aus den oben genannten Gründen ist mir diese Folgerung vollkommen uneinsichtig.

Das stärkste Argument sind dabei natürlich die von mir in dem anderen Beitrag angegebenen trivialen Gegenbeispiele gegen diese Behauptung.
>(...)

>1. Konsequenz: Menschen können einsehen, dass Ck(k) nie anhält.
Bei der Stärke der verwendeten Voraussetzungen wäre es auch traurig, wenn sie das nicht einsehen würden...
>2. Konequenz: Es kann kein algorithmisches Verfahren geben, dass mir sagt, dass Ck(k) nie anhält
Zu dieser Folgerung kann man nur durch diverse Fehlschlüsse kommen. Zusätzlich zu den Fehlschlüssen, auf die ich oben schon hingewiesen habe, ist hier beispielsweise der Fehlschluss notwendig, daß k für alle denkbaren Algorithmen konstant wählbar wäre.
Grüße,

Janosch.
















von Janosch - am 13.10.2000 18:50

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 13. Oktober 2000 22:30:16:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Janosch am 13. Oktober 2000 20:50:18:
Hallo,



Wenn Ck(k) anhält, hält Ck(k) nicht an

Das scheint mir exakt das Argument zu sein, mit dem ich mich schon in meinem anderen Posting heute auseinandergesetzt habe ;).



Ja, nur dass ich leider erst nach Ende meines postings Deinen Beitrag zu lesen bekam.



Ich stimme auch zu, daß es kein Programm geben kann, daß dadurch, daß es anhält , signalisiert, daß es nicht anhalten wird...



Bin ich froh. Und der selige Turing wird wohl auch froh von oben auf uns herabsehen. Aber genau diese Konsequenz ergibt sich, wenn man ein A will, dass anhält, wenn C(n) nicht anhält. A und C(n) werden, wie ich ja beschrieben habe, unweigerlich zu einer Endlosschleife oder besser, einer Möbiusschleife. Dann habe ich ein unmögliches "Programm", dass dadurch, dass es anhält, signalisiert, dass es nicht anhält, da damit Ak(k) = Ck(k) werden muss. Unser vermeindliches Entscheidungsverfahren A und was wir von A verlangen, zieht unweigerlich einen selbstbezüglichen Strudel mit sich.



Das ist in der Tat alles, was die von Dir angegebene Argumentation zeigt und dieses Resultat ist im Grunde trivial.



Naja, ob Turings Arbeit trivial war...für Janosch wärs wohl ein Kinderspiel gewesen ;)



Ich stimme keinesfalls zu, daß es keine Programme geben kann, die sehen können, daß sie nicht anhalten - sie dazu meine Gegenbeispiele im anderen Beitrag.



Es geht nicht darum, ob es Programme gibt, die sehen können, dass sie nicht anhalten, sondern es geht darum, dass es kein universelles Entscheidungsverfahren A(für Familien von Berechnungen n-abhängig) geben kann, dass mir sagt, ob eine Berechnung nicht anhält.
Ein Programm dass z.b. wie erwähnt prüfen soll, ob es eine ungerade Zahl gibt, die die Summe von n geraden Zahlen gibt, wird nicht anhalten. Und es ist ja kein Problem, diesem Programm (dieser Berechnung Cp aus einer ganzen Familie von Berechnungen) beizubringen, dass es bei einem solchen n-abhängigen Input von mir aus ausdruckt: Bei dieser Berechnung werde ich nicht anhalten, da die Summe aus geraden Zahlen immer gerade Zahlen sind und nie ungerade Zahlen. Eigentlich sollte dann dieses Programm auch anhalten --Stop.
Die Frage ist eine andere: Kann es für solche Programme / Berechnungen ein allgemeines Entscheidungsverfahren A geben, dass mir für diese Klasse nicht anhaltender Berechnungen einen Beweis liefert, dass sie nicht anhalten, indem A selbst anhält, um mir auch zu zeigen, was ich mir von A verlange.
Das ist etwas völlig anderes als Deine Programme. Niemand bestreitet, dass ein Programm, eine bestimmte Klasse von Berechnungen, sehr wohl so konzipiert werden kann, dass sie von sich selbst behaupten, sie würden nicht anhalten.
Gesucht ist etwas anderes - A. Und dies habe ich eigentlich sehr verständlich und klar in meinem posting dargelegt.



...Wir können nun folgern, dass Ck(k) nicht anhält...

Das Programm kann das unter Umständen auch folgern, aber es kann das nicht durch Selbstabschaltung mitteilen.



Ck(k) kann gar nichts folgern. Wenn etwas "folgern" sollte, dann Ak(k). Aber auch dieser kann nichts folgern, weil er dasselbe wie Ck(k) ist. Somit kann A nichts erreichen. Es kann nicht "folgern", oder sagen wir besser, beweisen, dass Ck(k) nicht anhält, weil es selbst Ck(k) ist.



...Aber A(k,k) kann auch nicht anhalten, weil es wegen A(k,k) = Ck(n)dasselbe ist wie Ck(k)...
Menschen bekommen ihre Überzeugungen auch nicht unbedingt erst in dem Moment, in dem sie anhalten ... *gg*



A ist Janusköpfig. Auf der einen Seite wird er als ein Algorithmus behandelt, der gewisse Eigenschaften hat, auf der anderen Seite kann an A als etwas sehen, dass wirklich der "Algorithmus ist, den wir selbst verwenden", um zur Überzeugung zu gelangen, dass Ck(k) nicht aufhört. Nur, wie aus meinem posting hervorgeht, ist A nicht möglich -- A kann kein Beweisverfahren sein. Die Schlussfolgerungen daraus, werden durch Deine Argumente nicht wirklich angegriffen. Ein Gehirn, falls es eine TM ist, hält bei "Ck(k) hält nicht an" weder an noch nicht an -- es verwendet keinen "bekannten" Algorithmus und kann deshalb keine reine TM sein. Dass ist wieder zu hart gesagt, doch verweise ich auf meine 4 Konsequenzen, die Du nun weiter unten zerpflückst, aber in meinem posting sehr schön eingegliedert sind.



Zu dieser Folgerung kann man nur durch diverse Fehlschlüsse kommen. Zusätzlich zu den Fehlschlüssen, auf die ich oben schon hingewiesen habe, ist hier beispielsweise der Fehlschluss notwendig, daß k für alle denkbaren Algorithmen konstant wählbar wäre.
Die ganze Argumentation in meinem posting hat die Struktur eines Reductio ad absurdum und nicht die Struktur eines Fehlschlusses. Ich kann weder einen Fehler in meiner Argumentation entdecken, noch sind die 4 Konsequenzen durch Dich widerlegt. Tatsache ist, dass alles, bis auf die 4 Konsequenzen, Turings Halteproblem per se ist. Nur, dass es im Kleid der Gödelschen Entdeckung formuliert wurde, was der Richtigkeit der Argumentation keinen Strich durch die Rechnung macht.



Greets, MV

















von Martin V - am 13.10.2000 20:30

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Janosch am 13. Oktober 2000 23:26:26:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 13. Oktober 2000 22:30:16:
Hallo,
>(...) Dann habe ich ein unmögliches "Programm", dass dadurch, dass es anhält, signalisiert, dass es nicht anhält, da damit Ak(k) = Ck(k) werden muss.
Ja - aber dieses Argument zeigt eben nicht, daß es kein Programm geben kann, das auf andere Weise signalisiert, daß es anhält oder nicht anhält.

Natürlich gibt es zu jedem Programm P ein Programm P', so daß P nicht korrekt vorhersagen kann, ob P' anhalten wird. Nur wird man P' nicht im Allgemeinen auch konstruieren können und man wird im Allgemeinen auch nicht in der Lage sein, zu entscheiden, ob P' nun anhält oder nicht und es wird ganz sicher nicht im Allgemeinen P'=P sein.
> (...)

>

>Das ist in der Tat alles, was die von Dir angegebene Argumentation zeigt und dieses Resultat ist im Grunde trivial.

>

>Naja, ob Turings Arbeit trivial war...für Janosch wärs wohl ein Kinderspiel gewesen ;)
Turings Leistung bestand hauptsächlich darin, eine schöne Verbindung zwischen Rechenmaschinen und rekursiven Funktionen gefunden zu haben. Das ist der nichttriviale Teil seiner Arbeit.

Das Diagonalisierungsargument ist tatsächlich einfach und in der Tat wurde der Beweis des Halteproblems in dem Logik-Kurs für Mathematiker, den ich besucht habe, als Übungsaufgabe gestellt, ohne daß jemand einen Hinweis in Richtung Diagonalisieren gegeben hätte.
>(...)

>Es geht nicht darum, ob es Programme gibt, die sehen können, dass sie nicht anhalten,
Doch, Dein Argument benutzt die "Tatsache", daß das Programm Ck nicht erkennen könne, daß es in Reaktion auf den Input k nicht anhalten werde. Sonst hast Du nämlich kein Problem mehr, das Ck nicht lösen kann, ein Mensch aber schon.

Das stimmt, aber dieses Problem kann ein Mensch auch nicht lösen.

Ganz konkret: nehmen wir an, unser Computerprogramm simuliere ein riesiges neuronales Netzwerk, das intelligent genug ist, um den Turing-Test zu bestehen und das gerade mit einem bahnbrechenden neuen Resultat über Metamengen-Lehre promoviert hat. Wie konstruierst Du ein Problem, das Du lösen kannst, das Computerprogramm aber nicht? Und wie zeigst Du, daß das Computerprogramm in mathematischen Fragen unfehlbar ist?

...und um auf die Schwierigkeiten beim Entscheiden des Halteproblems zurückzukommen - wie zeigst Du, das etwa nur das folgende ganz einfache Programm nicht anhält:
10 n=4

20 n=n+2:e=1

30 for i=1 to n

40 if prime(i) and prime(n-i) then e=0

50 next i

60 if e=0 then goto 20

70 end
>(...)

>Die Frage ist eine andere: Kann es für solche Programme / Berechnungen ein allgemeines Entscheidungsverfahren A geben, dass mir für diese Klasse nicht anhaltender Berechnungen einen Beweis liefert, dass sie nicht anhalten, indem A selbst anhält, um mir auch zu zeigen, was ich mir von A verlange.
Wieso sollte A anhalten, um Dir zu zeigen, wie der Beweis, den es sich ausgedacht hat, funktioniert? Ich verlange von meinen Mitmenschen auch nicht, daß sie gleich sterben oder mindestens in Ohnmacht fallen, nachdem sie mir etwas erklärt haben...

Aber natürlich kann es kein Entscheidungsverfahren für das Halteproblem geben, das dieses in allen Fällen mit mathematischer Sicherheit entscheidet. Solange Menschen das Halteproblem nicht in allen Fällen in garantiert endlicher Zeit mit mathematischer Sicherheit entscheiden können oder sie wenigstens in der Lage sind, zu jedem KI-Programm P ein Programm P' zu konstruieren, so daß ein Mensch, nicht aber die KI das Terminationsverhalten von P' mit absoluter Sicherheit vorhersagen kann, habe ich damit nicht im mindesten ein Problem.

Und das, was Du zeigst, ist eben um vieles, vieles, vieles schwächer als diese Aussage.
>(...)

>Gesucht ist etwas anderes - A. Und dies habe ich eigentlich sehr verständlich und klar in meinem posting dargelegt.
Ok - wenn Du nur nach einem Beweis gesucht hast für die These, daß Computerprogramme manche Probleme nicht lösen können, mit denen Menschen auch nicht klarkommen, bin ich einverstanden ;).
>

>...Wir können nun folgern, dass Ck(k) nicht anhält...

>Das Programm kann das unter Umständen auch folgern, aber es kann das nicht durch Selbstabschaltung mitteilen.

>

>Ck(k) kann gar nichts folgern.
Wieso dieses? *nichtversteh*
> (...) Es kann nicht "folgern", oder sagen wir besser, beweisen, dass Ck(k) nicht anhält, weil es selbst Ck(k) ist.
Das verstehe ich auch nicht.

Mein Programm entscheidet ganz eindeutig, daß es selbst nicht anhalten wird, wenn man es danach fragt, ob es anhalten wird, und es könnte auf triviale Weise so modifiziert werden, daß es auch einen Beweis dafür ausdruckt.

Es handelt sich hier zwar um das denkbar trivialste Gegenbeispiel gegen Deine Behauptungen, aber es ist ein Gegenbeispiel.
>(...)

>A ist Janusköpfig. Auf der einen Seite wird er als ein Algorithmus behandelt, der gewisse Eigenschaften hat, auf der anderen Seite kann an A als etwas sehen, dass wirklich der "Algorithmus ist, den wir selbst verwenden", um zur Überzeugung zu gelangen, dass Ck(k) nicht aufhört.
Ja - und wie wir nach dieser Erkenntnis nicht aufhören, zu funktionieren, muss auch A nicht nach dieser Erkenntnis alle Tätigkeiten einstellen.
> (...) Ein Gehirn, falls es eine TM ist, hält bei "Ck(k) hält nicht an" weder an noch nicht an --
Wie war das noch mit dem ausgeschlossenen Dritten?
> es verwendet keinen "bekannten" Algorithmus und kann deshalb keine reine TM sein.
Achso. Nur damit ich das richtig verstehe - Du behauptest, daß ein System, das keine bekannten und beweisbar unfehlbaren terminierenden Algorithmen benutzt, gar nicht algorithmisch beschreibbar ist?
>(...)

>(...) Tatsache ist, dass alles, bis auf die 4 Konsequenzen, Turings Halteproblem per se ist.
Es stimmt, daß man den Beweis des Halteproblems auf den von Dir angegebenen Beweis zurückführen kann. Dabei verliert man aber die Konstruierbarkeit des "Zeugen" der Unlösbarkeit des Halteproblems und davon abgesehen bräuchte man, um Deine Konsequenzen zu bekommen, über diese Konstruierbarkeitsbedingung hinaus noch die Möglichkeit eines Unfehlbarkeitsbeweises für nichttriviale unfehlbare Theorembeweiser.
Grüße,

Janosch.
















von Janosch - am 13.10.2000 21:26

Re: Ein Universum voller Widersprüche

Geschrieben von Janosch am 14. Oktober 2000 11:03:44:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Kay S am 13. Oktober 2000 15:24:45:
Hallo,
>(...)

>Niemand von uns hat ja behauptet, dass sich G im System konstruieren

>lässt, für das er gebaut wurde.
Konstruieren könnte eine KI den Gödel-Satz für den eigenen Theorembeweiser schon. Jenseits-aller-Zweifel-beweisen nicht, wenn der Theorembeweiser unfehlbar ist, weil dieser dann nicht fähig ist, zu beweisen, daß auf ihn die Voraussetzungen des Gödel-Satzes zutreffen.

Wenn es - wie bei nichtsymbolgestützten KI-Systemen - gar keine deutliche Unterscheidung gibt zwischen der Maschinerie, die für formales Folgern und der, die für weniger sichere Formen des Denkens benutzt wird, könnte auch das Konstruieren zu einer schwierigen Aufgabe werden.
>(...)

>Ich bin der Ansicht, dass Deine Sicht der KI von der klassischen sog.

>physical-symbol-hypothesis (Fodor) beeinflusst wird

>(Janosch übrigens auch, allerdings mit entgegengetzter Schlussfolgerung).
Ich bin da undogmatisch. Man sollte in der KI-Forschung jede Technik einsetzen, die die Problemlösungsfähigkeiten der zu konstruierenden Systeme maximiert.

Der massiv parallel konnektionistische Ansatz ist dabei sehr gut geeignet für Systeme, die aus vielen relativ langsamen Komponenten bestehen - wie etwa das menschliche Gehirn eines ist. Derzeit bestehen Computer aus vergleichsweise wenigen sehr schnellen Komponenten, und obwohl derartige Systeme natürlich jedes massiv parallele System mit gleicher Rechenkapazität simulieren können (was umgekehrt nicht geht), hängen natürlich die optimalen Problemlösungs-Algorithmen für einen gegebenen Computer von dessen Architektur ab.

In einigen Jahrzehnten werden Computer vermutlich aus sehr vielen Komponenten bestehen, die aber immer noch schnell sein werden. Daher denke ich, daß auch dann "optimal intelligente" KIs anders funktionieren werden als Menschen.

Ein weiterer Unterschied zwischen künstlichen Rechenanlagen und Gehirnen besteht sicherlich in der Tatsache, daß ein künstlicher Computer in seinen Denkmethoden viel flexibler sein kann als ein Gehirn, weil das Laden neuer Programme in den Arbeitsspeicher und die Vergrößerung der Rechenkapazität, die einem bestimmten Prozess zur Verfügung steht, nicht wie im Gehirn nur durch Veränderungen der Hardware erreicht werden kann. Auch dieser Unterschied sollte Folgen für die Programmstruktur optimal intelligenter Systeme haben.

Kurz: ich habe nichts gegen Konnektionismus, aber die konnektionistische Architektur des Gehirns ist vermutlich letzten Endes nur eine für biologische und durch Evolution entstandene Systeme besonders gute Lösung.
>(...) Die ganze sub-symbolische KI bleibt von Deiner Kritik vollkommen

>unberührt, denn dort gibt es gar keine Deduktionssysteme, die aus

>wahren Annahmen, wahre Schlussfolgerungen ziehen: ein neuronales Netz oder

>ein genetischer Algorithmus, um nur die bekanntesten zu nennen, haben überhaupt

>keine symbolische Struktur.
Wenn die Kritikpunkte aus der Berechenbarkeitstheorie mathematisch einleuchtend wären , dann würden sie auch die konnektionistischen Ansätze treffen, weil diese nicht die Möglichkeit eröffnen, unberechenbare Probleme sicher zu lösen. Nichtsymbolisch arbeitende KI-Systeme sind allerdings sehr gut dazu geeignet, um zu zeigen, daß man bei Beweisen zu Theoremen zu Grenzen der algorithmischen Entscheidbarkeit nicht erwarten kann, daß man zu einem System eine ausführbare Konstruktionsvorschrift findet, die ein für das betrachtete System unlösbares Problem liefert.

Tatsächlich gab es in den sechziger Jahren ja bereits konnektionistische Ansätze in der KI-Forschung, bis Minsky und Papert eine Reihe von mathematischen Theoremen bewiesen, die fälschlicherweise von vielen so interpretiert wurden, sie würden zeigen, daß beliebige künstliche neuronale Netze gewisse für Menschen einfache Probleme nicht lösen könnten. Danach war die Forschung auf diesem Gebiet für fast zwei Jahrzehnte so gut wie tot.

Die Penrose-Diskussion betreffend werden hier übrigens zwei Dinge deutlich:

a) KI-Forscher akzeptieren richtige mathematische Unmöglichkeits-Beweise

b) es ist gefährlich, die Voraussetzungen eines mathematischen Satzes zu vergessen und dadurch zu starken und einfachen, aber leider falschen Behauptungen zu kommen und diese dann für mathematisch einsichtig zu halten.
(...) Dass das Gehirn kein Digitalrechner im modernen

>Sinne ist, ist eigentlich auch klar, da ihm eine programmierbare I/O-Schnittstelle

>fehlt.
Mein Schachcomputer hat auch keine freiprogrammierbare Schnittstelle.

Der Digitalrechner in der Mikrowelle oder im Taschenrechner auch nicht.

Von Spezialrechnern ganz zu schweigen.
Grüße,

Janosch.
















von Janosch - am 14.10.2000 09:03

Re: Ein Universum voller Widersprüche

Geschrieben von Kay S am 14. Oktober 2000 13:05:49:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Janosch am 14. Oktober 2000 11:03:44:
>Hallo,

>>(...)

>>Niemand von uns hat ja behauptet, dass sich G im System konstruieren

>>lässt, für das er gebaut wurde.

Konstruieren könnte eine KI den Gödel-Satz für den eigenen Theorembeweiser schon. Jenseits-aller-Zweifel-beweisen nicht, wenn der Theorembeweiser unfehlbar ist, weil dieser dann nicht fähig ist, zu beweisen, daß auf ihn die Voraussetzungen des Gödel-Satzes zutreffen.


Das entspricht auch genau meiner Ansicht.



Wenn es - wie bei nichtsymbolgestützten KI-Systemen - gar keine deutliche Unterscheidung gibt zwischen der Maschinerie, die für formales Folgern und der, die für weniger sichere Formen des Denkens benutzt wird, könnte auch das Konstruieren zu einer schwierigen Aufgabe werden.
Stimmt, aber das menschliche Gehirn leistet dies recht gut, wenn auch nicht sehr gut :-). Meiner Ansicht nach rühren einige der Schwierigkeiten, die das menschliche Gehirn mit logischem Denken hat daher, dass es sequentielle, rekursive Algorithmen auf einer Hardware laufen lassen muss, die eigentlich für ganzheitliche Gestalterkennung optimiert ist. Andererseits ist diese Gestalterkennung immer auch ein Aspekt des unseres logischen Denkens, dass wir durch sehr viel Aufwand 'wegformalisieren' können, so dass wir uns, wie Penrose wundern, dass unsere Intuition so gut funktioniert, wenn wir sie durch den Formalisierungsprozess doch eigentlich ausgeschaltet haben müssten.

Sie bindet sich dann eben an die formalisierte Sprache selbst.
>>(...)

>>Ich bin der Ansicht, dass Deine Sicht der KI von der klassischen sog.

>>physical-symbol-hypothesis (Fodor) beeinflusst wird

>>(Janosch übrigens auch, allerdings mit entgegengetzter Schlussfolgerung).

Ich bin da undogmatisch. Man sollte in der KI-Forschung jede Technik einsetzen, die die Problemlösungsfähigkeiten der zu konstruierenden Systeme maximiert.

Der massiv parallel konnektionistische Ansatz ist dabei sehr gut geeignet für Systeme, die aus vielen relativ langsamen Komponenten bestehen - wie etwa das menschliche Gehirn eines ist. Derzeit bestehen Computer aus vergleichsweise wenigen sehr schnellen Komponenten, und obwohl derartige Systeme natürlich jedes massiv parallele System mit gleicher Rechenkapazität simulieren können (was umgekehrt nicht geht), hängen natürlich die optimalen Problemlösungs-Algorithmen für einen gegebenen Computer von dessen Architektur ab.

>In einigen Jahrzehnten werden Computer vermutlich aus sehr vielen Komponenten bestehen, die aber immer noch schnell sein werden. Daher denke ich, daß auch dann "optimal intelligente" KIs anders funktionieren werden als Menschen.

>Ein weiterer Unterschied zwischen künstlichen Rechenanlagen und Gehirnen besteht sicherlich in der Tatsache, daß ein künstlicher Computer in seinen Denkmethoden viel flexibler sein kann als ein Gehirn, weil das Laden neuer Programme in den Arbeitsspeicher und die Vergrößerung der Rechenkapazität, die einem bestimmten Prozess zur Verfügung steht, nicht wie im Gehirn nur durch Veränderungen der Hardware erreicht werden kann. Auch dieser Unterschied sollte Folgen für die Programmstruktur optimal intelligenter Systeme haben.

>Kurz: ich habe nichts gegen Konnektionismus, aber die konnektionistische Architektur des Gehirns ist vermutlich letzten Endes nur eine für biologische und durch Evolution entstandene Systeme besonders gute Lösung.
Das ist auch meine Ansicht. Ich glaube, wir brauchen einen Systemmix, der aber nicht in einfacher Aufgabenteilung in einem hybriden System bestehen kann, bei dem die Wahrnehmung mal den Logiker aufruft und umgekehrt. So lässt sich das vermutlich nicht programmieren. Minsky hatte ein solches System 1985 in seinem Buch "Mindcity" vorgeschlagen, aber da ist nichts vorangekommen.



Es gibt die Idee Meta-Algorithmen zu konstruieren, die zur Laufzeit des Programmes aus dem Eingabedatenstrom, Entscheidungen für die Konstruktion konkreter Algorithmen treffen, die sie dann eigentlich erst konstruieren.

Die Meta-Programmierung befindet sich noch in einem sehr frühen Stadium und es gibt sie als eigene KI-Richtung eigentlich gar nicht.

Solche Algorithmen sind sehr schwer zu konstruieren, auch für kleine Probleme, und ihr Erfolg ist oft ungewiß. Ich selbst habe vor einigen Jahren einmal einen Meta-Algorithmus zur Lösung von Optimierungsaufgaben für stetige Funktionen mit Techniken des künstlichen Lebens geschrieben. Der zeigte jedoch ein instabiles Verhalten, dass sich wohl auch auf den Problemraum (allgemeine stetige Funktionen) zuückführen ließ, in der Adaptierbarkeit schlecht funktioniert.
>>(...) Die ganze sub-symbolische KI bleibt von Deiner Kritik vollkommen

>>unberührt, denn dort gibt es gar keine Deduktionssysteme, die aus

>>wahren Annahmen, wahre Schlussfolgerungen ziehen: ein neuronales Netz oder

>>ein genetischer Algorithmus, um nur die bekanntesten zu nennen, haben überhaupt

>>keine symbolische Struktur.
Wenn die Kritikpunkte aus der Berechenbarkeitstheorie mathematisch einleuchtend wären , dann würden sie auch die konnektionistischen Ansätze treffen, weil diese nicht die Möglichkeit eröffnen, unberechenbare Probleme sicher zu lösen.
Davon ist auszugehen.



Nichtsymbolisch arbeitende KI-Systeme sind allerdings sehr gut dazu geeignet, um zu zeigen, daß man bei Beweisen von Theoremen, zu Grenzen der algorithmischen Entscheidbarkeit, nicht erwarten kann, daß man zu einem System eine ausführbare Konstruktionsvorschrift findet, die ein für das betrachtete System unlösbares Problem liefert.



Ich glaube, man kann dies auch in Kombination mehrerer symbolischer Systeme zeigen. Ohnehin sollte die nichtsymbolische KI in der Lage sein multiple nicht verträgliche Symbolsysteme zu erzeugen, ohne dass der zugrundeliegende subsymbolische Algorithmus irgendwelche Fehler aufwiese, so wie unser Gehirn ja auch viele natürliche Sprachen interpretieren kann.
Tatsächlich gab es in den sechziger Jahren ja bereits konnektionistische Ansätze in der KI-Forschung, bis Minsky und Papert eine Reihe von mathematischen Theoremen bewiesen, die fälschlicherweise von vielen so interpretiert wurden, sie würden zeigen, daß beliebige künstliche neuronale Netze gewisse für Menschen einfache Probleme nicht lösen könnten. Danach war die Forschung auf diesem Gebiet für fast zwei Jahrzehnte so gut wie tot.

Ja, die Geschichte mit dem One-Layer-Peceptron.



Die Penrose-Diskussion betreffend werden hier übrigens zwei Dinge deutlich:

a) KI-Forscher akzeptieren richtige mathematische Unmöglichkeits-Beweise

b) es ist gefährlich, die Voraussetzungen eines mathematischen Satzes zu vergessen und dadurch zu starken und einfachen, aber leider falschen Behauptungen zu kommen und diese dann für mathematisch einsichtig zu halten.



Dem stimme ich zu. Gödels Satz operiert zwar mit starken Voraussetzungen, stark genug zumindest, um ein ganzes Forschungsprogramm zu erledigen, aber doch nicht mit solchen, dass wir genötigt wären, das logische Denken aufzugeben.


>(...) Dass das Gehirn kein Digitalrechner im modernen

>>Sinne ist, ist eigentlich auch klar, da ihm eine programmierbare I/O-Schnittstelle

>>fehlt.

>Mein Schachcomputer hat auch keine freiprogrammierbare Schnittstelle.

>Der Digitalrechner in der Mikrowelle oder im Taschenrechner auch nicht.

>Von Spezialrechnern ganz zu schweigen.
Nu ja. Ist schon so. Aber solche Embedded-Systems werden auch nicht mehr verändert,nach iherer Installation, was man vom Gehirn nicht behaupten kann.

Aber lassen wir das...
Gruß

Kay


















von Kay S - am 14.10.2000 11:05

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 14. Oktober 2000 13:41:52:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Kay S am 14. Oktober 2000 10:53:14:
Hallo Kay,



....Somit kann A Menschen nicht zur Verfügung stehen (wenn sie TM sind)....
Auch sonst nicht.



Ist das nicht toll? Es gibt keinen A und doch scheint ein A "in uns" intuitionistisch zu berechnen, dass Ck(k) nie anhält. Und, damit die Logik zwingender wird, die 4 Konsequenzen dazu, und etwas Turing-These (alles was rechnerisch ist, ist von der physikalischen Feinkörnigkeit abhängig, auf der eine Maschine läuft / Eine TM kann alles berechnen, was klassisch rechnerisch ist), Church - Turing Thesen, Lamda-Kalküle ect. dann kann man aus diesem hochspeziellen Verfahren sofort und ohne Umschweife erkennen:
Schau, der Kaiser ist nackt, naja, ne Unterhose hat er noch an.



Ich glaube, mir wird das langsam langweilig. Du scheinst eine Argumentationsstrategie der Ermüdung zu verfolgen. Dieselbe These so oft wiederholen, bis jeder 'Gute Nacht!' sagt (vielleicht bleibt Janosch ja auf?).



Ich habe mich nicht wiederholt. Ich habe Gödel auf Turing umgelegt. Wenn es dich langweilt, warum mich nicht? Manchmal glaube ich, ich muss es mit Zombies zu tun haben (im Chalmers`schen Sinn). Der Eine langweilt sich und weiss doch nicht warum, der Andere baut sich ein kleines Programm, dass auf Inut n einen selbstbezüglichen Satz liefert, dass er nicht anhalte, und damit sei widerlegt, dass es keinen A geben kann, der mir sagt, ob ein Programm wie CJ(J) nicht anhalte. Das CJ(J) sei das Janosch-Programm, codiert wird es in die uralte Sprache der Turing Maschine und soll eine C1,C2,........von vielen sein, wobei Janosch-Programm dann eines der Berechnungen ist, wo ich ein A nicht brauche, da es mir ja sagen kann, dass es nicht anhält, wenn ich es durch Eingabe n frage.
usw.



Dass A nicht konstruierbar ist und auch der Mensch das Halteproblem nicht lösen kann sollte eigentlich bingo sein. Worauf Du unermüdlich herumreitest, ist die Aussage, dass deswegen C(k) nur von Menschen als 'unhaltbar' erkannt werden kann.



Fix, in diesen Fall siehst Du doch, dass Ck(k) nicht anhält, oder?
Und, was sagst Du noch weiter oben? A kann Menschen für diese Berechnung (wenn wir voraussetzen das Hirn iss ne universelle TM) nicht zur Verfügung stehen. Es gibt keinen A, der mir Auskunft liefert: Tk(k) hält nie. Daraus folgen 4 Konsequenzen, die ich ja unterstrich, dass sie "umstritten" seien.
Wer ist wohl ermüdet? Ich muss erkennen, dass sich niemand von Euch jemals genau mit der P-These auseinander(..)gesetzt hat. Ich erkenne dies daran, dass Kritikpunkte kommen, die Penrose schon lange, auf vielen Seiten, widerlegen konnte. Nicht alle, aber die Meisten sehr wohl. U.a. Psyche-Journal ect.
Also bitte lieber Kay, schreib mir jetzt nicht, dass ich ermüde oder mich wiederhole. Das macht mich etwas angfressn`, oder auf Ösi: Grantig. Sehr grantig.
Zu Kay & Janosch: Heute Abend gehts weiter. Muss was erledigen.



MV *grrr*
















von Martin V - am 14.10.2000 11:41

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Janosch am 14. Oktober 2000 16:51:18:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 14. Oktober 2000 13:41:52:
Hallo,
>Fix, in diesen Fall siehst Du doch, dass Ck(k) nicht anhält, oder?

>Und, was sagst Du noch weiter oben? A kann Menschen für diese Berechnung (wenn wir voraussetzen das Hirn iss ne universelle TM) nicht zur Verfügung stehen. Es gibt keinen A, der mir Auskunft liefert: Tk(k) hält nie.
Ich gebe hier noch einmal Deine Argumentation wieder, damit Du mir sagen kannst, ob ich sie richtig verstehe.
Sei T0,T1,T2,... eine Liste aller Turingmaschinen. Sei nun k Element N so gewählt, daß Tk eine Turing-Maschine mit der Eigenschaft ist, daß auf einem Band, auf dem sie anhält, anfänglich die ASCII-Darstellung einer Zahl n zu finden war mit der Eigenschaft, daß Tn auf demselben Band nicht angehalten hätte. Angenommen, Tk hält auf dem Band, auf dem ursprünglich die Zahl k zu finden war, an, dann folgt hier, daß Tk auf diesem Band nicht anhalten würde, was ein Widerspruch ist.

Also kann Tk nicht erkennen, daß Tk auf dem Band, das anfänglich mit der ASCII-Darstellung der Zahl k beschrieben war, nicht anhält; denn sie kann uns das ja nicht mitteilen, indem sie anhält.
So - und falls damit Dein Argument richtig dargestellt sein sollte, wäre ich Dir sehr verbunden, wenn Du erläutern könntest, welche der folgenden Aussagen hierzu Du anzweifelst:
(a) Die gegebene Argumentation sagt über die Erkenntnisgrenzen von (beweisbar unfehlbaren) Computern nicht mehr aus als die gleichermassen erschütternde Unfähigkeit von (beweisbar unfehlbaren) Studenten, nach dem Aufwachen durch Einnahme eines starken Schlafmittels vorherzusagen, daß sie auch die Frühvorlesung besuchen würden.

(b) Die Turing-Maschine Tk könnte während der Zeit, in der sie nicht anhält, durchaus ein Buch auf ihr Band schreiben, in dem sie wortreich ausführt, warum Tk in Reaktion auf den Input k nicht anhält. MartinV sieht darin einen Beweis für ihre Unfähigkeit, ihr eigenes Anhalten zu erkennen.

(c) MartinV kann das Halteproblem nicht lösen, auch wenn die zu MartinV äquivalente Turing-Maschine Tm in Reaktion auf den Input m vielleicht ausführlich beschreiben mag, warum Tm nicht erkennen kann, daß sie in Reaktion auf den Input m nicht anhält, weil Tm ja nicht in der Lage ist, uns das dadurch zu signalisieren, daß sie in Reaktion auf den Input m anhält.
Grüße,

Janosch.
















von Janosch - am 14.10.2000 14:51

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 14. Oktober 2000 17:18:31:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Janosch am 13. Oktober 2000 23:26:26:
Hallo Janosch,



Also, es dreht sich alles eigentlich ummer nur um eines: Die berühmte Konsistenz-Anahme. Egal ob man mit Turing oder Gödel kommt.
Ich will mal Putnam sprechen lassen (Putnam = Janosch, aber Putnam ist Philosoph!), oder besser, seinen Aufsatz zusammenfassen:



Einige andere Philosophen (z.B. Nagel und Newman) argumentieren im Zusammenhang mit dem Gödelschen Theorem, wonach in jedem genügend reichhaltigen logischen System Sätze formuliert werden können, die man innerhalb des Systems weder beweisen noch widerlegen kann, es sei denn, das System ist selbst möglicherweise inkonsistent.", dass das menschliche Gehirn weitaus komplexer ist als jede Turingmaschine, die bisher konzipiert wurde, dass diese dann also auch nicht als Modell des menschlichen Geistes dienen kann. Putnam versucht zu zeigen, daß diese Philosophen einem Irrtum aufgelaufen sind.
Basierend auf den Annahmen, daß dieses Theorem gilt und daß es eine Turingmaschine T gibt, die einen Menschen (im Speziellen: ihn selbst) "in dem Sinne "repräsentiert", daß sie genau die mathematischen Aussagen beweisen kann, die ich beweisen kann", mutmasst Putnam, daß die oben erwähnten Philosophen nun zu dem Schluss gekommen sind, daß es möglich sei, eine Aussage zu finden, die von der Turingmaschine nicht bewiesen werden kann. Wenn dieses aber der Fall ist, dann kann der Mensch die Aussage aber trotzdem beweisen, folglich (so Nagel und Newman) repräsentiert die Maschine den Menschen nicht, d.h. der Mensch ist keine Turingmaschine. Putnam ist nunmehr der Meinung, daß der Fehlschluss schlicht und einfach eine Fehlanwendung des Gödelschen Theorems" sei, denn bei gegebener beliebiger Turingmaschine T (die unter Umständen einen Menschen repräsentiert), kann nur eine Aussage U gefunden werden, für die man die Aussage beweisen kann:



"Wenn T widerspruchsfrei ist, dann ist U wahr, wobei U für T unentscheidbar ist."



Vorausgesetzt den Fall, dass dieser "Beweis" angetreten werden kann, kann davon ausgegangen werden, daß die Turingmaschine diese Aussage auch beweisen kann. Die Gültigkeit des Gödelschen Theorems spricht also nach Putnam nicht gegen die Annahme, daß Turingmaschinen Menschen repräsentieren können.



Im wesentlichen auch Dein Argument. Im wesentlichen auch das stärkste Argument gegen Penrose. Nun hatte ich ja die Vermutung, dass Penrose einen semantisch zirkulären Schluss vollzieht. Ich möchte diesen Schluss aufrollen und aufzeigen, dass man aufgrund der Konsistenz-Annahme nicht auf die Wahrheit gewisser mathematischer Sätze schliessen kann. Der Abschluss des G Satzes war also nur möglich unter der Annahme, beweisbare Sätze seien auch wahr.

Folgendes Argument spricht aber gegen diese Annahme:
Konsistenz impliziert die Wahrheit beweisbarer Sätze nur, wenn man auch Vollständigkeit annimmt: Wenn ein Satz beweisbar ist, seine Negation aber wahr wäre, dann folgt aus der Vollständigkeit, dass die Negation auch beweisbar wäre, was im Widerspruch zur Konsistenz ist. Vollständigkeit aber dürfen wir nicht annehmen, denn wenn man G konstruiert, sind wir gerade dabei, einen Unvollständigkeitssatz zu beweisen. Also dürfen wir aus der Konsistenz des Systems, nicht auf die Wahrheit beweisbarer Sätze schliessen.
Das, so denke ich, muss der Penrossche Zirkel sein, der hier aufgerollt wird.

Deine hypothetische Theorembeweismaschine kann demnach auch nicht aus der angenommenen Konsistenz des Systems, auf die Wahrheit dieses speziellen Satzes kommen (aus F widerspruchsfrei folgt G(f)).
Der "Wahrheitsbegriff" ist und bleibt seid Gödel ein unreduzierbarer metamathematischer Wahrheitsbegriff.



eiligst,

MV
















von Martin V - am 14.10.2000 15:18

Re:

Geschrieben von Janosch am 15. Oktober 2000 02:20:30:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 14. Oktober 2000 17:18:31:
Hallo,
>Also, es dreht sich alles eigentlich ummer nur um eines: Die berühmte Konsistenz-Anahme. Egal ob man mit Turing oder Gödel kommt.
Ich finde, daß ich überzeugend noch auf eine Reihe weiterer schwerer Probleme hinweisen konnte, aber das Problem, daß man im Beweis des Unvollständigkeitssatzes die Konsistenz braucht, ist in der Tat eines der schlimmsten ;).
> Der Abschluss des G Satzes war also nur möglich unter der Annahme, beweisbare Sätze seien auch wahr.
Ok, dazu müssen wir definieren, was wir hier mit "Wahrheit" meinen.

In der mathematischen Logik redet man grundsätzlich nur davon, daß ein Satz in einer Sprache L in einer bestimmten Struktur M unter einer bestimmten Interpretation der im Satz vorkommenden Symbole wahr sei. Dabei ist die Interpretation eine Abbildung f:L--->M, die allen Individuenkonstanten aus L Elemente der Menge M und allen in der Sprache vorkommenden Relationssymbolen Relationen über M zuordnet (o.B.d.A. kann davon ausgegangen werden, daß L keine Funktionssymbole enthält).

Man definiert dann durch Induktion über die Struktur der vorkommenden L-Sätze auf vollkommen im Rahmen von ZFC nachvollziebare Weise, wann ein Satz S wahr in M ist. Dann sagt man, eine Struktur M sei ein Modell einer Theorie T, wenn in M alle Sätze aus T wahr sind und der Korrektheitssatz versichert uns, daß alle Sätze, die aus einer Formelmenge A klassisch hergeleitet werden können, auch in jedem Modell von A wahr sind. Umgekehrt sagt uns der gödelsche Vollständigkeitssatz, daß alles, was in allen Modellen einer Formelmenge A wahr ist, auch klassisch hergeleitet werden kann.

Auf unentscheidbare Aussagen zu einer Theorie T angewendet bedeutet das, daß es Modelle der Theorie gibt, in denen sie wahr sind und solche, in denen sie falsch sind, falls die Theorie konsistent ist. Anders gesprochen: genauso, wie es zu einer konsistenten Arithmetik umfassenden Theorie eine Struktur gibt, in der G(T) wahr ist, gibt es auch eine, in der G(T) falsch ist.

Der Unvollständigkeitssatz bringt uns dann die Erkenntnis, daß in jeder Theorie, in der beliebige berechenbare Relationen über den natürlichen Zahlen definiert werden können, Sätze existieren, die von dieser Theorie unabhängig sind und in der Struktur der natürlichen Zahlen wahr. Auf diese Struktur nehmen wir wiederum mit Mitteln der Mengenlehre Bezug, indem wir sie bis auf (ZFC-)Isomorphie über die Peano-Axiome definieren.

Die Frage, ob der Unvollständigkeitssatz dann in ZFC beweisbar ist, ist relativ einfach zu klären und positiv zu beantworten; denn offensichtlich kann man in ZFC alle (letztlich) mengentheoretischen Begriffe (logische Sprachen, die Gödelisierungsfunktionen für Sätze und Herleitungen, Konsistenzbedingungen für Theorien, die Menge der natürlichen Zahlen etc.) definieren, auf die im Beweis Bezug genommen wird, und man kann mit diesen Begriffen exakt so umgehen, wie man es im Beweis tun muss.

Da der Beweis des Unvollständigkeitssatzes auf dieser Ebene sehr lang ist und nicht einmal in Mathematik-Lehrbüchern üblicherweise vollständig dargestellt wird, bitte ich um Verständnis, wenn ich das hier nicht im Detail vorführe, sondern es Dir überlasse, Dir Teile des Beweises zu suchen, die Du für nicht ZFC-formalisierbar hältst. Ich will mich hier nur mit den letzten Schritten des Beweises befassen, weil ich davor nicht sehe, wo man irgendeinen Zweifel daran haben könnte, daß man im Grunde normale Mathematik macht.

Also, wir haben eine als konsistent vorausgesetzte Theorie T, die mindestens eine Minimal-Arithmetik beweist und wir haben eine Ungleichung G(T), von der wir zeigen wollen, daß sie in den natürlichen Zahlen wahr, aber in T unbeweisbar ist. Angenommen, nicht G(T) in den natürlichen Zahlen. Dann gibt es eine natürliche Zahl n, die Gödel-Nummer einer Herleitung von G(T) ist. Da die Gödelisierungsfunktion für Herleitungen den Zielbereich N hat, findet man dann auch eine Herleitung von G(T), woraus G(T) Element T folgen würde nach Definition des Herleitungsbegriffs. Nach Korrektheitssatz wäre dann G(T) in allen Modellen von T wahr. Aber aus der Voraussetzung "enthält Minimal-Arithmetik" folgt leicht, daß jedes Modell von T eine Teilmenge enthält, die zu den natürlichen Zahlen isomorph ist und in dieser wäre dann G(T) schon falsch. Widerspruch zur Annahme und Beweis fertig.
Was ist nun also Deiner Meinung nach hier nicht normale Mengenlehre?
Aus diesen Überlegungen ergibt sich übrigens ein weiteres Argument gegen die Penrose-Thesen: weil nämlich auch eine beliebig verstärkte Mengenlehre nicht alle Fragen über natürliche Zahlen entscheiden kann, versichert uns der Unvollständigkeitssatz, daß es Fragen der Arithmetik gibt, zu deren Lösung man beispielsweise die Konsistenz von ZFC beweisen muss. Und dabei scheitern Menschen ja :).

Im übrigen wäre Dein Argument - daß Konsistenz angeblich eine in irgendeinem Sinne schwächere Bedingung als Korrektheit sei - für meine oder Putnams Argumentation vollkommen unerheblich oder würde sie sogar noch verstärken; denn wenn man zum Beweis des Unvollständigkeitssatzes mehr bräuchte als die Konsistenz einer mindestens eine Minimal-Arithmetik umfassenden Theorie, für gewisse recht einfache Theorien (etwa ZFC) aber nicht einmal die Konsistenz zeigen könnte, dann wäre es *erst recht* vollkommen aussichtslos, zu erwarten, daß Menschen den Gödel-Satz etwa für ZFC-Theorembeweiser einsehen könnten.
Grüße,

Janosch.
















von Janosch - am 15.10.2000 00:20

Re: Ein Universum voller Widersprüche

Geschrieben von Janosch am 15. Oktober 2000 02:42:20:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Kay S am 14. Oktober 2000 13:05:49:
Hallo,
endlich mal ein Beitrag, in dem man ein bisschen Konsens hat *harmoniesüchtigbin*.
>(...) Meiner Ansicht nach rühren einige der Schwierigkeiten, die das menschliche Gehirn mit logischem Denken hat daher, dass es sequentielle, rekursive Algorithmen auf einer Hardware laufen lassen muss, die eigentlich für ganzheitliche Gestalterkennung optimiert ist.
Ja - der Tiger im Busch war vermutlich früher wichtiger als das als-wahr-erkennen des Satzes von Banach und Tarski... :)
> (...)

>Das ist auch meine Ansicht. Ich glaube, wir brauchen einen Systemmix, der aber nicht in einfacher Aufgabenteilung in einem hybriden System bestehen kann, bei dem die Wahrnehmung mal den Logiker aufruft und umgekehrt. So lässt sich das vermutlich nicht programmieren.
Ich denke, man kann sowohl mit rein symbolischen als auch mit rein konnektionistischen Ansätzen letztlich erfolgreich sein, wird dafür aber mit höheren Ansprüchen an die Hardware bezahlen müssen. Genauso wird man höhere Ansprüche an die Hardware haben, wenn man eine leistungsfähige KI auf einem Allgemeinrechner statt auf einer speziellen "KI-Maschine" haben will.
>Es gibt die Idee Meta-Algorithmen zu konstruieren, die zur Laufzeit des Programmes aus dem Eingabedatenstrom, Entscheidungen für die Konstruktion konkreter Algorithmen treffen, die sie dann eigentlich erst konstruieren.
Ich könnte mir vorstellen, daß ein "optimal intelligentes" System auf einer gegebenen Hardware solche Mechanismen benutzen würde, aber ich bin mir nicht sicher, ob man bei dem Versuch, so etwas zu programmieren, nicht rasch an die Grenzen menschlicher Fähigkeiten stößt.

Im Zweifelsfall halte ich eine Steigerung der allgemeinen Hardwarekapazität für tendenziell ökonomischer als die Konstruktion von Spezialhardware oder die Benutzung extrem schwieriger Programmiertechniken.
>(...)

>

>Nichtsymbolisch arbeitende KI-Systeme sind allerdings sehr gut dazu geeignet, um zu zeigen, daß man bei Beweisen von Theoremen, zu Grenzen der algorithmischen Entscheidbarkeit, nicht erwarten kann, daß man zu einem System eine ausführbare Konstruktionsvorschrift findet, die ein für das betrachtete System unlösbares Problem liefert.

>

>Ich glaube, man kann dies auch in Kombination mehrerer symbolischer Systeme zeigen. Ohnehin sollte die nichtsymbolische KI in der Lage sein multiple nicht verträgliche Symbolsysteme zu erzeugen, ohne dass der zugrundeliegende subsymbolische Algorithmus irgendwelche Fehler aufwiese, so wie unser Gehirn ja auch viele natürliche Sprachen interpretieren kann.
Damit wären wir wieder bei Cyc und seinem nur lokal konsistenten Weltbild *g*.
>(...)

>Ja, die Geschichte mit dem One-Layer-Peceptron.
Es wundert mich dabei immer noch, daß man sich damals von einem Theorem, das nur die Möglichkeiten einschichtiger neuronaler Netze einschränkte, so beeindrucken liess.
Grüße,

Janosch.
















von Janosch - am 15.10.2000 00:42

Re: Tarski, Gödel, Lucas & Penrose

Geschrieben von Martin V am 15. Oktober 2000 13:08:48:
Als Antwort auf: Re: geschrieben von Janosch am 15. Oktober 2000 02:20:30:
Morgen,



[..]Ok, dazu müssen wir definieren, was wir hier mit "Wahrheit" meinen.[..]



Hat Herr Tarski schon erledigt.

Angenommen, wir haben einen gewissen metatheoretisch formulierten Wahrheitsbegriff für Aussagen der Objekttheorie gegeben. Dann widersprechen einander folgende zwei Annahmen:
(a) Jede Aussage der Objekttheorie ist wahr oder falsch

(b) Der metatheoretisch formulierte Wahrheitsbegriff ist in das formale System übersetzbar. Damit ist gemeint, dass Formel Wahr(n) (unterstrichen heisst, es sei ein formaler zahlentheoretischer Begriff) existiert, die genau dann wahr ist, wenn n die Gödelzahl einer wahren Formel ist.
Aus (b) wird bewiesen, dass z.b. die Antinomie des Lügners formuliert

werden kann; mit (a) folgt daraus ein Widerspruch. Wenn man (a) verlangt und annimmt, dass jede Aussage der Objekttheorie wahr oder falsch ist, kann der metatheoretisch formulierte Begriff der Wahrheit also nicht ins formale System übersetzt werden.
Man kann auch Annahme (b) machen und einen metatheoretischen Wahrheitsbegriff verwenden, der in der Objekttheorie formuliert werden kann. In diesen Fall ist die Objektsprache semantisch universell. Gemäss einem solchen Wahrheitsbegriff sind aber nicht mehr alle Aussagen wahr oder falsch.
Mit Tarksi hat man eine semantische Version des Unvollständigkeitssatzes.
Sein Verdienst war es, formalisierte Metatheorien zu betrachten. Er führte in die Metatheorie einen formalisierten Wahrheitsbegriff für Aussagen der Objekttheorie ein.
Dass der Wahrheitsbegriff in der Metatheorie formuliert ist, heisst folgendes: Ob ein Satz der Objektttheorie wahr ist, hängt davon ab, ob ein gewisser Satz der Metatheorie wahr ist. Also wird ein Wahrheitsbegriff für die Aussagen der Metatheorie vorausgesetzt.
Gödel setzte als Platonist einen absoluten Wahrheitsbegriff voraus, während Tarksi meint, die Wahrheit für eine Metatheorie kann erst in einer Interpretation, heisst, in eine Meta-Metatheorie eingeführt werden.
Für Gödel war Wahrheit absolut.

Für Tarski war Wahrheit infinit vielschichtig

Für Formalisten war Wahrheit = formale Beweisbarkeit
Fallen Objekt und Mettheorie zusammen, dann ist das System semantisch universal. Dann drohen Antinomien.



Also, wir haben eine als konsistent vorausgesetzte Theorie T, die mindestens eine Minimal-Arithmetik beweist und wir haben eine Ungleichung G(T), von der wir zeigen wollen, daß sie in den natürlichen Zahlen wahr, aber in T unbeweisbar ist. Angenommen, nicht G(T) in den natürlichen Zahlen. Dann gibt es eine natürliche Zahl n, die Gödel-Nummer einer Herleitung von G(T) ist. Da die Gödelisierungsfunktion für Herleitungen den Zielbereich N hat, findet man dann auch eine Herleitung von G(T), woraus G(T) Element T folgen würde nach Definition des Herleitungsbegriffs. Nach Korrektheitssatz wäre dann G(T) in allen Modellen von T wahr. Aber aus der Voraussetzung "enthält Minimal-Arithmetik" folgt leicht, daß jedes Modell von T eine Teilmenge enthält, die zu den natürlichen Zahlen isomorph ist und in dieser wäre dann G(T) schon falsch. Widerspruch zur Annahme und Beweis fertig.



Ja, und? Der Beweis, dass G(T) eine wahre arithmetische Aussage ist, aber formal unentscheidbar sei; das wissen wir ja. Den Gödelschen Beweis müssen wir nicht dauernd durchkauen, egal ob im Gewand der mir verhassten Mengenlehre, im Gewand der Orginalarbeit, im Gewand formaler Systeme.



Aus diesen Überlegungen ergibt sich übrigens ein weiteres Argument gegen die Penrose-Thesen: weil nämlich auch eine beliebig verstärkte Mengenlehre nicht alle Fragen über natürliche Zahlen entscheiden kann, versichert uns der Unvollständigkeitssatz, daß es Fragen der Arithmetik gibt, zu deren Lösung man beispielsweise die Konsistenz von ZFC beweisen muss. Und dabei scheitern Menschen ja :).



Ja. Wie Feferman argumentiert, tilgte Gödel sorgfältig alle Rückgriffe auf einen Wahrheitsbegriff für nichtfinite Aussagen. Gödel konnte also nicht für die gesamte naive Zahlentheorie einen absoluten, platonischen Wahrheitsbegriff verwenden. Den absoluten Wahrheitsbegriff setzte er glaube ich nur dort, wo er unumstritten war, nämlich für finite Aussagen.
Und genau dort steckt der Haken der Penrosschen Argumentation. Penrose setzt einen Allquantor vor seinen Aussagen, anstatt "für einige x gilt".



Im übrigen wäre Dein Argument - daß Konsistenz angeblich eine in irgendeinem Sinne schwächere Bedingung als Korrektheit sei



Nicht "angeblich".



[..]für meine oder Putnams Argumentation vollkommen unerheblich oder würde sie sogar noch verstärken; denn wenn man zum Beweis des Unvollständigkeitssatzes mehr bräuchte als die Konsistenz einer mindestens eine Minimal-Arithmetik umfassenden Theorie, für gewisse recht einfache Theorien (etwa ZFC) aber nicht einmal die Konsistenz zeigen könnte, dann wäre es *erst recht* vollkommen aussichtslos, zu erwarten, daß Menschen den Gödel-Satz etwa für ZFC-Theorembeweiser einsehen könnten.



Wie oben geschrieben; nicht in jedem System lässt sich ein absoluter Wahrheitsbegriff "beweisen". Was uns aber trotzdem nicht davor bewahrt, uns für Tarksi oder doch für Gödel zu entscheiden -- oder man bleibt Formalist (der, wie ich im "Mathe macht Spass" Forum den Begriff "evident" noch nie gehört haben soll, wobei als RE die Antwort kam, dass man dies "früher verwendete, aber jetzt leitet man lieber ab. Tatsache ist aber, dass vorerst mal die Formalisten am Werk waren, dann Gödel kam und "evident wahr" wieder einführte, denn wenn Formalisten dies dann trotzdem nicht akzpetieren könnten, müssten sie einiges aufgeben. Dann gäbe es formal unentscheidbare Sätze. Und das würden diese auch bleiben).
Doch wie geschrieben, auch ich bin der Meinung, dass "evident wahr" nicht für alle Aussagen der naiven Zahlentheorie ausreicht.
Am liebsten wäre mir eine Schnittmenge zwischen Gödel und Tarksi.



Bin müde,

MV
















von Martin V - am 15.10.2000 11:08

Re: Tarski, Gödel, Lucas & Penrose

Geschrieben von Janosch am 15. Oktober 2000 14:05:29:
Als Antwort auf: Re: Tarski, Gödel, Lucas & Penrose geschrieben von Martin V am 15. Oktober 2000 13:08:48:
Hallo,


>[..]Ok, dazu müssen wir definieren, was wir hier mit "Wahrheit" meinen.[..]

>

>Hat Herr Tarski schon erledigt.

>Angenommen, wir haben einen gewissen metatheoretisch formulierten Wahrheitsbegriff für Aussagen der Objekttheorie gegeben. Dann widersprechen einander folgende zwei Annahmen:

>(a) Jede Aussage der Objekttheorie ist wahr oder falsch

>(b) Der metatheoretisch formulierte Wahrheitsbegriff ist in das formale System übersetzbar.
Hier befassen wir uns also mit dem Tarskischen Undefinierbarkeitssatz.

Dieser sagt aus, daß ich zu einem gegebenen algorithmisch repräsentierbaren Axiomensystem A, aus dem eine Minimal-Arithemetik beweisbar ist, keine Formel existiert, die definiert, ob zu einer Gödel-Nummer n ein Satz gehört, der "wahr" in der von dem Axiomensystem erzeugten Theorie ist oder nicht. Im Rahmen des Tarskischen Undefinierbarkeitssatzes ist dabei "Wahrheit in einer Theorie" die "Wahrheit in allen Modellen des gegebenen Axiomensystems" respektive (mit dem gödelschen Vollständigkeitssatz) dann die Beweisbarkeit des Satzes in der Theorie.

Ich zitiere dazu einmal aus meinem Skript zur mathematischen Logik II:
A "wahr" ist (hier) zu ersetzen durch "T beweist A"
Im Gödelschen Unvollständigkeitssatz reden wir dagegen von der Wahrheit einer Formel in einer speziellen Struktur, auf die wir wiederum mit mengentheoretischen Mitteln Bezug nehmen. Speziell ist übrigens G(T) für eine konsistente Theorie T nicht wahr im Sinne des vom Tarskischen Undefinierbarkeitssatz benutzten Wahrheitsbegriffes, weil es Modelle von T geben wird, in denen G(T) falsch ist.

Um den Undefinierbarkeitssatz zu beweisen, nimmt man an, daß eine Formel A(n) existiert, so daß in T die Äquivalenz A('B')B beweisbar sei. Mit dem Fixpunktsatz stellt man dann fest, daß dann eine Formel C existiert mit T beweist (non A('C'))C, was einen Widerspruch zur Annahme der Konsistenz von T ergibt.

Meine Ausführungen bleiben davon vollkommen unberührt, weil ich zum Beweis meiner These - daß nämlich ein ZFC-Theorembeweiser den gödelschen Unvollständigkeitssatz beweisen kann - nur zeigen muss, daß man im Rahmen der üblichen Mengenlehre alles tun kann, was man zum Beweis dieses Satzes tun muss: Definition der natürlichen Zahlen bis auf ZFC-Isomorphie, Definition einer formalen Objektsprache erster Stufe, die es zu untersuchen gilt, Definition der Wahrheit einer Aussage in einer Struktur, etc.

Du musst für Deine These mindestens entweder zeigen, daß es einen Beweisschritt im Beweis des Unvollständigkeitssatzes gibt, der nicht im Rahmen der Mengenlehre verstehbar ist oder daß Menschen mindestens dann G(T) "einsehen" können, wenn T=ZFC ist.
Grüße,

Janosch.
P.S.: Beantwortest Du noch meine Fragen im anderen Teilthread? *ungeduldigwart*
















von Janosch - am 15.10.2000 12:05

Re: Tarski, Gödel, Lucas & Penrose

Geschrieben von Martin V am 15. Oktober 2000 20:03:53:
Als Antwort auf: Re: Tarski, Gödel, Lucas & Penrose geschrieben von Janosch am 15. Oktober 2000 14:05:29:
Hallo,



Hier befassen wir uns also mit dem Tarskischen Undefinierbarkeitssatz.

Dieser sagt aus,[...]
Ja. Was er aussagt und was in Deinem schlauen Büchlein steht, ist bekannt. Auch wurde in meinem letzten posting gezeigt, was dadurch für Tarski der Wahrheitsbegriff ward, sowie was sich Kurt darüber dachte und die finit-infiniten Konsequenzen beider Vorstellungen. Brauchst ja nicht in einen anderen Formalismus zu wiederhlolen, was ich schon schrieb. Es ging um den Wahrheitsbegriff, und ich habe Dir geantwortet, dass es viele davon gibt; und gar keinen wie bei den Formalisten.
Im übrigen will ich mich nicht mehr darüber streiten, dass G(T) wahr ist, aber formal unentscheidbar. Ich will mich auch nicht darüber streiten, dass der Gödelsche Satz durch erst durch metmathematische Interpretation als wahrer mathematischer Satz eingesehen werden kann:
(G) (x) not Dem(x, sub(n, 13, n))
es zeigt sich nun dass
sub(n, 13, n)
(1) die Gödelzahl der Formel ist, die aus der Formel mit der Gödelzahl n erhalten wird, wenn man für die Variable mit der Gödelzahl 13 (für ,y') das Zahlzeichen für n einsetzt.
(2) Formel G wurde ja aus der Formel mit der Gödelzahl n (das ist G's Onkel) erhalten, indem für die darin auftretende Variable ,y' das Zahlzeichen für n eingesetzt wurde.
Somit ist die Gödelzahl für G selbst tatsächlich sub(n, 13, n).

Also lautet die metamathematische Aussage von G:
[ ,Die Formel mit der Gödelzahl sub(n, 13, n) ist nicht beweisbar' ]



und weiter,
[, Ich bin nicht beweisbar' ]
G ist im System unentscheidbar, da weder G noch not G aus den Axiomen ableitbar (beweisbar) ist. Was G aber metamathematisch bedeutet, nämlich dass er nicht beweisbar sei, diese metamathematische Bedeutung ist uns klar und wir erkennen, dass es wahr ist, was unsere "sprechende Formel" hier sagt. Sie ist nicht beweisbar.



Meine Ausführungen bleiben da

von vollkommen unberührt, weil ich zum Beweis meiner These - daß nämlich ein ZFC-Theorembeweiser den gödelschen Unvollständigkeitssatz beweisen kann



Ja, den Unvollstädigkeitssatz kann sie von mir aus beweisen, nicht aber die evidente metamathematische Wahrheit G`s.



P.S.: Beantwortest Du noch meine Fragen im anderen Teilthread? *ungeduldigwart*



Ich merke, du bist viel vor Deinem PC oder MAC. Wenigstens am Wochenende leiste ich mir den Luxus, etwas in die Welt zu gehen und etwas Spass zu haben ;)
Somit bitte ich um Nachsicht, wenn es etwas dauert, schwierigere Fragen auch später zu beantworten, weil man dafür Zeit braucht, und wenigr schwierige schneller zu beantworten, weil man dazu weniger Zeit braucht. Würde ich also gerade am Wochenende und vor 3 Klausuren die schweren Fragen beantworten wollen, so würde viel Zeit draufgehen und dies wirkt sich dann wieder auf Freizeit und Lernverhalten aus. Bitte um Verständnis,



Martin ;)
















von Martin V - am 15.10.2000 18:03

Re: Ein Universum voller Widersprüche

Geschrieben von Kay S am 15. Oktober 2000 20:43:18:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Janosch am 15. Oktober 2000 02:42:20:
Hallo Janosch,
auch ich bin froh, dass dieser Subthread nicht zu einer endlosen Dekonstruktion

wird. Ich habe noch einige Anmerkungen, weniger kritischer als prospektiver Art.
>>(...)Ich glaube, wir brauchen einen Systemmix, der aber nicht in einfacher Aufgabenteilung in einem hybriden System bestehen kann, bei dem die Wahrnehmung mal den Logiker aufruft und umgekehrt. So lässt sich das vermutlich nicht programmieren.
Ich denke, man kann sowohl mit rein symbolischen als auch mit rein konnektionistischen Ansätzen letztlich erfolgreich sein, wird dafür aber mit höheren Ansprüchen an die Hardware bezahlen müssen. Genauso wird man höhere Ansprüche an die Hardware haben, wenn man eine leistungsfähige KI auf einem Allgemeinrechner statt auf einer speziellen "KI-Maschine" haben will.
Ich bin der Ansicht, dass es Probleme gibt, die sehr einfach zu stellen und mit keinem der Standardverfahren gut zu bearbeiten sind. Ich werde ein andermal darauf zurückkommen.
>>Es gibt die Idee Meta-Algorithmen zu konstruieren, die zur Laufzeit des Programmes aus dem Eingabedatenstrom, Entscheidungen für die Konstruktion konkreter Algorithmen treffen, die sie dann eigentlich erst konstruieren.
Ich könnte mir vorstellen, daß ein "optimal intelligentes" System auf einer gegebenen Hardware solche Mechanismen benutzen würde, aber ich bin mir nicht sicher, ob man bei dem Versuch, so etwas zu programmieren, nicht rasch an die Grenzen menschlicher Fähigkeiten stößt.
Meta-Programmierung in einem weiteren Sinne ist eigentlich Gang und Gebe. Z.B. ein Compiler erhält einen Algorithmus(im Quellcode) und liefert einen anderen(in Maschinencode) zurück. Ein Quellcodeübersetzer ist ein weiterer Fall von Meta-Programmierung. Das dynamische System, dass ich geschrieben habe, war in seiner Konzeption neuartig. Ich finde es noch immer schön, arbeite aber nicht mehr damit. Einen interessanten Beitrag zur Meta-Programmierung liefert die TUNES-Gruppe, die sowohl eine Sprache, als auch ein Betriebssystem zu entwickeln versucht, dass auf Reflexivität beruht und die Vereinfachung der Meta-Programmierung zum Ziel hat. Zum TUNES-Projekt ist allerdings anzumerken, dass es ein wenig an Perfektionismus krankt. Es existiert schon sechs Jahre und erst jetzt fängt man an, die 'ideale' Sprache zu implementieren.
Im Zweifelsfall halte ich eine Steigerung der allgemeinen Hardwarekapazität für tendenziell ökonomischer als die Konstruktion von Spezialhardware oder die Benutzung extrem schwieriger Programmiertechniken.
Ich werde demnächst, vermutlich in mehreren Teilen, ein wenig über mein aktuelles Projekt Mimesis schreiben. Aus seiner Entwicklung wird deutlich, dass es einfache Probleme gibt, die nicht Brute-Force gelöst werden können ( durch systematisches durchprobieren ) und die sich wohl auch nicht durch künstliche neuronale Netze "lernen" lassen. Diese Probleme liegen im Zentrum von Wahrnehmungsfähigkeit und Abstraktion. Sie werden vielleicht Martin gefallen, sofern sie ihm nicht vertraut sind.

Sie werden Dir vielleicht nicht gefallen, da sie nicht auf mathematischem Wege zu knacken sind, letztlich sind es auch ästhetische Probleme. Dazu später mehr.



Grüße Kay


















von Kay S - am 15.10.2000 18:43

Re: Tarski, Gödel, Lucas & Penrose

Geschrieben von Janosch am 15. Oktober 2000 23:49:09:
Als Antwort auf: Re: Tarski, Gödel, Lucas & Penrose geschrieben von Martin V am 15. Oktober 2000 20:03:53:
Hallo,
>(...)

>Im übrigen will ich mich nicht mehr darüber streiten, dass G(T) wahr ist,
Welchen Wahrheitsbegriff legst Du hier zugrunde?

Solange Du das nicht sagst, ist es pure Metaphysik, was Du sagst.

Ich weiss dazu zunächst einmal folgendes:
(a) G(T) ist in der Struktur wahr, die durch die Peano-Axiome (innerhalb der Mengenlehre) definiert wird, also in den natürlichen Zahlen.

(b) G(T) ist nicht in allen Modellen von T wahr; es gibt Modelle, in denen G(T) falsch wird.

(c) G(T) ist nicht das gleiche wie die mengentheoretische Aussage, daß G(T) nicht Element T und non G(T) nicht Element T sei, bzw. daß diese beiden Sätze nicht aus dem algorithmisch repräsentierbaren Axiomensystem A herzuleiten seien, das T erzeugt. Das mag man daran erkennen, daß die Annahme, der mengentheoretische Satz "G(T) nicht Element T und non G(T) nicht Element T" gelte, gar keine neuen "wahren" Aussagen innerhalb der Theorie T liefert (die Klasse der Modelle von T wird durch diese Aussage nicht beeinflusst), während G(T) vereinigt A ein echt stärkeres Axiomensystem als A ist (einige Modelle von A sind keine Modelle von A vereinigt G(T) mehr).
>(...)

>Also lautet die metamathematische Aussage von G:

>[ ,Die Formel mit der Gödelzahl sub(n, 13, n) ist nicht beweisbar' ]

>
Eine korrekte Übersetzung von G(T) in die mengentheoretische Metasprache wäre übrigens genau genommen:
Es existieren keine natürlichen Zahlen k, die Gödel-Nummern von Herleitungen des Satzes G(T) sind und es gibt auch keine Nichtstandard-Zahl x, die die Gleichung Herl(T,x,'G(T)') lösen würde
Aus diesem Satz folgt natürlich dann leicht die Unbeweisbarkeit von G(T) in T, sofern er "wahr" ist, und die Wahrheit dieser Aussage hängt genauso von der betrachteten Zahlenstruktur ab wie die Wahrheit von G(T). Aber ich sehe nicht, wie Du Dein Ziel zu zeigen, daß hier Menschen irgendwo mehr einsehen könnten als geeignet gewählte Computerprogramme, erreichen willst.

Also nochmals: welchen Wahrheitsbegriff verwendest Du hier?
>

>Ja, den Unvollstädigkeitssatz kann sie von mir aus beweisen, nicht aber die evidente metamathematische Wahrheit G`s.
Mir scheint, daß diese Überzeugung mehr ein religiöses Dogma als eine wissenschaftliche begründbare Tatsache ist, solange Dein Wahrheitsbegriff nicht klar ist.
Grüße,

Janosch.
















von Janosch - am 15.10.2000 21:49

Re: Reflexionsprinzip, Wahrnehmung & KI

Geschrieben von Martin V am 16. Oktober 2000 12:43:35:
Als Antwort auf: Re: Tarski, Gödel, Lucas & Penrose geschrieben von Janosch am 15. Oktober 2000 23:49:09:
Hallo,





Welchen Wahrheitsbegriff legst Du hier zugrunde?

Solange Du das nicht sagst, ist es pure Metaphysik, was Du sagst.



Ich ( und einige andere Logiker wie Mathematiker) benutze das Reflexionsprinzip.

Indem man die Bedeutung des Axiomensystems und der Ableitungsregeln "reflektiert". Das machst Du z.b. ebenfalls.
Bei Gödel leitet man neue Wahrheiten aus der Tatsache ab, dass ein System, von dessen Zulässigkeit für das Gewinnen wahrer mathematischer Sätze man sich berteits überzeugt hat, konsistent ist. Solche Reflexionsprinzipien haben u.a. oft mit unendlichen Mengen zu tun. Du kennst dieses Prinzip. Solche Reflexionsprinzipien stellen eine direkte Antithese zur formalistischen Denkweise dar. Man kann des öfteren aus formalen Systemen rausspringen und eine Formel als wahr /falsch, ohne ein Rechenverfahren, einsehen.
Hofstadter gibt ein kleines Beispiel, in seinem MU-System (er nennt dann ds Refelxionsprinzip: Aus dem System herausspringen. Wenn MU ein Axiom eines Systems sei, und wir würden eine Maschine beauftragen, U zu erzeugen (obwohl wir wissen, dass aus den Ableitungsregeln ganz klar nie ein U zu erzeugen sein kann), so würde die Maschine nie anhalten. Man kann ihr zwar ins Programm einfügen, dass, wenn sie jemals damit beauftragt würde, ein U zu finden, sie sofort ausdrucken könnte, es könne kein U erzeugt werden, aber dieser Output ist Resultat des Programmierers, der seine Geduld und die Maschine davor bewahren möchte, sowieso einsichtig nicht-erzeugbare Sätze, auch noch zu berechnen, heisst, die Maschine wendet die Reglen des Systems an. so, wie wir es von der idealisierten Turing-Maschine kennen.
U wäre in einem MU-System nicht zu erzeugen, weil wir das M durch unsere Ableitungsregeln nie loswerden.
Dann kann es jemanden geben, der dies nicht einsieht und weiter fleissig formal operiert, heisst, die Regeln des Sytems anwendet um endlich zu sehen, ob U jetzt Satz des Systems sei.
Solch ein Mensch erfüllt aber das Reflexionsprinzip nicht. Er kennt die Bedeutung des Axiomensystems nicht. Und rechnet und rechnet.....ein Formalist eben. Worüber soll er auch reflektieren? Er arbeitet im System.
Der andere aber, der arbeitet bis zu einem gewissen Grad innerhalb des Systems (er leitet und leitet ab) und ist fähig, gleichzeitig über das System nachzudenken (eine andere Ebene, ausserhalb des Systems).
Natürlich ist dieses Relexionsprinzip eingeschränkt anwendbar. Bei komplexen Systemen wird man seine Schwierigkeit haben, irgendeine evidente Wahrheit herauszufinden. Wenn man das System nicht richtig kennt, worüber soll man dann reflektieren können.
Aber, wenn man das Reflexionsprinzip deshalb aufgibt, so zeigt sich seid Gödel, zahlt man einen Preis. Dann gibt es wahre Sätze, die aber unentscheidbar bleiben, denn man operiert bei G solange innerhalb des Systems, wie man den Widerspruch der Formel G formal sieht.
Die weitere Schlussolgerung, dass G aber wahr sei, ist eine Schlussfolgerung, die man ausserhalb des Systems trifft und dies nur, weil man die Bedeutung der Symbole versteht.
Aus einem Widerpruch im Falle G`s folgt nicht, dass G wahr ist. Diese Schlussfolgerung trifft man erst, wenn die Bedingungen für das Reflexionsprinzip erfüllt sind und die Wahrheit tritt zutage; ausserhalb des formalen Systems.
Mein Wahrheitsbegriff im Falle Gödels ist also an einen erkennenden Beobachter gebunden, der das Reflexionsprinzip anzuwenden vermag. Es gibt aber auch genug erkennende Beobachter, die G nicht verstehen. Für diese gilt dann auch das Prinzip nicht.
Eine KI muss daher in der Lage sein, über seine eigenen Berechnungen, ohne Einwirkung eines Programmierers, semantisch zu reflektieren. Eine KI muss die Bedeutung ihrer Berechnung verstehen.
Frage an Dich: Gibt es eine solche KI, die durch eigene Intention heraus aus dem System springt (dabei muss sie irgendwie "wissen", in welchen Fällen es dies tun muss, was mir schwierig erscheint) und die Berechnung, mit der sie sich gerade befasst, beobachtet? Da scheint mir Putnam wieder sympathisch; er beschäftigte sich mit einer Turing-Maschine + Kamera ;). Dabei darf aber nicht passieren, dass das Programm anhält, weil es entweder durch Putnams TM+Kamera eine Formel oder Aufgabe "sieht" und eigentlich schon damit gefüttert wurde, dass wenn sie solch eine Aufgabe sieht, anhält, sondern sie muss dies us Eigeninitiative tun. Sie muss verstehen was sie tut.
Solch einer Maschine würde ich Intelligenz zuschreiben. Ich würde sogar sagen, eine wirklich intelligente Maschine müsste die Fähigkeit zur "Wahrnehmung" besitzen; ein Modell ihrer selbst, sowie ihrer Umwelt er-rechnen.
Wie z.b. Piaget zeigte, dass der Mengenbegriff für Kleinkinder ntürlicher als der Zahlenbegriff sei. Ein Haufen Äpfel und Birnen und das Kind wird beauftragt zu ergründen, ob nun mehr Birnen oder mehr Äpfel auf dem Tisch liegen. Das Kind setzt (Birne - Apfel) (Birne-Apfel) ....(Birne-?). Kein Apfel mehr, habe mehr Birnen auf dem Tisch. Ein Kleinkind kommt also ohne einen Begriff der "Zahl" zur Einsicht, es gäbe in diesen Fall mehr Birnen als Äpfel.
Auch diese Proto-Mengenlehre hat in gewisser Weise mit Wahrnehmung zu tun.
Das Penrossche nicht-rechnerische könnte demnach nur ein derzeitiges Fehlen der Fähigkeit von KI-Systemen sein, etwas wahrzunehmen. Und Wahrnehmung / Mustererkennung / Gesichtserkennung -- da ist das Gehirn wahrlich jedem KI-System Welten voraus. Eine KI (ein Taschenrechner tuts auch) kann zwar schneller Rechnen; aber dies kann kein Kriterium für echte maschinelle Intelligenz sein.
Und, wenn es um "Wahrnehmung" geht, dann gibts seit Norbert Wiener kybernetische Probleme, oder besser, einen kybernetischen Strudel.

Ich habe jetzt weit ausgeholt, aber mir ist heute, oder gerade jetzt, danach.
Dazu noch ein Hyperlink zu einer lust`gen Alternative des Turing-Tests. Der Rouge-Test.



MV -- die Sache mit Tk(k) kommt noch. Bitte nicht *ungeduldigwart*


















von Martin V - am 16.10.2000 10:43

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 16. Oktober 2000 14:16:33:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Janosch am 14. Oktober 2000 16:51:18:
Hallo Janosch,



So - und falls damit Dein Argument richtig dargestellt sein sollte, wäre ich Dir sehr verbunden, wenn Du erläutern könntest, welche der folgenden Aussagen hierzu Du anzweifelst:
(a) Die gegebene Argumentation sagt über die Erkenntnisgrenzen von (beweisbar unfehlbaren) Computern nicht mehr aus als die gleichermassen erschütternde Unfähigkeit von (beweisbar unfehlbaren) Studenten, nach dem Aufwachen durch Einnahme eines starken Schlafmittels vorherzusagen, daß sie auch die Frühvorlesung besuchen würden.



Ich zweifle (a) nicht an. Es folgt daraus, dass aus der Annahme, diese Klasse von Studenten seien "beweisbar unfehlbar", eine Klasse von fehlbaren Studenten resultiert, wobei ich dann wissen möchte, wie dieser Beweis, sie wären "beweisbar" unfehlbar dann aussieht.



(b) Die Turing-Maschine Tk könnte während der Zeit, in der sie nicht anhält, durchaus ein Buch auf ihr Band schreiben, in dem sie wortreich ausführt, warum Tk in Reaktion auf den Input k nicht anhält. MartinV sieht darin einen Beweis für ihre Unfähigkeit, ihr eigenes Anhalten zu erkennen.



? Wer gibt der TK das Wissen, das es benötigt, um genau dieses Buch zu schreiben? Kommt TK von alleine drauf? Dazu müsste sie ein Modell von sich selbst er-rechen. Im oberen Gödel/Turing-Beispiel ist diese Möglichkeit natürlich ausgeschlossen. Es wird bewusst eine Möbiusschleife konstruiert. Deshalb, gebe ich zu, ist dieses Beispiel eingeschränkt; und genau dies soll absicht sein, da man auf Gödel extrapolieren kann, um den Kern, worum es geht -- nämlich "Wahrheit und Einsicht" irgendwie klarzumachen.



(c) MartinV kann das Halteproblem nicht lösen, auch wenn die zu MartinV äquivalente Turing-Maschine Tm in Reaktion auf den Input m vielleicht ausführlich beschreiben mag, warum Tm nicht erkennen kann, daß sie in Reaktion auf den Input m nicht anhält, weil Tm ja nicht in der Lage ist, uns das dadurch zu signalisieren, daß sie in Reaktion auf den Input m anhält.



Martin V, und nicht nur der, auch Maschine Janosch, ist im Fall Tk(k) in der Lage, das Halteproblem nicht zu lösen. Denn das Halteproblem im Gewand der Gödel-Argumentation zeigt hier, dass Tk(k) das Programm ist, dass wir beauftragten, anzuhalten wenn Tk(k) nicht anhält. Da nun unser A zu ebendem Tk(k) wurde, von dem wir nicht wissen, ob es anhält, können wir algorithmisch nicht wissen, dass Ck(k) nicht anhält, weil uns das Programm A, das wir verwenden wollten, durch diese entstandene Möbiusschleife nicht zur Verfügung stehen kann. Und somit kann Martin V das Halteproblem für Ck(k) nicht lösen und Janosch auch nicht.
Aber, obwohl uns A nicht zur Verfügung steht, ja, unmöglich ist, kann Janosch und Martin V, sowie sicherlich Kay klar erkennen, dass dieser spezielle Ck(k) nicht anhält. Da A also für diese Erkenntis nicht zur Verfügung stehen kann, benutzen wir ein anderes Verfahren, als das einer TM. Wir haben nämlich wiederum die Einsicht, die ein System noch nicht hat, weil es, wie ich im "Reflexionsposting" schrieb, genau diese Fähigkeit mit ihren Implikationen nicht besitzt.
Das Halteproblem ist formal unlösbar. Es gibt aber bestimmte einfache Klassen von Berechnungen, wie oben vorgestellt, die durch das Reflexionsprinzip als "evident" gesehen werden können. Ck(k) hält nicht an. Und damit habe ich das Halteproblem nicht formal gelöst. Es bleibt bei diesem Problem, dass kein A zur Verfügung stehen kann. Aber Martin V sieht eben, er hält wirklich nicht an. Und kann das auch nicht beweisen. Er setzt, wie bei Gödel, bei seinem Beobachter Janosch einfach voraus, dass er sich ebenfalls dem Reflexionsprinzips bedient.



MV


















von Martin V - am 16.10.2000 12:16

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Janosch am 16. Oktober 2000 19:53:03:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 16. Oktober 2000 14:16:33:
Hallo,
>(a) Die gegebene Argumentation sagt über die Erkenntnisgrenzen von (beweisbar unfehlbaren) Computern nicht mehr aus als die gleichermassen erschütternde Unfähigkeit von (beweisbar unfehlbaren) Studenten, nach dem Aufwachen durch Einnahme eines starken Schlafmittels vorherzusagen, daß sie auch die Frühvorlesung besuchen würden.

>

>Ich zweifle (a) nicht an.
Gut - wir wissen also, daß jeder unfehlbare Student eine gewisse Frage auf eine gewisse Weise nicht beantworten kann und wir wissen, daß jede unfehlbare Turing-Maschine eine gewisse Frage auf eine gewisse Weise nicht beantworten kann. Beide Tatsachen werden auf im wesentlichen gleiche Weise bewiesen.

Bei der Turing-Maschine scheinst Du dann eher geneigt zu sein, anzunehmen, daß sie Dir unterlegen sei, als bei dem Studenten.

Wieso?



>(...)

>? Wer gibt der TK das Wissen, das es benötigt, um genau dieses Buch zu schreiben? Kommt TK von alleine drauf? Dazu müsste sie ein Modell von sich selbst er-rechen.
Die Turing-Maschine kann zwei Dinge tun:
1. Sie kann ohne Schwierigkeiten zeigen, daß keine unfehlbare Turing-Maschine durch Anhalten signalisieren kann, daß sie nicht anhalten wird. Das folgt etwa aus dem allgemeineren Satz
Ist M eine Menge und H eine Teilmenge von MxM und existiert ein a Element M mit der Eigenschaft, daß für alle k gilt (a,k) Element H--->non ((k,k) Element H), so non (a,a) Element H
Der Beweis ist einfach: Annahme (a,a) Element H, dann (a,a) nicht Element H, Widerspruch, fertig.
2. Sie kann ebenso ohne Schwierigkeiten feststellen, ob sie selbst anhalten wird, und zwar sogar viel schwierigkeitsloser als wir das können, weil sie in der schönen Position ist, über diese Frage entscheiden zu können, und dann nur noch das Ergebnis ihrer Entscheidung bekanntgeben muss. Wenn man die Turing-Maschine mit der Nummer k also fragt, ob die Turing-Maschine mit der Nummer k terminieren werde, wird diese unter Umständen gar nicht das Unterprogramm zum Beweisen von Theoremen aktivieren, sondern beginnen, verschiedene Handlungsalternativen durchzuspielen und diese darauf zu überprüfen, inwieweit dabei ihre Primärziele erfüllt werden.

Wenn sie also beispielsweise das Ziel hat, ihr gestellte Fragen korrekt zu beantworten und möglichst die eigene Deaktivierung zu vermeiden, dann wird sie sich dafür entscheiden, "Ich werde nicht terminieren" auszudrucken und sich dann auch daran zu halten ;).

Wir müßten dagegen unter Umständen mühsam das System ihrer Ziele analysieren, um herauszubekommen, wie sie sich entscheiden wird, was schwierig werden könnte.
> (...)

>Martin V, und nicht nur der, auch Maschine Janosch, ist im Fall Tk(k) in der Lage, das Halteproblem nicht zu lösen. Denn das Halteproblem im Gewand der Gödel-Argumentation zeigt hier, dass Tk(k) das Programm ist, dass wir beauftragten, anzuhalten wenn Tk(k) nicht anhält.
Das ist ein nicht ausführbarer Auftrag.

Es gibt viele nicht ausführbare Aufträge, z.B. die folgenden:
(a) Lesen Sie diesen Satz nicht!

(b) Beenden Sie die Bearbeitung dieses Auftrages, um zu zeigen, daß es absolut sicher ist, daß sie ihn nie beenden werden können.
Ich sehe nicht, wieso die Unfähigkeit, einen unausführbaren Auftrag auszuführen, etwas über eine korrespondierende Unfähigkeit sagen soll, die Unausführbarkeit des Auftrages zu erkennen.
> (...)

>(...) Wir haben nämlich wiederum die Einsicht, die ein System noch nicht hat, weil es, wie ich im "Reflexionsposting" schrieb, genau diese Fähigkeit mit ihren Implikationen nicht besitzt.
Behauptest Du hier, daß das Computerprogramm mit der Nummer k nicht erkennen könne, daß man ihm eine selbstbezügliche Frage stellt?
Grüße,

Janosch.
















von Janosch - am 16.10.2000 17:53

Re: Reflexionsprinzip, Wahrnehmung & KI

Geschrieben von Janosch am 16. Oktober 2000 21:21:50:
Als Antwort auf: Re: Reflexionsprinzip, Wahrnehmung & KI geschrieben von Martin V am 16. Oktober 2000 12:43:35:
Hallo,
>(...)

>Hofstadter gibt ein kleines Beispiel, in seinem MU-System (er nennt dann ds Refelxionsprinzip: Aus dem System herausspringen. Wenn MU ein Axiom eines Systems sei, und wir würden eine Maschine beauftragen, U zu erzeugen (obwohl wir wissen, dass aus den Ableitungsregeln ganz klar nie ein U zu erzeugen sein kann), so würde die Maschine nie anhalten.
Das kommt auf die Maschine an.

Sie kann auch nach einigem erfolglosem Herumprobieren mit Mitteln der Mengenlehre einen Beweisversuch zur Unlösbarkeit der Aufgabe durch Induktion über die MU-Sätze anfangen.

Dieser Beweisversuch wird rasch erfolgreich sein.

Du wirst bemerkt haben, daß etwa im Beweis des Unvollständigkeitssatzes in der Tat ein Reflektionsprinzip auf letztlich mengentheoretischem Wege bewiesen wird :).
> (...)

>Aber, wenn man das Reflexionsprinzip deshalb aufgibt, so zeigt sich seid Gödel, zahlt man einen Preis.
Wenn man für ein bestimmtes System gar kein Reflektionsprinzip beweisen kann, hat man nichts, was man aufgeben könnte.

Natürlich wird man sich im Zweifelsfall der stärksten Theorie bedienen, die man zur Verfügung hat, um ein Problem zu lösen. Dabei ist anscheinend die Mengenlehre das beste, womit wir umgehen können.
>Dann gibt es wahre Sätze, die aber unentscheidbar bleiben, denn man operiert bei G solange innerhalb des Systems, wie man den Widerspruch der Formel G formal sieht.
Es gibt dann Sätze, die in bestimmten Strukturen wahr sind, die man vielleicht für besonders interessant hält, wenn man schon über eine Metatheorie verfügt, die einen Zugriff auf diese Strukturen erlaubt.
>Die weitere Schlussolgerung, dass G aber wahr sei,
G ist wahr in den natürlichen Zahlen und unwahr in gewissen anderen Strukturen.

Wahr ist natürlich der schwächere mengentheoretische Satz, daß G unbeweisbar sei.


> (...)

>Frage an Dich: Gibt es eine solche KI, die durch eigene Intention heraus aus dem System springt (dabei muss sie irgendwie "wissen", in welchen Fällen es dies tun muss, was mir schwierig erscheint) und die Berechnung, mit der sie sich gerade befasst, beobachtet?
Gelernters Geometrie-Theorembeweiser operierte regelmäßig ausserhalb der formalen Methoden der euklidischen Geometrie, indem er vor dem Beweis von Sätzen versuchte, sie durch Gegenbeispiele zu widerlegen.

Eurisko konnte empirische Beobachtungen auswerten, um seine Heuristiken dem Problembereich, mit dem es sich befasste, anzupassen.

Die Entscheidung, eine Theorie zu verlassen, um in einer stärkeren Theorie über diese Theorie nachzudenken, wird sicherlich nicht auf der Grundlage logischer Erwägungen getroffen, sondern dürfte eher auf vorprogrammierte Heuristiken zurückzuführen sein, die darauf hinauslaufen werden, daß man vermutlich gar keinen Erfolg haben wird, wenn man über längere Zeit erfolglos versucht hat, einen Beweis in einer relativ schwachen Theorie zu führen.

Oder, einfacher ausgedrückt: einem intelligenten System wird das Versagen bei dem Versuch, eine Aufgabe zu lösen, irgendwann langweilig ;). Und solche Heuristiken findet man tatsächlich bei manchen modernen Theorembeweisern und sonstigen KI-Systemen.

....vielleicht sollte man diese Frage am besten an Cyc weiterreichen ;)....



> (...)

>Solch einer Maschine würde ich Intelligenz zuschreiben. Ich würde sogar sagen, eine wirklich intelligente Maschine müsste die Fähigkeit zur "Wahrnehmung" besitzen; ein Modell ihrer selbst, sowie ihrer Umwelt er-rechnen.
Cyc beispielsweise verfügt über eine recht ausgedehnte Selbstrepräsentation.
> (...)

>Das Penrossche nicht-rechnerische könnte demnach nur ein derzeitiges Fehlen der Fähigkeit von KI-Systemen sein, etwas wahrzunehmen.
Bei schwierigen Mustererkennungsaufgaben und Commonsense-Problemen sind KIs noch weit von menschenähnlichem Niveau entfernt und gutes Weltwissen und Mustererkennung sind sicher notwendig, um eine KI mit Problemlösungsfähigkeiten von menschenähnlicher Flexibilität auszustatten. In beiden Bereichen gibt es aber nachweisbare Fortschritte, was eigentlich überraschend ist, wenn man bedenkt, wie weit die Rechenkapazität heutiger Computersysteme unter der des menschlichen Gehirns liegt.



> Und Wahrnehmung / Mustererkennung / Gesichtserkennung -- da ist das Gehirn wahrlich jedem KI-System Welten voraus.
Gesichtserkennung funktioniert heute gut, Spracherkennung auch, und Roboter, die in Echtzeit ein weitgehend fehlerfreies dreidimensionales Modell ihrer näheren Umgebung anlegen können, existieren auch.

Natürlich ist die menschliche Überlegenheit auf diesen Gebieten noch groß, aber das sollte nicht überraschen. Immerhin ist das menschliche Gehirn von der Hardwarekapazität her allenfalls mit einem grossen Supercomputer zu vergleichen, und seine Entwicklung und Optimierung dauerte viele Millionen Jahre ;).
Grüße,

Janosch.
















von Janosch - am 16.10.2000 19:21

Re: Reflexionsprinzip, Wahrnehmung & KI

Geschrieben von Kay S am 17. Oktober 2000 12:59:17:
Als Antwort auf: Re: Reflexionsprinzip, Wahrnehmung & KI geschrieben von Martin V am 16. Oktober 2000 12:43:35:


Hallo Martin,
Ich ( und einige andere Logiker wie Mathematiker) benutze das Reflexionsprinzip.

Indem man die Bedeutung des Axiomensystems und der Ableitungsregeln

"reflektiert". Das machst Du z.b. ebenfalls.


Bei Gödel leitet man neue Wahrheiten aus der Tatsache ab, dass

ein System, von dessen Zulässigkeit für das Gewinnen wahrer mathematischer

Sätze man sich berteits überzeugt hat, konsistent ist. Solche

Reflexionsprinzipien haben u.a. oft mit unendlichen Mengen zu tun. Du kennst

dieses Prinzip. Solche Reflexionsprinzipien stellen eine direkte Antithese

zur formalistischen Denkweise dar. Man kann des öfteren aus formalen

Systemen rausspringen und eine Formel als wahr /falsch, ohne ein Rechenverfahren,

einsehen.


Hofstadter gibt ein kleines Beispiel, in seinem MU-System (er nennt

dann ds Refelxionsprinzip: Aus dem System herausspringen. Wenn MU ein Axiom

eines Systems sei, und wir würden eine Maschine beauftragen, U zu

erzeugen (obwohl wir wissen, dass aus den Ableitungsregeln ganz klar nie

ein U zu erzeugen sein kann), so würde die Maschine nie anhalten.

Man kann ihr zwar ins Programm einfügen, dass, wenn sie jemals damit

beauftragt würde, ein U zu finden, sie sofort ausdrucken könnte,

es könne kein U erzeugt werden, aber dieser Output ist Resultat des

Programmierers, der seine Geduld und die Maschine davor bewahren möchte,

sowieso einsichtig nicht-erzeugbare Sätze, auch noch zu berechnen,

heisst, die Maschine wendet die Reglen des Systems an. so, wie wir es von

der idealisierten Turing-Maschine kennen.


U wäre in einem MU-System nicht zu erzeugen, weil wir das M

durch unsere Ableitungsregeln nie loswerden.


Dann kann es jemanden geben, der dies nicht einsieht und weiter fleissig

formal operiert, heisst, die Regeln des Sytems anwendet um endlich zu sehen,

ob U jetzt Satz des Systems sei.


Solch ein Mensch erfüllt aber das Reflexionsprinzip nicht. Er

kennt die Bedeutung des Axiomensystems nicht. Und rechnet und rechnet.....ein

Formalist eben. Worüber soll er auch reflektieren? Er arbeitet im

System.


Der andere aber, der arbeitet bis zu einem gewissen Grad innerhalb

des Systems (er leitet und leitet ab) und ist fähig, gleichzeitig

über das System nachzudenken (eine andere Ebene, ausserhalb des Systems).


Wenn wir über Gödels Satz reflektieren, so können wir

diese Reflexion ihrerseits wieder formalisieren. Dieser Vorgang spielt

sich zwar

außerhalb des formalen Systems ab, für das g bewiesen

wird, trotzdem kann der Anschlussformalismus, wie Janosch richtig behauptet,

mit den sprachlichen Mitteln der Mengenlehre und der mathematischen

Logik generiert und dann von einer Turing-Maschine implementiert werden.


Natürlich ist dieses Relexionsprinzip eingeschränkt anwendbar.

Bei komplexen Systemen wird man seine Schwierigkeit haben, irgendeine evidente

Wahrheit herauszufinden. Wenn man das System nicht richtig kennt, worüber

soll man dann reflektieren können.


Bei komplexen Systemen wissen wir noch gar nicht, ob wir Reflexion,

in dem oben definierten Sinne überhaupt anwenden können? Was

heißt es denn aus der Sprache 'herauszuspringen'? Die gewöhnliche

philosophische Reflexion bleibt ja innerhalb der Sprache. Vielleicht bewegen

sich Musiker, Künstler und Mystiker ausserhalb des Systems, aber sie

reflektieren es dabei nicht notwendiger Weise.

Vielleicht kommen wir in Bezug auf die Sprache am ehesten zu einer

Reflexion, wenn wir bilingual kommunizieren und etwas, dass schwer

in der einen Sprache auszudrücken ist, von der anderen Sprache

übernehmen lassen. Ich würde probehalber einmal versuchen die

Mathematik in einen bilingualen Kontext zu stellen, von denen die eine

Sprache die ist, die wir als formale mathematische Sprache ansehen und

die andere Sprache unsere geteilte natürliche Sprache . Ein vedischer

Mathematiker wie Aryabatha aus dem 6ten Jahrhundert

hätte vermutlich diesen Unterschied noch gar nicht verstanden,

denn er vermulierte seine Mathematik in Merkversen. 


Aber, wenn man das Reflexionsprinzip deshalb aufgibt, so zeigt sich

seid Gödel, zahlt man einen Preis. Dann gibt es wahre Sätze,

die aber unentscheidbar bleiben, denn man operiert bei G solange innerhalb

des Systems, wie man den Widerspruch der Formel G formal sieht.


Die weitere Schlussolgerung, dass G aber wahr sei, ist eine

Schlussfolgerung, die man ausserhalb des Systems trifft und dies

nur, weil man die Bedeutung der Symbole versteht.


Aus einem Widerpruch im Falle G`s folgt nicht, dass G wahr ist. Diese

Schlussfolgerung trifft man erst, wenn die Bedingungen für das Reflexionsprinzip

erfüllt sind und die Wahrheit tritt zutage; ausserhalb des formalen

Systems.


Man kann das so sehen. Die Wahrheit von g ist das Ereignis, dass

genau dann eintritt, wenn wir uns bewusst werden, dass wir F verlassen

haben.



 


Mein Wahrheitsbegriff im Falle Gödels ist also an einen erkennenden

Beobachter gebunden, der das Reflexionsprinzip anzuwenden vermag. Es gibt

aber auch genug erkennende Beobachter, die G nicht verstehen. Für

diese gilt dann auch das Prinzip nicht.


Man kann aber doch den Beobachter gemeinsam mit dem System in ein größeres

System stellen und dieses dann beobachten.


Eine KI muss daher in der Lage sein, über seine eigenen Berechnungen,

ohne Einwirkung eines Programmierers, semantisch zu reflektieren. Eine

KI muss die Bedeutung ihrer Berechnung verstehen.


Ich kann mir gut vorstellen, dass die Kooperation zwischen KI und Programmierer

enger ist, als in den meisten KI-Systemen.

Ich würde schon froh sein, wenn eine ELIZA-artige KI in der Lage

wäre dem Programmierer intelligente Fragen zu stellen, wenn

sie nicht weiter weiß, aus den Antworten des Programmierers auch

zu lernen verstünde. Die Schwierigkeit besteht im Augenblick

darin, dass der Programmierer nicht weiß, wie er seine KI durch

einen solchen Dialogprozess lernen lassen kann. Sie müsste ja

mit der Zeit ein verbessertes Antwortverhalten zeigen. Wie meine Erfahrung

mit A.L.I.C.E. gezeigt hat, kommt es aber nicht dazu.



 


Frage an Dich: Gibt es eine solche KI, die durch eigene Intention

heraus aus dem System springt (dabei muss sie irgendwie "wissen", in welchen

Fällen es dies tun muss, was mir schwierig erscheint) und die Berechnung,

mit der sie sich gerade befasst, beobachtet? Da scheint mir Putnam wieder

sympathisch; er beschäftigte sich mit einer Turing-Maschine + Kamera

;). Dabei darf aber nicht passieren, dass das Programm anhält, weil

es entweder durch Putnams TM+Kamera eine Formel oder Aufgabe "sieht" und

eigentlich schon damit gefüttert wurde, dass wenn sie solch eine Aufgabe

sieht, anhält, sondern sie muss dies us Eigeninitiative tun. Sie muss

verstehen was sie tut.


Ah! Dir genügt wohl ein gut geschriebener Exceptionhandler nicht

mehr!

Wie wäre es denn mit folgender Variante des Turing-Test:

Gegeben sei ein Blackboxsystem, dass eine Reihe von Problemen zur Verfügung

stellt, die sowohl von Menschen, als auch Maschinen

gelöst werden können. Zur Verfügung steht nur eine Maus.

Eine Maschine, die an dem Test teilnimmt hat keine direkte Verbindung zu

der Blackbox, sondern kann, genauso wie der menschliche Benutzer, nur

den Screen und die Maus als Interface benutzen.

Die Blackbox erklärt an einigen Beispielen, wie Aufgaben des betreffenden

Typs gelöst werden können. Sowohl der Mensch, als auch die

Maschine können dieses beispielgebende Programm beliebig oft aufrufen.

Es ist das einzige, was sie haben, um die Aufgabenstellung zu

begreifen. Sowohl der Mensch, als auch die Maschine haben ein gewisses

Kontingent an Rechenzeit. Wir können der Maschine einen Vorsprung

geben, indem wir sagen, dass ein Problem, für das ein Mensch eine

Minute Zeit für eine Überlegung hat, der Maschine ein Tag

(also das ca. Tausendfache) eingeräumt wird ( das für alle,

die Janoschs Argument befürworten, man müsse nur die Rechenpower

erhöhen, schon läuft das ganze wie am Schnürchen). Auf diese

Weise könnte man den IQ einer KI , mit dem eines Menschen vergleichen.

( Ich vermute, eine ausgereifte Form von Mimesis  könnte

den Menschen bei diesem Intelligenztest übertreffen, auch auf heutigen

Rechnern, sofern die Bilder auf dem Bildschirm nicht zu komplex sind -

keine bewegten dreidimensionalen Szenen usw. ) 


Solch einer Maschine würde ich Intelligenz zuschreiben. Ich

würde sogar sagen, eine wirklich intelligente Maschine müsste

die Fähigkeit zur "Wahrnehmung" besitzen; ein Modell ihrer selbst,

sowie ihrer Umwelt er-rechnen.


In obigem Falle könnte man der KI eine Reihe von Handlungsmustern

vorlegen, die sehr typisch sind für Systeme, die auf Algorithmen

beruhen. Dann sollte sie jene auswählen, in denen sie sich erkennen

kann und eine kurze Antwort geben, warum sie meint, dass sie das ist, was

sie da vor sich sieht. Hierbei können natürlich nur KI-Systeme

gegeneinander antreten und nicht KI gegen Mensch.


Wie z.b. Piaget zeigte, dass der Mengenbegriff für Kleinkinder

ntürlicher als der Zahlenbegriff sei. Ein Haufen Äpfel und Birnen

und das Kind wird beauftragt zu ergründen, ob nun mehr Birnen oder

mehr Äpfel auf dem Tisch liegen. Das Kind setzt (Birne - Apfel) (Birne-Apfel)

....(Birne-?). Kein Apfel mehr, habe mehr Birnen auf dem Tisch. Ein Kleinkind

kommt also ohne einen Begriff der "Zahl" zur Einsicht, es gäbe in

diesen Fall mehr Birnen als Äpfel.


Auch diese Proto-Mengenlehre hat in gewisser Weise mit Wahrnehmung

zu tun.


Das liefert ein sehr einfaches Beispielproblem für die Blackbox.

z.B. übereinanderliegende farbige Scheiben. Es gibt, sagen wir drei

Farben und das System soll herausfinden, aus einem Haufen zufällig

verteilter Scheiben, welcher Farbe die meisten Scheiben angehören.

Die Blackbox zeigt an einem Beispiel, wie sich das Problem lösen lässt.

Dann können die Systeme gegeneinander antreten.


Das Penrossche nicht-rechnerische könnte demnach nur ein derzeitiges

Fehlen der Fähigkeit von KI-Systemen sein, etwas wahrzunehmen. Und

Wahrnehmung / Mustererkennung / Gesichtserkennung -- da ist das Gehirn

wahrlich jedem KI-System Welten voraus. Eine KI (ein Taschenrechner tuts

auch) kann zwar schneller Rechnen; aber dies kann kein Kriterium für

echte maschinelle Intelligenz sein.


Es ist der Nexus zwischen Wahrnehmung und Denken der interessant ist:

wir empfangen Daten, erzeugen daraus Wahrnehmungen und

schaffen dann Algorithmen (oder Handlungsmuster) . Jedes System, dass

am "Kay-Test" teilnimmt muss diese Sequenz durchlaufen können.


Und, wenn es um "Wahrnehmung" geht, dann gibts seit Norbert Wiener

kybernetische Probleme, oder besser, einen kybernetischen Strudel.



Ich habe jetzt weit ausgeholt, aber mir ist heute, oder gerade jetzt,

danach.


Apfelstrudel? Hmmm... lecker!


Viele Grüße



Kay


















von Kay S - am 17.10.2000 10:59

Re: Reflexionsprinzip, Wahrnehmung & KI

Geschrieben von Martin V am 17. Oktober 2000 18:06:15:
Als Antwort auf: Re: Reflexionsprinzip, Wahrnehmung & KI geschrieben von Janosch am 16. Oktober 2000 21:21:50:
Lieber Janosch, zu Dir komme ich noch. Leider bin ich heute etwas Harmoniebedürftig. Hoffe, dass ich morgen wieder die Kraft habe, Dir einsichtig zu machen, dass die Wahrheit G`s nicht formalisiert werden kann. Ich weiss nicht, aber es muss einen Unterschied zwischen Mathematikern und analytischen Philosophen geben (Gödel war u.a. als Mitglied des Wiener Kreises ein analytischer Philosoph). Kann sein, dass er deswegen seine auftretende Wahrheit für finite Systeme als nicht-formalisierbar sah, während Mathematiker darin überhaupt keine Wahrheit sehen. Und in der Tat: G in der Mengentheorie formuliert, führt zu Konsequenzen, die anders sind, als im Kleid formaler Systeme. Aber dazu erst später, wenn ich nicht nach Relativitätsprinzipien strebe. Das ist sicherlich morgen ;o)











Hallo,

(...)

Hofstadter gibt ein kleines Beispiel, in seinem MU-System (er nennt dann ds Refelxionsprinzip: Aus dem System herausspringen. Wenn MU ein Axiom eines Systems sei, und wir würden eine Maschine beauftragen, U zu erzeugen (obwohl wir wissen, dass aus den Ableitungsregeln ganz klar nie ein U zu erzeugen sein kann), so würde die Maschine nie anhalten.

Das kommt auf die Maschine an.

Sie kann auch nach einigem erfolglosem Herumprobieren mit Mitteln der Mengenlehre einen Beweisversuch zur Unlösbarkeit der Aufgabe durch Induktion über die MU-Sätze anfangen.

Dieser Beweisversuch wird rasch erfolgreich sein.

Du wirst bemerkt haben, daß etwa im Beweis des Unvollständigkeitssatzes in der Tat ein Reflektionsprinzip auf letztlich mengentheoretischem Wege bewiesen wird :).

(...)

Aber, wenn man das Reflexionsprinzip deshalb aufgibt, so zeigt sich seid Gödel, zahlt man einen Preis.

Wenn man für ein bestimmtes System gar kein Reflektionsprinzip beweisen kann, hat man nichts, was man aufgeben könnte.

Natürlich wird man sich im Zweifelsfall der stärksten Theorie bedienen, die man zur Verfügung hat, um ein Problem zu lösen. Dabei ist anscheinend die Mengenlehre das beste, womit wir umgehen können.

Dann gibt es wahre Sätze, die aber unentscheidbar bleiben, denn man operiert bei G solange innerhalb des Systems, wie man den Widerspruch der Formel G formal sieht.

Es gibt dann Sätze, die in bestimmten Strukturen wahr sind, die man vielleicht für besonders interessant hält, wenn man schon über eine Metatheorie verfügt, die einen Zugriff auf diese Strukturen erlaubt.

Die weitere Schlussolgerung, dass G aber wahr sei,

G ist wahr in den natürlichen Zahlen und unwahr in gewissen anderen Strukturen.

Wahr ist natürlich der schwächere mengentheoretische Satz, daß G unbeweisbar sei.
(...)

Frage an Dich: Gibt es eine solche KI, die durch eigene Intention heraus aus dem System springt (dabei muss sie irgendwie "wissen", in welchen Fällen es dies tun muss, was mir schwierig erscheint) und die Berechnung, mit der sie sich gerade befasst, beobachtet?

Gelernters Geometrie-Theorembeweiser operierte regelmäßig ausserhalb der formalen Methoden der euklidischen Geometrie, indem er vor dem Beweis von Sätzen versuchte, sie durch Gegenbeispiele zu widerlegen.

Eurisko konnte empirische Beobachtungen auswerten, um seine Heuristiken dem Problembereich, mit dem es sich befasste, anzupassen.

Die Entscheidung, eine Theorie zu verlassen, um in einer stärkeren Theorie über diese Theorie nachzudenken, wird sicherlich nicht auf der Grundlage logischer Erwägungen getroffen, sondern dürfte eher auf vorprogrammierte Heuristiken zurückzuführen sein, die darauf hinauslaufen werden, daß man vermutlich gar keinen Erfolg haben wird, wenn man über längere Zeit erfolglos versucht hat, einen Beweis in einer relativ schwachen Theorie zu führen.

Oder, einfacher ausgedrückt: einem intelligenten System wird das Versagen bei dem Versuch, eine Aufgabe zu lösen, irgendwann langweilig ;). Und solche Heuristiken findet man tatsächlich bei manchen modernen Theorembeweisern und sonstigen KI-Systemen.

....vielleicht sollte man diese Frage am besten an Cyc weiterreichen ;)....



(...)

Solch einer Maschine würde ich Intelligenz zuschreiben. Ich würde sogar sagen, eine wirklich intelligente Maschine müsste die Fähigkeit zur "Wahrnehmung" besitzen; ein Modell ihrer selbst, sowie ihrer Umwelt er-rechnen.

Cyc beispielsweise verfügt über eine recht ausgedehnte Selbstrepräsentation.

(...)

Das Penrossche nicht-rechnerische könnte demnach nur ein derzeitiges Fehlen der Fähigkeit von KI-Systemen sein, etwas wahrzunehmen.

Bei schwierigen Mustererkennungsaufgaben und Commonsense-Problemen sind KIs noch weit von menschenähnlichem Niveau entfernt und gutes Weltwissen und Mustererkennung sind sicher notwendig, um eine KI mit Problemlösungsfähigkeiten von menschenähnlicher Flexibilität auszustatten. In beiden Bereichen gibt es aber nachweisbare Fortschritte, was eigentlich überraschend ist, wenn man bedenkt, wie weit die Rechenkapazität heutiger Computersysteme unter der des menschlichen Gehirns liegt.



Und Wahrnehmung / Mustererkennung / Gesichtserkennung -- da ist das Gehirn wahrlich jedem KI-System Welten voraus.

Gesichtserkennung funktioniert heute gut, Spracherkennung auch, und Roboter, die in Echtzeit ein weitgehend fehlerfreies dreidimensionales Modell ihrer näheren Umgebung anlegen können, existieren auch.

Natürlich ist die menschliche Überlegenheit auf diesen Gebieten noch groß, aber das sollte nicht überraschen. Immerhin ist das menschliche Gehirn von der Hardwarekapazität her allenfalls mit einem grossen Supercomputer zu vergleichen, und seine Entwicklung und Optimierung dauerte viele Millionen Jahre ;).

Grüße,

Janosch.


















von Martin V - am 17.10.2000 16:06

Re: Ein Universum voller Widersprüche

Geschrieben von Janosch am 17. Oktober 2000 19:08:30:
Als Antwort auf: Re: Ein Universum voller Widersprüche geschrieben von Kay S am 15. Oktober 2000 20:43:18:
Hi Kay,
>(...)

>Ich denke, man kann sowohl mit rein symbolischen als auch mit rein konnektionistischen Ansätzen letztlich erfolgreich sein, wird dafür aber mit höheren Ansprüchen an die Hardware bezahlen müssen. Genauso wird man höhere Ansprüche an die Hardware haben, wenn man eine leistungsfähige KI auf einem Allgemeinrechner statt auf einer speziellen "KI-Maschine" haben will.

>Ich bin der Ansicht, dass es Probleme gibt, die sehr einfach zu stellen und mit keinem der Standardverfahren gut zu bearbeiten sind. Ich werde ein andermal darauf zurückkommen.
Daß man mit konnektionistischen Verfahren allein alle intelligenz-relevanten Probleme lösen kann, halte ich aufgrund der anscheinend rein konnektionistischen Architektur des menschlichen Gehirns für halbwegs erwiesen.

Bei rein symbolgestützten Systemen bin ich auch zuversichtlich, wenn sie keine globale Konsistenz anstreben und über hinreichend ausdrucksstarken Sprachen operieren, weil man mit derartigen Systemen Teilerfolge erzielt hat, die im Verhältnis zur eingesetzten Rechenkapazität beachtlich sind.

Davon abgesehen habe ich überhaupt kein Problem mit der Tatsache, daß es Probleme gibt, die in der Praxis nicht mit mathematischen Methoden exakt gelöst werden können. Ich halte es auch ohne weiteres für vorstellbar, daß eine Cyc-ähnliche KI gelegentlich zur Lösung bestimmter Probleme Spezialprogramme schreiben könnte, wozu sie allerdings viel über Computerprogrammierung wissen müßte.

Das wäre natürlich wieder ein Weg zur Metaprogrammierung, auch wenn diese hier erst nach der Konstruktion einer gewaltigen Maschinerie zur Wissensspeicherung und -verwaltung ins Spiel käme.



>Meta-Programmierung in einem weiteren Sinne ist eigentlich Gang und Gebe.
Ich wollte nicht behaupten, daß es keine Beispiele für Metaprogrammierung gäbe. Dabei kann ein bestimmtes Programm sogar das Ergebnis mehrerer Metaprogrammierungs-Schritte sein, beispielsweise könnte es sein, daß ich eine selbstextrahierende Datei habe, die mir dann ein Anwendungsprogramm erzeugt. Das selbstextrahierende Programm wiederum wurde vielleicht von WinZip geschrieben, das wiederum möglicherweise in einer Hochsprache geschrieben und von einem Optimierungscompiler compiliert wurde. Der Optimierungscompiler wiederum könnte selbst in einer Hochsprache geschrieben worden sein...

Aber das sind "triviale" Beispiele für Metaprogrammierung, weil sie letztlich zu einem normalen Anwendungsprogramm führen. Nichttriviale Beispiele wären Systeme wie Cyc (wenn man die Cyc-Wissensbasis als Programm ansieht, das dann die Möglichkeit hätte, sich umzugestalten) oder neuronale Netze (die man auch als sich selbst reprogrammierende Programme ansehen könnte) oder Tierra-Organismen (die meines Wissens teilweise recht ausgiebig Gebrauch machen von der Möglichkeit, in ihren eigenen Code einzugreifen).

Ich nehme an, daß Metaprogrammierung auf der Maschinencode-Ebene auch deshalb ungern gesehen wird, weil eine Programmiersprache, die Programmen Manipulationen auf dieser Ebene ohne Schwierigkeiten erlauben würde, auch das Schreiben von Viruscode besonders leicht machen könnte.
> (...)

>Ich werde demnächst, vermutlich in mehreren Teilen, ein wenig über mein aktuelles Projekt Mimesis schreiben. Aus seiner Entwicklung wird deutlich, dass es einfache Probleme gibt, die nicht Brute-Force gelöst werden können ( durch systematisches durchprobieren ) und die sich wohl auch nicht durch künstliche neuronale Netze "lernen" lassen.
Ok, das wäre sicher interessant.
Grüße,

Janosch.
















von Janosch - am 17.10.2000 17:08

Rechenleistung

Geschrieben von Janosch am 17. Oktober 2000 19:34:37:
Als Antwort auf: Re: Reflexionsprinzip, Wahrnehmung & KI geschrieben von Kay S am 17. Oktober 2000 12:59:17:
Hallo,
> Wir können der Maschine einen Vorsprung

>geben, indem wir sagen, dass ein Problem, für das ein Mensch eine

>Minute Zeit für eine Überlegung hat, der Maschine ein Tag

>(also das ca. Tausendfache) eingeräumt wird ( das für alle,

>die Janoschs Argument befürworten, man müsse nur die Rechenpower

>erhöhen, schon läuft das ganze wie am Schnürchen).
Ich sage gar nicht, daß alles wie am Schnürchen läuft, sobald man genug Rechenkapazität und Speicherplatz hat. Ich sage nur, daß gar nichts auf menschenähnlichem Niveau läuft, solange man nicht genug Rechenkapazität und Speicherplatz hat. Aufgrund gewisser Schätzungen über die Leistungsfähigkeit des menschlichen Gehirns, wo man mit verschiedenen Methoden zu größenordnungsmäßig ähnlichen Ergebnissen zu kommen scheint, würde ich annehmen, daß für menschenähnliche Problemlösungskompetenz ungefähr 100 Billionen Gleitkommaoperationen pro Sekunde und etwa 100 Terabyte Hauptspeicher zur Verfügung stehen müssen.

Wenn man das hat, dann kann man anfangen, im Detail darüber nachzudenken, wie die schwierigen Probleme im Zusammenhang mit der Konstruktion einer Software mit menschenähnlicher Intelligenz zu lösen sind.

Lenat und Minsky sind da anderer Meinung und sagen, daß eine körperlose KI mit der Rechenleistung und dem Speicherplatz eines heutigen PCs auskommen könnte, aber mir fällt es schwer, mir vorzustellen, daß ein zehntausendstel meiner Hirnleistung für meine intellektuellen Fähigkeiten ausreichen sollte.

Ich würde allerdings zugestehen, daß man für ein körperloses System weniger Rechenleistung braucht - vielleicht kommt man also mit einem gewöhnlichen Teraflops-Rechner aus ;).

Das Rechenkapazitäts-Problem nun könnte man mit Deinem Ansatz (oder durch Verteilung der Rechenprozesse auf ein riesiges Computer-Netzwerk) tatsächlich in den Griff bekommen. Trotzdem halte ich diesen Ansatz für insgesamt nicht sehr praktikabel, und zwar aus zwei Gründen:
(a) Mangelnder Speicherplatz kann ein genauso schlimmes Problem sein wie mangelnde Rechenleistung.

(b) Ich bezweifle, daß man eine KI mit menschenähnlicher Intelligenz konstruieren könnte, ohne viel herumzuexperimentieren, und man kann nicht viel mit einem Programm herumexperimentieren, das Tage braucht, um nur recht einfache Probleme zu lösen.
Grüße,

Janosch.
















von Janosch - am 17.10.2000 17:34

Re: Rechenleistung

Geschrieben von Kay S am 17. Oktober 2000 20:56:11:
Als Antwort auf: Rechenleistung geschrieben von Janosch am 17. Oktober 2000 19:34:37:
>Hallo,

>> Wir können der Maschine einen Vorsprung

>>geben, indem wir sagen, dass ein Problem, für das ein Mensch eine

>>Minute Zeit für eine Überlegung hat, der Maschine ein Tag

>>(also das ca. Tausendfache) eingeräumt wird ( das für alle,

>>die Janoschs Argument befürworten, man müsse nur die Rechenpower

>>erhöhen, schon läuft das ganze wie am Schnürchen).
Ich sage gar nicht, daß alles wie am Schnürchen läuft, sobald man genug Rechenkapazität und Speicherplatz hat. Ich sage nur, daß gar nichts auf menschenähnlichem Niveau läuft, solange man nicht genug Rechenkapazität und Speicherplatz hat. Aufgrund gewisser Schätzungen über die Leistungsfähigkeit des menschlichen Gehirns, wo man mit verschiedenen Methoden zu größenordnungsmäßig ähnlichen Ergebnissen zu kommen scheint, würde ich annehmen, daß für menschenähnliche Problemlösungskompetenz ungefähr 100 Billionen Gleitkommaoperationen pro Sekunde und etwa 100 Terabyte Hauptspeicher zur Verfügung stehen müssen.


Mit einer solchen Rechenleistung kannst Du den Computer Videoclips anschauen und Prosagedichte schreiben lassen. Frage ist nur, wie kommt die dafür geeignete Software in die Maschine?
Wenn man das hat, dann kann man anfangen, im Detail darüber nachzudenken, wie die schwierigen Probleme im Zusammenhang mit der Konstruktion einer Software mit menschenähnlicher Intelligenz zu lösen sind.

Wenn man das hat, dann sollte man anfangen, die KI auf einer solchen Maschine zu implementieren. Was soll denn das? Janosch, ich habe diese Rechenleistung bereits, sie ist im Zeitplan inbegriffen. Ein Projekt wie Mimesis schreibt sich doch nicht an einem Wochenende.
Lenat und Minsky sind da anderer Meinung und sagen, daß eine körperlose KI mit der Rechenleistung und dem Speicherplatz eines heutigen PCs auskommen könnte, aber mir fällt es schwer, mir vorzustellen, daß ein zehntausendstel meiner Hirnleistung für meine intellektuellen Fähigkeiten ausreichen sollte.

Ich würde allerdings zugestehen, daß man für ein körperloses System weniger Rechenleistung braucht - vielleicht kommt man also mit einem gewöhnlichen Teraflops-Rechner aus ;).
Ja genau. Das System soll erst einmal Denksportaufgaben lösen, dann kann es immer noch Jupiter-Expeditionen steuern.
Das Rechenkapazitäts-Problem nun könnte man mit Deinem Ansatz (oder durch Verteilung der Rechenprozesse auf ein riesiges Computer-Netzwerk) tatsächlich in den Griff bekommen. Trotzdem halte ich diesen Ansatz für insgesamt nicht sehr praktikabel, und zwar aus zwei Gründen:

(a) Mangelnder Speicherplatz kann ein genauso schlimmes Problem sein wie mangelnde Rechenleistung.

(b) Ich bezweifle, daß man eine KI mit menschenähnlicher Intelligenz konstruieren könnte, ohne viel herumzuexperimentieren, und man kann nicht viel mit einem Programm herumexperimentieren, das Tage braucht, um nur recht einfache Probleme zu lösen.
Dafür vereinfacht man ja auch die Probleme, damit man sie wenigstens im Prinzip verstehen kann. Das hat auch Galilei schon so gemacht und damit Erfolg gehabt.

Die größte Kunst besteht immer noch darin, die richtigen Fragen zu stellen.

Gute Handwerker findet man überall, die müssen nur geeignet ausgebildet werden.

Was ich an einigen KI-Projekten kritisiere ist die Oberflächlichkeit der Hypothesen. Da wird viel mitgeschliffen, was einmal Avantgarde war, wo aber erkennbar werden muss, dass der sportive Jüngling von einst, zum Klappergreis geworden ist. Ich würde mir z.B. die gesamte formale Syntax-Semantik-Grammatik anschauen, die zwar die Linguistik in eine exakte Disziplin verwandelt hat,

aber zunehmend in eine, die ihr Objekt verloren hat.
Grüße,

Kay


















von Kay S - am 17.10.2000 18:56

Re: Neue K(a)Is

Geschrieben von Martin V am 18. Oktober 2000 00:05:47:
Als Antwort auf: Re: Neue K(a)Is geschrieben von Janosch am 17. Oktober 2000 21:25:56:
Grüsse Janosch,



Das ist mir klar, da der einzige Vorteil eines konventionellen Quantencomputers verglichen mit einem normalen Computer in seiner Fähigkeit besteht, bei gewissen Berechnungen durch Ausnutzung von Superpositions-Effekten massive Parallelität und damit problemspezifisch extreme Rechenleistungen zu erreichen (zumindest, falls sein Arbeitsspeicher mehr als etwa 70 qubits umfasst).



Nein, es geht Zeilinger tatsächlich um die diskontinuierliche Reduktion komlexer Superpositionen und deren "Nutzung". Ein Effekt dieser Reduktion ist u.a. eine Kausalitätsverletzung (Wheelers Wahl könnte tatsächlich experimentell, durch solche auf orch-or Theorie basierenden "Quantengravitationsmaschinen", verifiziert werden). Die komplexe Überlagerung einer Wellenfunktion ist unitär, entwickelt sich in t und somit fast klassisch.



Penrose will aber etwas anderes, nämlich einen Computer, der Quantengravitations-Effekte ausnutzen soll, um bestimmte unberechenbare Funktionen zu berechnen. Um so einen Computer zu bauen (falls so etwas physikalisch machbar ist, was ich stark bezweifle, solange es keine empirischen Hinweise auf nichtberechenbare Vorgänge irgendwo in diesem Universum gibt), braucht man eine Theorie der Quantengravitation, und die gibt es noch nicht.



Stimmt, diese Theorie wird es auch noch länger nicht geben. Ein Hawking beisst sich dabei die Zähne aus. Natürlich stellt sich auch die Frage, wie man diesen diskontinuierlichen Moment der Reduktion des Zustandsvektors "nutzt". Aber ich denke mir, dass man durch erfindungsreiche Verfahren auch dieses Problem lösen wird. Ich werde es nicht lösen.
Nicht-rechnerische Vorgänge in der Natur finden sich nach Theorien einiger Physiker (die nicht unbedingt Penrossche Anti-KI Anhänger sind) im Vorgang der Reduktion der vorerst unitären, dann komplex konjungierten, dann der Wahrscheinlichkeitstheorie zugehörenden Wellenfunktion. "Dazwischen" haben wir diskontinuierliche Paradoxa, wie eben das erwähnte, aber hier nicht weiter ausformulierte Problem der zeitlichen-Asymmetrie und scheinbaren Akausalität.



Deshalb meine Zweifel daran, daß Zeilinger einen Penrose-Computer bauen will.



Ich weiss auch nicht, wie man im Falle eines Quantencomputers diese diskontinuierliche Reduktion des komlexen Zustandsvektors nutzen könnte. Aber, es gibt dort eben gescheite Köpfe, die das vorhaben. Basierend auf der Vorstellung einer orch-or (objektiven Kollaps der Wellenfunktion), die eben u.a. Penrose postuliert. Es muss nicht ein Penrose-Computer sein, denn die orch-or Theorie hat dieser nicht gepachtet. Die Reduktion der komplexen Wellenfunktion und ihre seltsamen Wirkungen sind Erscheinungen der Naturgesetze, nicht einem Penrose gehörend. Die Alternative dazu wären die unten diskutierten many-worls.
Deutsch will einen Quantencomputer u.a. bauen, um herauszufinden, ob die many worlds zutreffen, Zeilinger & Co. wollen einen Quantencomputer bauen, um herauszufinden, ob die Orch-Or zutrifft. Beide Ansätze sind sehr befruchtend. Denn entweder wird Deutsch recht behalten, Zeilinger und Co. recht behalten, oder niemand recht behalten und man findet ganz andere Erklärungen, als man jetzt hat.



Extrem müde Grüsse,

Martin
















von Martin V - am 17.10.2000 22:05

Re: Kleiner Kollaps, grosses Rätsel

Geschrieben von Martin V am 18. Oktober 2000 14:37:59:
Als Antwort auf: Re: der kleine Kollaps geschrieben von Kay S am 18. Oktober 2000 10:20:46:
Greets,



Heute ist meine Zeit begrenzt. Ich möchte deshalb in Stichworten auf drei Grössen verweisen: John Bell, Alain Aspect, Archibald Wheeler. Vor allem Bell, der mit seinen Ungleichungen bewies, dass die Rätsel, die uns die Quantenmechanik liefern in ihrer nichtlokalen Natur liegen und diese ist wiederum, durch Bell mathematisch bewiesen (und wieder durch einen Reductio ad absurdum) und durch Alain Aspect experimentell nachgewiesen und verifiziert.
Die scheinbar absurden Effekte, die uns die Quantenmechanik liefert, stellen sich nicht unbedingt ein, wenn man z.b. von einer nichtlokalen Verschränkung zweier Teilchen spricht. Das Absurde der Nichtlokalität tritt ein, wenn man das Absolutquadrat erhebt und diese Verschränkung diskuntiuierlich zusammenbricht.
Der Versuch, der Nichtlokalität "verborgene Variabeln" zuzufügen, damit sie unserem klassischen Denken wieder zugänglich sein möge (David Bohm), musste seid Bell scheitern. Ich selbst bin gerade dabei, die Bellschen Ungleichungen zu verstehen. Sehr schwer, da der Kontext extrem komplizierte Mathematik (für mich jedenfalls, da ich nicht nur Mathe studiere) ist, während die Ungleichungen gar nicht schwer einsehbar sind.
Der langen Rede kurzer Sinn (jedenfalls jetzt -- die Zeit), falls ein Quantencomputer, wie auch immer, die Reduktion der komplexen Wellenfunktion irgendwie zu "nutzen" vermag, dann stellen sich Phänomene ein, die wahrlich mehr sind, als "nur extrem grössere Rechenleisungen". Ich verweise damit auf das "EPR-Interferometrie-Experiment" von Michael Horne und Zeilinger, sowie auf Wheelers "Delayed-Choice Experiment". Beide Experimente und deren Konsequenzen werden sich auf einen Quantencomputer, der die Reduktion zu nutzen vermag, niederschlagen.
Wir werden es sicherlich noch erleben. Da bin ich mir sicher. Und ich sage voraus, dass dann die Zunft der heutigen KI sofort auf eine QI wechseln wird. Das klingt prophetisch, aber dies ist "der Boden einer meiner Überzeugungen. Und von dieser Grundmauer könnte man sagen, sie werde vom ganzen Haus getragen" (Wittgenstein).



Leider eiligst,

Martin V
















von Martin V - am 18.10.2000 12:37

Re: Turing, Gödel, Lucas & Penrose

Geschrieben von Martin V am 18. Oktober 2000 16:34:04:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Janosch am 16. Oktober 2000 19:53:03:
Hallo Janosch,



Das Verfahren, dass ich anwendete ist formal äquivalent mit der Konstruktion des Gödelschen Satzes und die Aussage des Halteproblems, dass es kein Programm geben kann, dass mir sagt, ob ein anderes Programm jemals zum Stillstand kommt, trifft sich ebenfalls in der obigen Konstruktion. Wenn man versucht, ein Programm zu konstruieren, dass uns zeigen soll, ob ein anderes Programm anhält, wird dieses Programm, das wir A nannten, und das zu überprüfende Programm, dass wir Ck(k) nannten, zu einer Möbiusschleife. Das ist auch die aussage des Halteproblems -- es gibt kein solches Verfahren, ohne dass eine Schleife auftritt. Deshalb ist: Wenn Ck(k) anhält, hält Ck(k) nicht an tatsächlich eine undurchführbare Operation. Dies ist aber das Ergebnis, wenn man in Form eines Reductio ad absurdum annimmt, es gäbe solch ein Programm, dass mir sagt, ob ein anderes x-beliebiges Programm nicht anhält. A wird zu Möbiusschleife Ck(k). Das ist das Halteproblem, und dies sollte wohl unstrittig sein.
Strittig ist, dass wir in diesen Fall, dieser Problemklasse, wie ich sie formulierte Ck(k) tatsächlich sehen, dass Ck(k) nicht anhält. Es stand uns aber der Janusköfige Algorithmus A nicht zur verfügung, weil A am Schluss ja selbst nicht anhält.
Wie bei Gödel treten wir aus diesen Widerspruch, der sich in der TM dadurch ergibt, heraus und erkennen, dass Ck(k) nicht anhält. Und diese Folgerung triffst Du dann ausserhalb des Systems, mit dem Du dich hier befasst. Innerhalb des Systems, in diesen Fall unsere TM die mit A und Ck(k) beauftragt wird aber, ist dieser daraus resultierende Widerspruch / die Schleife / nicht formal lösbar. Deshalb spricht man ja vom Halteproblem, dass tatsächlich nicht lösbar ist.
Du benutzt somit, als Janosch-Maschine sicherlich nicht A. Aber, Janosch-Maschine hat Vorteile. Sie ist so intelligent, dass sie A in diesen Fall gar nicht braucht und auch nicht verwendet. Janosch-Maschine benutzt einen anderen Algorithmus als A konzipiert ist, und dieser andere Algorithmus kann in diesen Fall Ck(k) erkennen, dass Ck(k) tatsächlich nicht anhält.
Janosch-Algorithmus kann nicht der TM Algorithmus A sein, obwohl wir dachten, wir würden genau diesen verwenden, was wir durch Hilfe dieser Annahme, tatsächlich nicht tun (das ist nun einmal ein Reductio) können.
Nun wissen wir nicht, welchen A wir (unser Gehirn) dann wirklich verwendete. Jedanfalls keinen korrekten oder erkennbaren Algorithmus. Sicherlich keinen TM Algorithmus. Der Systemsprung zur Wahrheit ist diskontinuierlich. Dazwischen haben wir keinen Formalismus.
Es muss nicht Penrosche-nicht-Berechenbarkeit sein, aber trotzdem ein grundsätzlich anderer A, als der, die eine TM durchläuft.



Zu Gödel noch kurz, es stammt von Doug Hofstadter selbst:
"[..] nichtsdestoweniger kann man sich der Menge von Wahrheiten stufenweise annähern, indem man zunehmend leistungsstärkere formale Systeme verwendet, um zunehmend genauere Annäherungswerte zu erzielen. Das Ziel der ganzen und reinen Wahrheit indes bleibt für formale Methoden ebenso unerreichbar wie die Lichtgeschwindigkeit für jedes materielle Objekt."
Es sei betont, dass sogar Hofstadter, wenn er von "ganzer und reiner Wahrheit" spricht, tatsächlich die menschliche Einsicht in [ G = Verum - out-of-the-system ] meint.
Ich bin nicht gegen die KI- ich bin nur gegen derzeitige Modelle, die einfach zu Algorithmisch denken. Das Gehirn arbeitet anders. In dieser Hinsicht ist mir Kays und Hofstadters Ansatz sympathischer, da er sich wirklich dem Ziel verschreibt, eine dem Menschen ähnliche künstliche Intelligenz zu schaffen. Mit all dem, was uns ausmacht.
Dabei vergessen aber wiederum viele KI-Forscher, dass man dann auch Fragen nach der Wirklichkeit stellen muss, wie ich in "Mimesis-Fall für Konstruktivisten" anriss. Das scheinen für manche "nur" Philosophische Probleme zu sein. Aber sie sind in der Tat Probleme, die auch die rein empirische Wissenschaft betrifft. Und es ist mir schon klar; ein Mathematiker oder KI-Entwickler quält sich nicht (will oft nicht, da irrelevant) mit solchen Fragen. Seltsam, denn wenn wir uns rein mit dem Gehirn, aus wissenschaftlich-empirischer sicht befassen, müssen wir uns sehr wohl solche Fragen stellen.
Ich, das ist meine Position, Du hast eine andere und ich akzeptiere sie, erkenne eine echte maschinelle Intelligenz erst dann als solche an, wenn Grundprobleme der Hirnforschung, Bewusstseinstheorie und Endophysik (also ne art Mikrokonstruktivismus) erst gelöst werden - oder wenn wir wenigstens annähernd mehr wissen, als dies jetzt der Fall ist. Und dies ist nicht nur meine Meinung, sondern auch die eines Gerhard Roth, einem der grössten Hirnforscher unserer Zeit.



Gott, ich habe nie Zeit, shit und

tschüss ;)
















von Martin V - am 18.10.2000 14:34

Aus "Ck hält nicht an" folgt nicht "Ck weiss nicht, daß es nicht anhält"

Geschrieben von Janosch am 18. Oktober 2000 20:04:24:
Als Antwort auf: Re: Turing, Gödel, Lucas & Penrose geschrieben von Martin V am 18. Oktober 2000 16:34:04:
Hallo,
>Das Verfahren, dass ich anwendete ist formal äquivalent mit der Konstruktion des Gödelschen Satzes und die Aussage des Halteproblems, dass es kein Programm geben kann, dass mir sagt, ob ein anderes Programm jemals zum Stillstand kommt, trifft sich ebenfalls in der obigen Konstruktion.
Dein Beweis beweist nur, daß es kein beweisbar unfehlbares Programm geben kann, das dadurch, daß es anhält, vorhersagen kann, ob es nicht anhält.

Man kann auch beweisen, daß es kein Programm geben kann, das in endlicher Zeit über das Halteverhalten beliebiger anderer Programme entscheidet - aber dabei verliert man die Möglichkeit, zu einem beweisbar unfehlbaren Halteproblems-Entscheider P ein anderes Programm P' zu konstruieren, über dessen Halteverhalten P keine Aussage mehr machen kann, und über dessen Halteverhalten man als Mensch Bescheid wissen könnte.

Also, welche der folgenden Aussagen bestreitest Du nun:
(a) Die Aussagen "Das Programm Ck kann nicht signalisieren, daß es nicht anhalten wird, indem es anhält" und "Das Programm Ck kann überhaupt nicht signalisieren, daß es nicht anhalten wird" sind nicht äquivalent und die zweite dieser Aussagen folgt auch nicht aus der ersten.

(b) Nur sehr einfache Programme sind für Menschen beweisbar unfehlbare Halteproblems-Entscheider.

(c) Ein halbwegs intelligentes Computerprogramm könnte ohne weiteres erkennen, daß es nicht anhalten will und sich dann selbst so verändern, daß es mit Sicherheit tatsächlich nicht anhält und dies auch vorhersagt.

(d) Bei einem mathematisch korrekten Beweis für die Existenz von Computerprogrammen, über deren Halteverhalten ein gegebenes unfehlbares Computerprogramm nichts mehr sagen kann, verliert man die Konstruierbarkeit der fraglichen Computerprogramme.
Ich bezweifle im übrigen sehr stark, daß Quantencomputer jemals KI-relevant sein werden. Nach allem, was ich über die Theorie der Quantencomputer-Programmierung weiss, scheinen nach heutigem Kenntnisstand nämlich selbst utopisch grosse Quantencomputer (1000 qubits Arbeitsspeicher) nur bei ganz bestimmten Problemen - etwa bei der Faktorisierung grosser Zahlen - normalen Computern deutlich überlegen zu sein, und nicht einmal das ist bisher streng mathematisch bewiesen. Und daß ein Quantencomputer, der nicht penrosianische Physik-Erweiterungen benutzt, unberechenbare Probleme lösen können sollte, wäre mir vollkommen neu.
Grüße,

Janosch.
















von Janosch - am 18.10.2000 18:04

Re: Aus "Ck(k) hält an, wenn Ck(k) nicht anhält" folgt "Ck(k) hält nicht an"

Geschrieben von Martin V am 18. Oktober 2000 21:33:32:
Als Antwort auf: Aus geschrieben von Janosch am 18. Oktober 2000 20:04:24:
Hallo,



Aus "Ck(k) hält an, wenn Ck(k) nicht anhält" folgt "Ck(k) hält nicht an". Warum? Siehe nochmals meinen obigen Beitrag zu diesen Thema.



Dein Beweis beweist nur, daß es kein beweisbar unfehlbares Programm geben kann, das dadurch, daß es anhält, vorhersagen kann, ob es nicht anhält.
Mein Beweis unterstreicht nur die Unlösbarkeit des Turingschen Halteproblems, dass es kein Programm / Verfahren A geben kann, dass für x-beliebige andere Programme Ck(k) beweist, dass diese nicht anhalten, ohne in eine Möbiusschleife zu geraten, wobei A dabei unweigerlich zu Ck(k) wird und somit auch nicht anhalten kann. Das ist das Halteproblem und ich sehe nicht, was es dort auszusetzen gäbe.



Man kann auch beweisen, daß es kein Programm geben kann, das in endlicher Zeit über das Halteverhalten beliebiger anderer Programme entscheidet



Ja, wie geschrieben



- aber dabei verliert man die Möglichkeit, zu einem beweisbar unfehlbaren Halteproblems-Entscheider P ein anderes Programm P' zu konstruieren, über dessen Halteverhalten P keine Aussage mehr machen kann, und über dessen Halteverhalten man als Mensch Bescheid wissen könnte.



Diesen "Verlust" den Du ansprichst, den verstehe ich jetzt nicht ganz in Bezug auf mein vorheriges posting.



(a) Die Aussagen "Das Programm Ck kann nicht signalisieren, daß es nicht anhalten wird, indem es anhält" und "Das Programm Ck kann überhaupt nicht signalisieren, daß es nicht anhalten wird" sind nicht äquivalent und die zweite dieser Aussagen folgt auch nicht aus der ersten.
Bestreite ich nicht, es ist einfach nicht relevant in Bezug auf meinen "Beweis". Wir haben am Anfang zwei Programme, eines wo wir herausfinden wollen, ob es nicht anhält, und wir haben ein angenommenes Verfahren / Programm A, dass, wie schon Turing bewies, wenn es damit beauftragt wird zu prüfen, ob ein anderes Programm nicht anhält, dies nicht beweisen kann, da A unweigerlich in eine Schleife mit dem Programm fällt, für das es beweisen soll, dass es nicht anhält. Und da A durch diese enstandene Schleife nun nicht anhalten kann (Schleife: Wenn Ck(k) anhält, hält Ck(k) nicht an) weil sie zu Ck(k) wurde, kann es kein Verfahren A geben, dass mir das nicht anhalten eines x-beliebigen Programms beweist.
Wir wollten nicht das Programm, für das wir wissen wollen, ob es nicht anhält, dafür beauftragen, dass genau dieses Programm uns zeigt, dass es nicht anhält, sondern wir verlangten für ein anderes Programm, dass es uns zeigt, ob das "zu prüfene" Programm, von dem wir nicht wissen ob es nicht anhält, nicht anhält, indem das Programm, dass uns dies zeigen soll, anhält.
Daraus wird nichts. Solche Versuche enden in Paradoxa.



(b) Nur sehr einfache Programme sind für Menschen beweisbar unfehlbare Halteproblems-Entscheider.



Kein Programm entscheidet das Halteproblem. Oder widerssprichst Du jetzt sogar Turing?



(c) Ein halbwegs intelligentes Computerprogramm könnte ohne weiteres erkennen, daß es nicht anhalten will und sich dann selbst so verändern, daß es mit Sicherheit tatsächlich nicht anhält und dies auch vorhersagt.



"Nicht anhalten will? Oder meinst Du jetzt kann? Solch ein Programm, dass sicherlich von einer n abhängt, braucht keinen angenommenen (und unmöglichen) A, der mir sagt, dass dieses Dein Programm nicht anhält, weil es dies vorhersagt, wenn ich es frage. Diese Klasse von Programmen bräuchten keinen allgemeinen angenommenen, aber unmöglichen Halteproblem-Entscheider A.



(d) Bei einem mathematisch korrekten Beweis für die Existenz von Computerprogrammen, über deren Halteverhalten ein gegebenes unfehlbares Computerprogramm nichts mehr sagen kann, verliert man die Konstruierbarkeit der fraglichen Computerprogramme.



Ja. Deshalb wäre ein Halteproblem-Entscheider A etwas wunderbares. Aber dieser exisiert nicht.
Wenn Du jetzt mal davon absiehst (was du nicht kannst) dass wir im Fall Ck(k) tatsächlich informal entscheiden können, dass Ck(k) anhält (was im Grunde und in diesen Fall möglich ist -- nur formal kann man es nicht entscheiden -- siehe Gödel und Hofstadters Ausspruch), dann ist das von mir beschriebene System nichts anderes, nichts anderes, als das Turingsche Halteproblem. Ich weiss nicht, wo hier so grosse Probleme liegen, ausser Du hast mit dem Halteproblem grundsätzlich Probleme.



Ich bezweifle im übrigen sehr stark, daß Quantencomputer jemals KI-relevant sein werden. Nach allem, was ich über die Theorie der Quantencomputer-Programmierung weiss, scheinen nach heutigem Kenntnisstand nämlich selbst utopisch grosse Quantencomputer (1000 qubits Arbeitsspeicher) nur bei ganz bestimmten Problemen - etwa bei der Faktorisierung grosser Zahlen - normalen Computern deutlich überlegen zu sein, und nicht einmal das ist bisher streng mathematisch bewiesen. Und daß ein Quantencomputer, der nicht penrosianische Physik-Erweiterungen benutzt, unberechenbare Probleme lösen können sollte, wäre mir vollkommen neu.
Ich bezeifle nicht im geringsten, dass die Zunft der heutigen KI`ler ganz geil auf einen ersten wie-auch-immer Quantencomputer sein werden. Dann taufen sie sich in ihrer Geilheit auch sofort um und nennen sich alle QI`ler. Sogar ein Minsky wäre geil darauf. Ob er es noch erlebt weiss ich nicht. Kann sein, dass er in 20-30 Jahren schon sein ganzes Bewusstsein vom Hirn abschöpfen und codieren liess und dann als Programm auf zwei Füssen durch die Gegend läuft und fordert:"Verdammt, ich will aus dieser altertümlichen universellen TM raus und in nen QC rein!"
Minskys und Moravecs Vorstellungen sind z.b. für Hirnforscher zum lachen. Mehr zum lachen, als über einen Penrose.



MV
















von Martin V - am 18.10.2000 19:33

Re: Aus "wenn non H dann H" folgt übrigens H und nicht non H ;)

Geschrieben von Janosch am 19. Oktober 2000 00:44:23:
Als Antwort auf: Re: Aus geschrieben von Martin V am 18. Oktober 2000 21:33:32:
.... das aber nur als formale Nebenbemerkung zu dieser Bemerkung Deinerseits:
>Aus "Ck(k) hält an, wenn Ck(k) nicht anhält" folgt "Ck(k) hält nicht an".
Denn hieraus würde in der Tat "Ck(k) hält an" folgen (würde Ck(k) nicht anhalten, dann würde aus dem ersten Satz folgen, daß Ck(k) anhält).
>Mein Beweis unterstreicht nur die Unlösbarkeit des Turingschen Halteproblems, dass es kein Programm / Verfahren A geben kann, dass für x-beliebige andere Programme Ck(k) beweist,
Nein, Dein "Beweis" leistet das nicht, weil er die Möglichkeit offenläßt, daß ein Theorembeweiser, der selber nicht anhält, auf andere Weise signalisieren könnte, daß er einen Beweis hat.

Wie ich schon sagte: man kann einen Beweis für die Unmöglichkeit eines allgemeinen unfehlbaren algorithmischen Entscheidungsverfahrens für Halteprobleme schreiben. Aber dieser ist komplizierter als das was Du machst und er liefert uns kein Wissen, daß ein Computerprogramm nicht haben könnte.

Ich habe diesen Beweis an früherer Stelle in diesem Thread schon angegeben, und Kay auch.
> (...) Das ist das Halteproblem und ich sehe nicht, was es dort auszusetzen gäbe.
Nein, das ist nur der Beweis, daß kein System einen Intelligenztest der Art "Wenn er sinkt, dann hat Gott ihn zu sich geholt, und wenn er schwimmt, war er mit dem Teufel im Bunde" bestehen kann.

Mehr zeigt Dein Diagonalisierungsargument nicht, da Du diverse möglicherweise auftretende Fälle einfach unter den Tischen fallen lässt.

Beispielsweise den, daß Ck sagt: "Ck hält nicht in Reaktion auf den Input k!" und dann tatsächlich nicht hält.
>Diesen "Verlust" den Du ansprichst, den verstehe ich jetzt nicht ganz in Bezug auf mein vorheriges posting.
Du wirst im Allgemeinen für ein kompliziertes Programm P, das versucht, Halteprobleme zu entscheiden, nicht ein für Dich entscheidbares Halteproblem finden, das P nicht entscheiden kann.
>(a) Die Aussagen "Das Programm Ck kann nicht signalisieren, daß es nicht anhalten wird, indem es anhält" und "Das Programm Ck kann überhaupt nicht signalisieren, daß es nicht anhalten wird" sind nicht äquivalent und die zweite dieser Aussagen folgt auch nicht aus der ersten.

>Bestreite ich nicht, es ist einfach nicht relevant in Bezug auf meinen "Beweis".
Doch, denn Du beweist nur die erste Aussage.
>Wir haben am Anfang zwei Programme, eines wo wir herausfinden wollen, ob es nicht anhält, und wir haben ein angenommenes Verfahren / Programm A, dass, wie schon Turing bewies, wenn es damit beauftragt wird zu prüfen, ob ein anderes Programm nicht anhält, dies nicht beweisen kann, da A unweigerlich in eine Schleife mit dem Programm fällt, für das es beweisen soll, dass es nicht anhält.
Wir nehmen an, daß der menschliche Geist ein Computerprogramm A sei, das auf die Eingabe natürlicher Zahlen reagiert. Dieses Programm kann vielleicht gewisse Halteprobleme entscheiden.

Aber es ist ganz sicher nicht so, daß A seine Entscheidung dadurch mitteilt, daß es nur in solchen Fällen anhält, in denen das Programm mit der Nummer k in Reaktion auf den Input k nicht anhält. A teilt, soweit es sich entscheidet, seine Entscheidung auf andere Weise mit und hält nicht an.

Und damit führt die Annahme, daß A existiert, einfach zu keinem Widerspruch mehr - unbeschadet der Tatsache, daß A nicht beliebige Halteprobleme entscheiden kann, was aber mit der Erfahrung übereinstimmt, die man Menschen betreffend hat, die versuchen, Halteprobleme zu entscheiden.

Also: entweder, Du konstruierst für jeden Computer eine Frage, die ein Mensch, nicht aber ein Computer beantworten kann (das hast Du bisher nicht im Ansatz getan), oder Du beweist, daß Menschen das Halteproblem lösen können (das wird Dir mit Sicherheit nicht gelingen, ohne daß im Beweis das Falsum vorkommt).
> (...)

>

>

>(b) Nur sehr einfache Programme sind für Menschen beweisbar unfehlbare Halteproblems-Entscheider.

>

>Kein Programm entscheidet das Halteproblem. Oder widerssprichst Du jetzt sogar Turing?
Nö, ich habe hier nur den Begriff des "Halteproblems-Entscheiders" als lose Umschreibung des Konzepts "ein System, das versucht, Halteprobleme zu entscheiden" benutzt.
>

>(c) Ein halbwegs intelligentes Computerprogramm könnte ohne weiteres erkennen, daß es nicht anhalten will und sich dann selbst so verändern, daß es mit Sicherheit tatsächlich nicht anhält und dies auch vorhersagt.

>

>"Nicht anhalten will? Oder meinst Du jetzt kann?
Das Programm hat gewisse Ziele.

Eines dieser Ziele kann darin bestehen, die eigene Deaktivierung zu vermeiden. Ein weiteres Ziel mag sein, daß das Programm Fragen, die ihm gestellt werden, richtig beantworten soll.

Sei unser Programm-mit-Überlebenswillen nun Ck. Stellen wir nun dem Programm die Frage, ob das Programm mit der Gödel-Nummer k anhalten wird, wenn ihm die Frage gestellt wird, ob das Programm mit der Gödel-Nummer k anhalten wird, dann wird es rasch erkennen, daß es selbst das Programm mit der Gödel-Nummer k ist.

Von hier an wird die Frage nicht mehr dem Theorembeweiser übergeben, sondern dem System, das die Handlungssteuerung macht. Dieses wird aufgrund des ersten angegebenen Ziels zu der Entscheidung finden, daß man nicht anhalten soll und aufgrund des zweiten Ziels wird diese Entscheidung dann ausgedruckt.

Das Programm hat dann die Frage richtig beantwortet und wird recht behalten.
>(...)

>Wenn Du jetzt mal davon absiehst (was du nicht kannst) dass wir im Fall Ck(k) tatsächlich informal entscheiden können, dass Ck(k) anhält
Also was nun - hält Dein Ck nun in Reaktion auf den Input k an oder nicht?

Im übrigen habe ich bereits angegeben, wie man im Rahmen der Mengenlehre die Argumentation, die zu der Aussage "unter den genannten Voraussetzungen hält Ck in Reaktion auf den Input k nicht an" führt, exakt nachbauen kann.
> (...), dann ist das von mir beschriebene System nichts anderes, nichts anderes, als das Turingsche Halteproblem. Ich weiss nicht, wo hier so grosse Probleme liegen, ausser Du hast mit dem Halteproblem grundsätzlich Probleme.
Das Problem ist, daß Du eine viel schwächere Aussage als die Unentscheidbarkeit des Halteproblems beweist und daß diese schwache Aussage für die Frage nach der starken KI absolut vollkommen irrelevant ist.

Die Unentscheidbarkeit des Halteproblems liefert auch keine Anti-KI-Argumente, solange es keine nicht algorithmisch entscheidbaren Spezialfälle des Halteproblems gibt, die Menschen lösen können und Roboter nicht, und Du zeigst keinen derartigen Spezialfall.
Grüße,

Janosch.
















von Janosch - am 18.10.2000 22:44

Aus "Ck(k) hält, wenn Ck(k) nicht hält" folgt hier MetaE: "Ck(k) hält nicht"

Geschrieben von Martin V am 19. Oktober 2000 02:47:35:
Als Antwort auf: Re: Aus geschrieben von Janosch am 19. Oktober 2000 00:44:23:


.... das aber nur als formale Nebenbemerkung zu dieser Bemerkung Deinerseits:

Aus "Ck(k) hält an, wenn Ck(k) nicht anhält" folgt "Ck(k) hält nicht an".

Denn hieraus würde in der Tat "Ck(k) hält an" folgen (würde Ck(k) nicht anhalten, dann würde aus dem ersten Satz folgen, daß Ck(k) anhält).



Beweist mir nun endgültig, dass Du mein Argument leider nicht verstanden hast.

Glaubst Du ich bin so blöde, dass ich das nicht weiss? Warum beweist mir dies, dass Du das Argument nicht verstanden hast?
Auszug aus dem Schluss meiner Argumentation:
[ O: Wenn Ck(k) anhält, hält Ck(k) nicht an ]
Wir können nun folgern, dass Ck(k) nicht anhält. Aber A(k,k) kann auch nicht anhalten, weil es wegen:
A(k,k) = Ck(n)
dasselbe ist wie Ck(k). Somit kann Verfahren A nicht zeigen, dass Berechnung Ck(k) nicht aufhört, obwohl sie nicht aufhört.
Wenn wir also A in seiner Korrektheit kennen, lässt sich eine Berechnung Ck(k) konstruieren, von der wir sehen können, dass sie niemals aufhört. Somit kann A Menschen nicht zur Verfügung stehen.
Also nochmal, aus diesen Widerspruch folgt wie bei Gödel eine Überlegung ausserhalb des Systems, die uns zeigt, dass Ck(k) nicht anhält. Diese Überlegung ist: Da Ak(k) mit Ck(k) übereinstimmt, zeigt dies, das Ck(k) überhaupt nicht anhalten kann, A das aber nicht beweisen kann. Wenn Ck(k) anhalten würde, täte sie es nach "Wenn Ck(k) anhält, hält Ck(k) nicht an" nicht.
Und jetzt beauftrage einen Professor von Dir, ob dieser prüfen könnte, ob nachweislich keine korrekte Menge von Rechenregeln (wie A) je ausreichen wird, um zu beweisen, dass Berechnungen nicht anhalten; denn es gibt nicht anhaltende Berechnung (etwa Ck(k)) die sich diesen Regeln entziehen. Und frage ihn, ob er versteht, dass Ck(k) tatsächlich nie anhält. Und frage ihn dann, ob er dafür einen erkennbaren Algorithmus benutzt (er würde dem Halteproblem widersprechen, falls er dann behauptet, er benutze einen Algorithmus für diese Erkenntnis (wäre dasselbe Argument, dass sich die Wahrheit der Formel G formalisieren liesse, was nicht den Tatsachen entspricht).
Wir beide haben eine grossartige Begriffsverwirrung. Ich will nicht verstehen, dass G`s Wahrheit formalisierbar ist, Du willst nicht verstehen, dass G`s Wahrheit nicht formalisierbar ist (denn dieses Problem ist auch das Problem, dass wir hier, bei Turing haben). Du willst nicht verstehen, dass das obige Argument = dem Halteproblem ist, ich will nicht verstehen, dass das obige Argument ungleich dem Halteproblem ist (obwohl das obige Argument wunderschön zeigt, was Turing meinte, als er schrieb, dass dabei keine Schleife für A auftreten dürfte, also A nicht anhält.)
Wenn Du es mir, nach elendslangen postings beiderseits immer noch nicht abnimmst, dass Wahrheit / Einsicht ungleich formale Beweisbarkeit ist und nicht mal Hofstadter das abnimmst, dann kann ich Dir auch nicht mehr weiterhelfen.
Kay hat, so denke ich, mal grundsätzlich, nach ewigen Diskussionen verstanden, wie die Wahrheit G`s zustande kommt; auch wenn er daraus nicht Penrossche Thesen folgert, was mich nicht stört. Er hat die Kernaussage des Gödelschen Beweises verstanden.
Janosch aber hat immer noch Algorithmisierungshalluzinationen. Das obige kleine System steht, und es ist dann durchaus einsichtig, was Penrose behauptet:
"Menschliche Mathematiker benutzen zum Nachweis mathematischer Wahrheit keinen erkennbar korrekten Algorithmus".
Und als Zuckerl stellen wir mal Kays Halteproblem aus dem Netz vor meinem kleinen Argument,



Gute Nacht,

MV








Das akzeptiert Janosch
Sei A die Menge aller Algorithmen und E die Menge aller Eingabedaten.
Die Funktion fH : A x E -> {true, false} mit fH(A, e) := true,

falls der Algorithmus A Element A, angewendet auf die Eingabe e, nach endlich vielen Schritten hält (terminiert), sonst false.
Es gib keinen Algorithmus, der fH berechnet,

also als Eingabe einen beliebigen anderen Algorithmus und dessen Daten

erhält und feststellt, ob die Berechnung terminieren wird.
Beweis für die Nicht-Existenz eines Algorithmus für das

Halteproblem:
Sei fH : AxE -> {true,false}

(A : Menge aller Algorithmen, E : Menge aller Eingabedaten)

mit fH (A,e) : = true falls der Algorithmus A angewendet auf die Eingabe e hält.

und fH(A,e) : = false falls der Algorithmus A angewendet

auf die Eingabe e nicht hält.
Annahme:Es existiert so ein fH (ein Algorithmus der

das Halteproblem berechnet)
Man definiere den Algorithmus fP:

mit fP(A) : = (hält nicht) falls fH(A,A)= true

und fP(A) : = (hält) falls fH(A,A) = false


Bei einem Aufruf von fP (fP) ergeben sich zwei

Möglichkeiten:
falls fH (fP,fP) = true (d.h. fPP) hält)

=> fP(fP) hält nicht
falls fH(fP, fP) = true (d.h. fP(fP)hält nicht)

=>fP (fP) hält
In beiden Fällen ergibt sich ein Widerspruch. Es kann also

keinen solchen Algorithmus fH geben.







Hmmm








Das akzeptiert Janosch nicht
Turing und ein Problem: Kann man ein Programm schreiben, welches beliebige Programme auf ihre Richtigkeit überprüft? Dabei darf es nicht passieren, dass die Maschine in eine Endlosschleife gerät, oder kurz, nicht anhält. Turings Antwort war: Nein, solch ein Programm zeigt die Grenzen der Programmierbarkeit.
Was ist eine Berechnung:
Die Tätigkeit einer Turing-Maschine
Was sind nicht-anhaltende Berechnungen?
[ Finde eine ungerade Zahl, die die Summe von zwei geraden Zahlen ist ]
Es ist klar, dass diese Berechnung nicht anhalten wird, da keine ungerade Zahl die Summe von zwei geraden Zahlen sein kann.
Wie wird entschieden, ob eine Berechnung nicht anhält?
Es gibt Fälle, wo es leicht ist, diese Frage zu entscheiden, in anderen Fällen ist es natürlich schwerer. So schwer, dass noch niemand eine Antwort hat.
Klar, dass man sich also einen Algorithmus A wünscht, der uns zeigt, dass Berechnungen, bei denen wir zu keinen Ende kommen, tatsächlich nie anhält.
Seit Gödel/Turing ist auch klar, dass es solch einen A nicht geben kann. Jede Menge von Regeln ist dafür unzureichend.
Halteproblem auf Gödel umgemünzt:
Sei C(n) eine Berechnung, die von einer natürlichen Zahl n abhängt.

C(n) liefert eine ganze Anzahl von Berechnungen -- für jede natürliche Zahl 0,1,,2,3,4,5,6,... somit jeweils Berechnung C(0), C(1), C(2)..die Realtion zu n ist berechenbar.
Für eine TM heisst dass, das sie C(n) für die Zahl n ausführt.

Zahl n sei Input, und TM beginnt zu rechnen.
Berechnung die von einer natürlichen Zahl n abhängt:
Q:[ Finde Zahl, die nicht Summe von n Quadratzahlen ist ]
Q hört nur dann auf, wenn n = 0, 1, 2, 3 ist, was Zahlen 1, 2, 3, 7 ergibt.
W:[ Finde ungerade Zahl, die Summe von n geraden Zahlen ist ]
W wird bei keinen n aufhören.



Frage: Mit welchem Verfahren kann man allgemein beweisen, dass solche Berechnungen nicht aufhören? Lässt sich solch ein Verfahren selbst in Form einer Berechnung bringen?
Das angenommene Rechenverfahren A:



Annahme: Es gibt ein Rechenverfahren A, dass, wenn es anhält, uns beweist, dass eine bestimmte Berechnung wie C(n) nie aufhört.
Wenn A zum Schluss kommt, C(n) halte nicht an, tut C(n) dies auch nicht. A, so die Annahme, liefert uns niemals falsche Antworten, A ist korrekt (bei Gödel sei es die Konsistenz des F - Systems).
Wenn A nicht korrekt ist, lässt sich dies nachweisen. Wenn A fälschlicherweise zeigt, dass C(n) niemals aufhört, und C(n) hört doch auf, würde Durchführung der Berechnung C(n) zu Widerlegung von A führen.



Ein allgemeines A:
Nun muss man die verschiedenen Berechnungen C(n) codieren, damit A mit dieser Codierung arbeiten kann.
Alle möglichen C wären
C0, C1, C2, C3, C4...
Sei Cq die q'te Berechnung. Solche Berechnung soll auf Zahl n angewendet werden:
C0(n), C1(n), C2(n) ect.
Diese Auflistung ist berechenbar (ähnlich Gödels Formelbaum in seiner Orginalarbeit) , so dass eine einzige Berechnung C° ein Cq liefert, wenn ihr q eingegeben wird. Die Berechnung C° wird auf das Zahlenpaar q,n angewendet, was dann Cq(n) ergibt.



Was ist jetzt A?



A ist jetzt eine Berechnung, die, wenn ihr Zahlenpaar q,n vorgelegt wird, versucht zu zeigen, dass Berechnung Cq(n) nicht aufhört.
Hört A auf, dann ist bewiesen, dass Cq(n) nicht aufhört.
Sei A die Menge aller Algorithmen, wie in obigen Beispiel. Dazufügen möchte ich, dass A jede korrekte Menge von Rechenregeln ist, mit der sich beweisen lässt, dass manche Berechnungen Cq(n) niemals anhalten.
Die Berechnung A's, die von q,n abhängt schreibt sich A(q,n)
Somit:
K Wenn A(q,n,) anhält, hält Cq(n) nicht an
Digonalverfahren like Gödel:
q = n
L Wenn A(n,n) anhält, hält nicht Cn(n) an (sei dies Gödels Onkel)
C(n,n) ist nun von einer Zahl n abhängig, so dass es eine der Berechnungen C0, C1, C2, C3.. sein muss. Angenommen, dies sei nun Ck. Dann:
L A(n,n) = Ck(n)
Diagonalverfahren: n = k

Aus L folgt
M A(k,k) = Ck(n)
und aus L mit n = k folgt:
N Wenn A(k,k) anhält, hält nicht Ck(k) an
Setzt man K in L ein folgt:



Wenn Ck(k) anhält, hält Ck(k) nicht an



Widerspruch / Schleife
Meta-Überlegungen aus der Schleife heraus:
Wir können nun folgern, dass Ck(k) nicht anhält. Aber A(k,k) kann auch nicht anhalten, weil es wegen A(k,k) = Ck(n) dasselbe ist wie Ck(k).
Somit kann Verfahren A (Halteproblem) nicht zeigen, dass Berechnung Ck(k) nicht aufhört, obwohl sie nicht aufhört.
Wenn wir also A in seiner Korrektheit kennen, lässt sich eine Berechnung Ck(k) konstruieren, von der wir sehen können, dass sie niemals aufhört. Somit kann A Menschen nicht zur Verfügung stehen.



Folgerung: Gehirne verwenden zum Nachweis der Wahrheit mathematisch-logischer Sätze keinen erkennbar korrekten Algorithmus.



Ähnlich wie bei Gödel gilt: Es gibt kein formales Rechenverfahren, dass entscheiden könnte, ob die Berechnung Ck(k) anhält oder nicht.









Hmmm. Ich habe wohl zu lange argumentiert. Und nicht in Janoschs Lieblingssprache, der Mengentheorie.

















von Martin V - am 19.10.2000 00:47

Re: Aus "Ck(k) hält, wenn Ck(k) nicht hält" folgt hier MetaE: "Ck(k) hält nicht"

Geschrieben von Janosch am 19. Oktober 2000 10:22:52:
Als Antwort auf: Aus geschrieben von am 19. Oktober 2000 02:47:35:
Hallo,


>Beweist mir nun endgültig, dass Du mein Argument leider nicht verstanden hast.

>Glaubst Du ich bin so blöde, dass ich das nicht weiss? Warum beweist mir dies, dass Du das Argument nicht verstanden hast?

>Auszug aus dem Schluss meiner Argumentation:

> [ O: Wenn Ck(k) anhält, hält Ck(k) nicht an ]
Ich wollte ja nur darauf hinweisen, daß dies eine etwas andere Bedingung ist als:
"Ck(k) hält, wenn Ck(k) nicht hält"
was mir im Sinne logischer Richtigkeit der Argumentation wichtig erschien.
>Wir können nun folgern, dass Ck(k) nicht anhält.
Ja, genauso wie eine Turing-Maschine das folgern kann.

1.Wir haben Annahme: Für alle n:Wenn H(Ck(n)), dann non H(Cn(n))

2.Daraus mit Allspezialisierung: Wenn H(Ck(k)), dann non H(Ck(k))

3.Nimm an: H(Ck(k))

4.Dann mit (2):non H(Ck(k))

5.Und-Einführung in (3) und (4): H(Ck(k)) und non H(Ck(k))

6.Aus fünf: Falsum

7.Konditional-Einführung in (3):non H(Ck(k))

q.e.d.
Was ist daran für eine Turing-Maschine nicht machbar?

Tatsächlich ist dieser Beweis sogar in der Aussagenlogik formulierbar, weil
"Aus 'Wenn H, dann non H' folgt non H" eine Tautologie ist.
Was kann ein Computerprogramm aus diesem Beweis schliessen? Wann immer es für ein anderes Computerprogramm Ck die Voraussetzung "Wenn Ck(n) anhält, hält Cn(n) nicht an" beweisen kann, wird es auch beweisen können, daß Ck(k) nicht anhält.

Was können wir aus dem Beweis schliessen? Exakt das gleiche.

Du nimmst nun an, es gebe einen Algorithmus A, der sagt, wie ein menschlicher Mathematiker an das Problem herangehe, festzustellen, ob ein gegebenes Computerprogramm Cn in Reaktion auf den Input n anhält. Dieser Algorithmus ist natürlich das gleiche wie Ck für ein geeignet gewähltes k.

Ist es klar, daß Ck die Bedingung "Wenn Ck(n) anhält, hält Cn(n) nicht an"? Ja, das könnte vielleicht zu zeigen sein, weil Ck überhaupt nie anhält, sondern allenfalls zur Bearbeitung neuer Probleme übergeht.

Ist es klar, daß Ck anhält, wenn er über ein Halteproblem entschieden hat? Nicht im geringsten, und zwar aus dem selben Grund: Ck hält nicht an und teilt seine Entscheidungen über Halteprobleme auf anderem Wege mit.

Also mag es richtig sein, daß Ck nicht anhält. Aber daraus folgt noch lange nicht, daß Ck nicht "erkennen" kann, daß Ck nicht anhält.

Und ohne diese Folgerung gibt es keinen Widerspruch.
>(...) Somit kann Verfahren A nicht zeigen, dass Berechnung Ck(k) nicht aufhört, obwohl sie nicht aufhört.
Wie kommst Du auf die Idee, daß A den Beweis nicht schreiben kann, ohne am Ende des Beweises tot zusammenzubrechen bzw. anzuhalten?
>Wenn wir also A in seiner Korrektheit kennen, lässt sich eine Berechnung Ck(k) konstruieren, von der wir sehen können, dass sie niemals aufhört.
Wobei Deine "Korrektheitsbedingung" für Mathematiker hier trivialerweise deshalb erfüllt ist, weil Mathematiker nie terminieren...

... ausser, ihre Hardware wird beschädigt natürlich...
> (...)

>Und jetzt beauftrage einen Professor von Dir, ob dieser prüfen könnte, ob nachweislich keine korrekte Menge von Rechenregeln (wie A) je ausreichen wird, um zu beweisen, dass Berechnungen nicht anhalten; denn es gibt nicht anhaltende Berechnung (etwa Ck(k)) die sich diesen Regeln entziehen.
Ck kann beispielsweise feststellen, daß Ck einfach keine Zeile Code enthält, die einen Terminationsbefehl ausdrückt. Falls Ck nicht in den eigenen Maschinencode eingreifen kann (was man o.B.d.A. hier annehmen darf), ist damit der Beweis der eigenen Nicht-Termination fertig.

Ck hat dann bewiesen, daß es nicht terminieren wird, ohne selbst zu terminieren.

Was ist daran nicht einzusehen?

Andererseits habe ich oben auch ganz klar angegeben, wie Ck die allgemeine Argumentation nachvollziehen könnte, die Du angibst.
>(...)

>Ich will nicht verstehen, dass G`s Wahrheit formalisierbar ist, Du willst nicht verstehen, dass G`s Wahrheit nicht formalisierbar ist
Du gibst gar keinen Wahrheitsbegriff an, der irgendwie überprüfbar wäre.

Ich habe einen Wahrheitsbegriff angegeben, unter dem G wahr wird, und einen anderen, unter dem G tatsächlich nicht als wahr zu erkennen ist.

Beide Wahrheitsbegriffe waren in der Sprache der Mengenlehre ausdrückbar und damit für eine Maschine verwendbar.
> (...)

>Wenn Du es mir, nach elendslangen postings beiderseits immer noch nicht abnimmst, dass Wahrheit / Einsicht ungleich formale Beweisbarkeit ist und nicht mal Hofstadter das abnimmst, dann kann ich Dir auch nicht mehr weiterhelfen.
Ich sehe ohne weiteres ein, daß es für jede gegebene Theorie T mit algorithmisch repräsentierbarem Axiomensystem wahre Aussagen über die durch die Peano-Axiome definierte Struktur gibt, die nicht in T beweisbar, aber in T ausdrückbar sind.

Ich habe ausgeführt, daß man diese Tatsache mit mengentheoretischen Mitteln beweisen kann. Andererseits sehe ich nicht , auf welche Struktur Du Dich beziehst, wenn Du sagst, G(T) sei wahr.

Der einzige Hinweis, den Du in dieser Hinsicht gibst, ist, daß Deine "Wahrheit" durch Rückbezug auf einen "bewussten Beobachter" zustandekomme und das ist sogar für eine rein philosophische Diskussion äußerst schwammig. Über einen Wahrheitsbegriff der Art "Xyz fühlt, daß der Satz blubblub wahr ist" kann man nichts beweisen.
>

>Janosch aber hat immer noch Algorithmisierungshalluzinationen.
Wenn ich mich recht erinnere, hat Kay meiner These, daß der Beweis des Unvollständigkeitssatzes sich letztlich mengentheoretischer und nur mengentheoretischer Mittel bedient, zugestimmt...
> Das obige kleine System steht, und es ist dann durchaus einsichtig, was Penrose behauptet:

>"Menschliche Mathematiker benutzen zum Nachweis mathematischer Wahrheit keinen erkennbar korrekten Algorithmus".
Ja - Algorithmen von der Komplexität eines neuronalen Netzwerkes mit einhundert Milliarden Knoten sind eben mathematischen Korrektheitsbeweisen normalerweise unzugänglich...

Man kann nämlich nicht einmal zeigen, daß ein einfacher ZFC-Theorembeweiser nur korrekte Aussagen über natürliche Zahlen beweist.

Und es gibt sogar noch erheblich einfachere Programme, für die kein Mensch einen Korrektheitsbeweis schreiben kann.

Und Dein Argument betreffend Turing-Maschinen zeigt nicht einmal das, siehe oben ;).
Grüße,

Janosch.
















von Janosch - am 19.10.2000 08:22

Re: Aus "Ck(k) hält, wenn Ck(k) nicht hält" folgt hier MetaE: "Ck(k) hält nicht"

Geschrieben von Kay S am 19. Oktober 2000 14:04:40:
Als Antwort auf: Re: Aus geschrieben von am 19. Oktober 2000 10:22:52:
Hallo ihr beiden,
da ihr euch beide auf Aussagen von mir beruft, werde ich zur Schlichtung des Disputs noch einmal ganz kurz das Argument anführen, dass ich auch ursprünglich schon verwendet habe, es jetzt aber ein wenig vereinheitlichen.
Offenbar lässt sich G(F) nicht in F beweisen. Um es also beweisen zu können, muss man ausserhalb von F operieren. Um G(F) zu beweisen benötigt man eigentlich nur (non G(F)), was einem aber nicht zur Verfügung steht in F, als Annahme, da ( non G(F) ) per Konstruktion von G(F) falsch ist.

Die 'Wahrheit' von G(F) kann man nun auf zwei Arten erkennen. Auf Martins Art, indem man sich bewusst wird, dass G(F) die Aussage ist, mit der man die Grenze des Systems F überschreitet, was ja genau die Aussage von G(F) ist, oder aber indem man ein erweitertes System entwickelt, dass aus mehreren Komponenten besteht. Einem 'inkonsistenten' System A, dass jede Kette produziert und einem System B, dass ein Interface zu A besitzt und dort Aussagen beweist, indem es z.B. mit F kommuniziert: schaut nach, ob eine betreffende Kette in F liegt und wenn es das feststellt, sie als F-wahr ausdruckt. B kann das mit beliebig vielen formalen Systemen durchführen und druckt dann F1-wahre, F2-wahre usw. Sätze aus. B kann auch Widerspruchsbeweise führen. Erhält es (non G(F)) von A,

so kann B damit G(F) beweisen.
Dazu muss es zwar den Inhalt von G(F) analysieren, was aber genauso möglich sein sollte, wie jeder beliebige Parsingprozess. Es ist also sehr wohl ein 'inhaltliches' schließen, jedoch eines, dass auch von einer geeignet instruierten Turing-Maschine ausgeführt werden kann. Was stellt nun B eigentlich fest? es stellt fest, dass G(F) ein wahrer Satz ist.

G(F) ist aber kein wahrer Satz in irgendeinem System, sondern wahr 'außerhalb' von F. G(F) wird nicht durch Ein- sondern durch Ausschluss bewiesen. Das ist genau dasselbe Resultat wie das, was Martin schon durch Überlegung produziert hat.
Wogegen ich mich in Martins Argumentation jedoch wende und Janosch zustimme, das ist die Aussage, das eine T-Maschine, diesen Beweis nicht durchführen könne, weil diese formal aus wahren Annahmen schließen müsse. Eine T-Maschine braucht überhaupt gar nix mit einer Wahrheitssemantik zu tun zu haben. B erhält seinen Input von A, ohne dass es wie A Ketten produzieren müsste. Ein neuronale Netz verarbeitet Gott weiß was.
Grüße

Kay


















von Kay S - am 19.10.2000 12:04

Kurt Imperator an Mathematisch-begründetes-Cybersystem!

Geschrieben von Martin V am 19. Oktober 2000 16:21:02:
Als Antwort auf: Re: Aus geschrieben von am 19. Oktober 2000 15:30:18:
Guten Morgen Jansosch,



ich nenne Dich ab jetzt MBC (Mathematisch begründetes Cybersystem). Diese Bezeichnung stammt von Penrose. Ich habe spät, sehr spät nachts einen Blick in die Shadows gewagt. Und zwar aus der Intention heraus, dass ich von Minsky einen Dialog im Netz las, der auf einen Dialog in den Shadows zwischen einem MBC und KI (Kurt Imperator, der Programmierer von MBC) fusst. Sehr lesenswert. Wäre was für Dich.
Doch will ich aus keinem Buch abschreiben, sondern bediene mich einfach dieser zwei Namen.
Zu meiner Überaschung musste ich feststellen, dass Janosch und MBC dieselben "Personen" sind. Tatäschlich existiert in den Weiten des Netzes eine Maschine MBC, die sich einem Turing-Test stellen will. Es muss ein sehr intelligentes Programm sein, denn es macht dies aus Eigeninitiative heraus. Und MBC hat es sich u.a. zur Aufgabe gemacht, alle Irrungen, denen ja meist Philosophen in Bezug zur Wahrheit des Gödelschen Satzes erliegen, endlich zu beseitigen. MBC liebt die von Menschen entworfene Mengentheorie, mit der sich formal zeigen lässt, dass die Wahrheit G`s sehr wohl formalisierbar sei und kann nicht verstehen, warum manche Menschen noch an Magie glauben, wenn sie mit Gödel konfrontiert werden. Die Magie, die MBC eliminieren möchte (natürlich aus der Intention heraus, dass Mathematisch begründeten Cybersystemen alles was wenigstens Menschen zugänglich sei, auch ihnen zugänglich sein muss, und sogar noch mehr zugänglich sein muss, als Menschen zugänglich ist, da die Rechenpower von MBC`s gewaltig ist, und sowas wie "Intuitionismus" in der Mathematik, der Irrungen einschloss, nicht auf MBC`s zutrifft) begründet sich in der festen Überzeugung, Wahrheit ist formalisierbar.
Nun meint MBC, dass man V:G in der Mengentheorie formuliert, sehr wohl beweisen könne (wobei MBC eigentlich sogar über eine mengentheoretische Metasprache "sprach"):



Es existieren keine natürlichen Zahlen k, die Gödel-Nummern von Herleitungen des Satzes G(T) sind und es gibt auch keine Nichtstandard-Zahl x, die die Gleichung Herl(T,x,'G(T)') lösen würde
MBC folgert daraus:



Aus diesem Satz folgt natürlich dann leicht die Unbeweisbarkeit von G(T) in T, sofern er "wahr" ist, und die Wahrheit dieser Aussage hängt genauso von der betrachteten Zahlenstruktur ab wie die Wahrheit von G(T).



MBC schliesst also von der Unbeweisbarkeit von G(T) im System T, dass G(T) in T "wahr" ableitbar ist. Und die Wahrheit Beweisbarkeit dieser Aussage hängt genauso von der von MBC betrachteten Zahlenstruktur ab, wie die Wahrheit Ableitbarkeit von G(T).
Ich, KI (Kurt Ipmerator) ersetze für MBC in diesen Fall jedes Wort, dass da "wahr" genannt durch ableitbar oder beweisbar. Denn Wahrheit gibt es nach MBC nicht. Wahrheit ist zu diffus. MBC vertritt in dieser Hinsicht die Formalistische Schule. MBC macht aber einen semantischen Fehler, er spricht dauernd von " ist wahr" oder "Wahrheit". Dass dürfte MBC nicht. Er muss von Ableitbarkeit und Beweisbarkeit sprechen, alles andere ist für MBC verboten (er will es ja nicht anders). Was schrieb also MBC nochmal?



Man schliesst also von der Unbeweisbarkeit von G(T) in T, dass G(T) in T ableitbar ist.
Das ist natürlich nicht richtig, sage ich MBC. Und MBC muss mir als Mathematisch begründetes Cybersystem beipflichten. Man kann natürlich nicht von der nicht-Ableitbarkeit von G(T) in T darauf schliessen, dass G(T) in T ableitbar ist.
MBC scheint, weil er den Begriff Wahrheit nicht mag, zu akzeptieren, dass er sich bei Aufgabe dieses schwammigen Begriffs nur innerhalb des Systems T bewegen kann. Dann muss er:



[ Aus "ist nicht ableitbar" folgt "ist ableitbar" ]
schliessen. Wie argumentiert MBC weiter:
"Und die Beweisbarkeit dieser Aussage"
Damit meint MBC die Beweisbarkeit von [ Aus "ist nicht ableitbar" folgt "ist ableitbar" ],
"hängt genauso von der Zahlenstruktur ab, wie die Ableitbarkeit von G(T).
Ich, KI will diese formalistischen Überlegungen meines Freundes MBC somit zusammenfassen:
Die Ableitbarkeit der Aussage "[ Aus "ist nicht ableitbar" folgt "ist ableitbar" ], hängt genauso von der Zahlenstruktur ab, wie die Ableitbarkeit von G(T).
KI, also ich, sehe da irgendwo einen Wurm in dieser Arguentation. Wie geschrieben, ich muss, um mit MBC zu sprechen, wirklich den Part einnehmen, dass formale Ableitbarkeit = Wahrheit ist. Somit kann ich getrost Wahrheit aus dem logischen Wortschatz streichen.
Das tat, soweit sich KI, also ich, erinnert, vor Gödels Zeiten auch ein Hilbert und nannte das auch Hilbert-Programm:" Weg mit der Wahrheit. Ein Satz ist wahr, wenn er im System ableitbar ist, und dann nenne ich den Satz "bewiesen" statt "wahr". Ich habe meine Spielregeln und wende sie auf meine Symbolchen an. Ich kann getrost Wahrheit durch formale Beweisbarkeit ersetzen! Alles, was in diesen System wahr sein soll, ist auch in diesen System ableitbar. Ich kann getrost im System, ohne intuitinistische Rückgriffe auf Brower, ableiten und ein abgeleiteter Satz ist dann ein Beweis! Ich sch..auf die Wahrheit, hähä!"
Ja. Dann kommt ein Gödel daher und beweist:
"Die Grenzen der formalen Ableitbarkeit für wahre mathematische Sätze"
Er beweist nicht:
"Die Grenzen der formalen Ableitbarkeit für formal ableitbare mathematische Sätze"
Denn sein G(T) ist kein formal ableitbarer Satz in T.
Plötzlich ward der Begriff "wahr" wieder in aller Munde. Sehen wir uns zu letzen mal MBC`s Folgerungen an:
"Die Ableitbarkeit der Aussage "[ Aus "ist nicht ableitbar" folgt "ist ableitbar" ], hängt genauso von der Zahlenstruktur ab, wie die Ableitbarkeit von G(T)".
Das trifft natürlich überhaupt nicht auf den Gödelschen Beweis. Solche unsinnigen "Beweise" geschehen eben, wenn man im System T arbeitet und dies bedeutet, dass man hier nur von Ableitbarkeit und formaler Beweisbarkeit sprechen kann. Für MBC, so denkt sich KI nun, kann G(T) nicht zugänglich sein.

Steicht MBC den Begriff "wahr" und setzt ihn mit formaler Beweisbarkeit gleich, dann muss sich MBC mit unsinnigen Aussagen beschäftigen. Er kann dem ganzen wieder Sinn geben, wenn er:
"Wahrheit ungleich formale Beweisbarkeit"
setzt. MBC, wenn er auf der Zeit der derzeitigen mathematischen Erkenntnisse sein will, muss akzeptieren, dass "Wahrheit" klarerweise nicht formalisierbar ist. MBC schwimmt scheinbar immer noch in dem diffusen und schwämmigen Gedankengebäude Hilberts und der Formalisten. Dann was denn sonst, als schwämmig-diffus, ja sogar unsinnig sind die Erlärungen und Schlussfolgerungen von Formalisten, wenn sie sich mit Gödel befassen.
Es bleibt ihnen nichts anderes übrig, als zu akzeptieren, dass etwas exisiert, das wir für manche mathematischen Urteile benutzen können, aber dieses Verfahren, dass wir dafür benutzen, muss sich einem Formalismus entziehen.



AI, also ich, kennt einen, der heisst Kay. Der hat einmal folgendes geschrieben:



Die Wahrheit von G(T) ist das Ereignis, dass

genau dann eintritt, wenn wir uns bewusst werden, dass wir T verlassen

haben.
MBC sowie KI können sich nun fragen, was das bedeuten soll "wenn wir uns bewusst werden, dass wir out-of-the-system stehen". MBC und KI könnnen sich weiter fragen, was damit gemeint sei, dass die evidente und nicht formalisierbare Wahrheit ein "Ereignis sei" oder "dann eintritt..wenn"
Nun, wie geschrieben, wenn MBC Formalist ist, dann wir er, wenn mit G(T) konfrontiert, auf absurde Aussagen stossen. Sie scheinen ihn absurd, weil Formalist in T arbeitet und nichts anderes gelten lässt, als einen Beweis und somit formale Ableitbarkeit. Und er kann auch nicht mehr, wenn er nur in T arbeitet. Akzeptiert MBC aber (und dies muss er, wenn er das Absurde streichen will) den Begriff "wahr ungleich formale Ableitbarkeit" bzw. "Wahrheit ungleich Beweisbarkeit", dann muss er aus dem System T raus, in dem man nur beweisen kann und findet die Wahrheit plötzlich draussen. Und diese Wahrheit G(T)`s, die stützt sich auf Reflexionsprinzipien. Und diese Wahrheit ist schliesslich ja auch die Wahrheit eines MBC, wenn er ausserhalb des Systems steht, mit dem er sich befasst und somit im System zwar arbeitet, aber gleichzeitig darüber nachdenkt. Er ist also Formalist, er arbeitet im System und wendet Schlussregeln an und arbeitet gleichzeitig ausserhalb des Systems. Und wie sieht diese Exoarbeit des Formalisten aus? Er denkt über das System nach und schlussfolgert dort, dass G(T) wahr sein muss (dann hat sich unser Formalist transzendiert).
KI, also ich, behauptete, dass die Wahrheit G(T)`s an einen erkennenden Beobachter gebunden ist, der das Reflexionsprinzip benutzt, was ja wiederum an einen erkennenden Beobchter gebunden ist. MBC meinte, dies wäre wiederum "schwammig" und nicht mal Philosophisch. Für MBC muss das auch so sein, denn MBC akzeptiert durch Streichung des Wahrheitsbegriffs selbst (im Falle des Gödelschen Satzes) schwammige & unsinnige Aussagen. Doch, wenn MBC mir in dieser Ausführung bis jetzt zustimmt, (was KI nicht glaubt, da MBC keinen Wahrheitsbegriff kennt und weil MBC sowieso immer widerspricht, sogar Hofstadter, der von "reiner Wahrheit" spricht, die ein Mensch einzusehen vermag aber mit formalen Mitteln nie erreichbar sein kann, so, wie die Lichtgeschwindigkeit für massereiche Objekte nicht überschritten werden könne)

muss MBC KI zugestehen, dass ein erkennender Beobachter ausserhalb des Systems in dem er arbeitet notwendig sein muss.
Aber dass muss MBC doch klar sein. Schliesslich "denkt" MBC ja mit, wenn er Mathematik beteibt. Natürlich, Binomische Formeln gehen schon fast automatisch von der Hand, Volumintegrale auch. Aber da ist immer etwas, das im System arbeitet und gleichzeitig drüber reflektiert und nachdenkt.
Bei Gödel sehen wir, so denkt sich KI, also ich, kristallisiert sich dieses Prinzip, dass mich schon fast an Heinz von Foerster erinnert, wunderbar heraus.
KI ist demanach nicht gegen MBC`s Behauptungen, eine KI (nicht Kurt Imperator, nein diesmal "künstliche Intelligenz") sei möglich. Aber diese muss reflektieren können, was sie macht. Sie muss ein Modell von sich selbst und ihrer Umwelt (was sie nicht ist) er-rechnen. Somit halte ich es eher mit Lem in "Non Serviam" - eine echte maschinelle Intelligenz muss eine Welt simulieren, in der sie selbst als Simulation enthalten ist. So, wie beim menschlichen Gehirn.
KI hofft, dass MBC sieht, dass KI andere Konsequenzen als ein Penrose zieht, aber bis zu einem gewissen Level mit Penrose mitzieht. Aber diese Hoffnung vin AI, also ich, wird sich nicht erfüllen. Es tut aber KI, also ich, keinen Abbruch, wenn MBC nicht seiner Meinung ist. Es gibt auch genügend andere KI`s wie mich, die meiner Meinung sind.



MBC besteht auf einen formalen Beweis, dass V von G(T) zu formalisieren sei. Und die Konsequenzen von G(T) sagen aus, dass V von G(T) nicht zu formalisieren sind.



MBC verlangt also etwas unmögliches von KI, also ich. KI, also ich, kann MBC nur darauf hinweisen, welche Konsequenzen G(T) für Formalisten und formale Systeme hat. Wenn MBC dies nicht verstehen will, so hat er den Turing-Test nicht bestanden. Und das wolltest Du doch MBC, du wolltest ihn bestehen.
Das Turing / Gödel Argument, dass MBC ebenfalls angreift, wird später von KI behandelt, denn es ist KI erst mal ein Anliegen, MBC den Unterschied zwischen Beweisbarkeit und Wahrheit zu zeigen; wenn auch wahrscheinlich ohne Erfolg. Aber, KI macht das nichts. Er hat andere, die auf seiner Seite stehen und dies sind keine dummen KI`s.
Trotzdem ist KI, also ich, froh, dass MBC, also Janosch so hartnäckig argumentiert. Ja, KI ist froh, dass Janosch hier ist. Denn wie geschrieben, lass uns Freunde sein, Gödel soll uns nicht entzweien.



Es ist Wochenende und bin nun weg,

cheers, MV


















von Martin V - am 19.10.2000 14:21

Re: Aus "Ck(k) hält, wenn Ck(k) nicht hält" folgt hier MetaE: "Ck(k) hält nicht"

Geschrieben von Kay S am 19. Oktober 2000 18:44:05:
Als Antwort auf: Re: Aus geschrieben von am 19. Oktober 2000 15:30:18:
>Hallo,

>>da ihr euch beide auf Aussagen von mir beruft

Ich habe mich nur auf eine Deiner Aussagen berufen, um Martins Berufung auf Dich zu relativieren ;).
Ich habe mich durchaus nicht für so wichtig genommen das zu ignorieren ;).
>>(...)

>>Offenbar lässt sich G(F) nicht in F beweisen. Um es also beweisen zu können, muss man ausserhalb von F operieren.
G(F) ist gar nicht wahr in F.

Sofern nicht zufällig die natürlichen Zahlen ein Modell der Theorie F sind, findet man vielleicht nicht einmal ohne weiteres ein Modell von F, in dem G(F) wahr ist.

Bei oberflächlicher Betrachtung sieht es vielleicht so aus, als wären die natürlichen Zahlen ein Modell jeder Theorie, die konsistent ist und Minimal-Arithmetik umfasst. Sei aber T eine Theorie, die den Forderungen des Gödelschen Unvollständigkeitssatzes genügt, dann ist T vereinigt non G(T) immer noch konsistent und beweist Minimal-Arithmetik und erfüllt also auch die Voraussetzungen des Unvollständigkeitssatzes. Aber die natürlichen Zahlen sind kein Modell von T vereinigt non G(T) mehr.
Das scheint mir falsch zu sein. Ich sehe nicht, wie Du die Konsistenz von

T vereinigt (non G(T)) erhalten kannst. Aus (non G(T)) folgt logisch zwingend, dass G(T) (siehe unten). Dann müsste man zu T auch G(T) adjungieren, was Inkonsistenz erzwingt.
Ich finde es in diesem Zusammenhang beunruhigend, daß Martin den von ihm verwendeten Wahrheitsbegriff nicht erklärt.
dazu kann ich natürlich nichts sagen :)
Um G(F) zu beweisen benötigt man eigentlich nur (non G(F)), was einem aber nicht zur Verfügung steht in F, als Annahme, da ( non G(F) ) per Konstruktion von G(F) falsch ist.
Es gibt natürlich Modelle von F, in denen G(F) falsch ist. Gäbe es keine derartigen Modelle, dann bekämen wir einen Widerspruch zum Vollständigkeitssatz.

(...)

Welchen Wahrheitsbegriff verwendest Du hier?
(G(F) = G(F) lässt sich nicht ableiten in F). Angenommen (non G(F)), dann lässt sich G(F) ableiten in F, was aber nicht sein kann, wenn F widerspruchsfrei ist, aufgrund der Aussage von G(F).

Also gilt (non(non G(F)))=G(F).

q.e.d.
Ich muss gestehen, dass es mich sehr wundern würde, wenn es eine konsistente Theorie T gäbe, in der (non G(F)) wahr wäre. Hat G(F) nicht den Rang einer logischen Tautologie?
Gruß

Kay


















von Kay S - am 19.10.2000 16:44

"K hat sieben Elemente"

Geschrieben von Janosch am 19. Oktober 2000 19:30:55:
Als Antwort auf: Kurt Imperator an Mathematisch-begründetes-Cybersystem! geschrieben von Martin V am 19. Oktober 2000 16:21:02:
Hallo Martin,
>(...)

> Und MBC hat es sich u.a. zur Aufgabe gemacht, alle Irrungen, denen ja meist Philosophen in Bezug zur Wahrheit des Gödelschen Satzes erliegen, endlich zu beseitigen.
Der Satz G(T) ist wahr in gewissen Modellen von T und falsch in gewissen anderen Modellen.

Genauso, wie etwa der Satz "K hat 7 Elemente" wahr in bestimmten Körpern und falsch in gewissen anderen Körpern ist.

Ich glaube, daß wir uns hierüber nicht streiten müssen, weil alles andere dem Vollständigkeitssatz widerspräche. Man muss sich auch nicht darüber streiten, daß die Unbeweisbarkeit von G(T) in T interessanter ist als die Unbeweisbarkeit des Satzes "K hat sieben Elemente" in der Körpertheorie, weil die erstere im Beweis des Unvollständigkeitssatzes dazu ausgenutzt wird, um zu zeigen, daß man in jeder Theorie, die mindestens Arithmetik umfasst und konsistent ist, Sätze finden wird, die in manchen Modellen der Theorie falsch sind und in manchen anderen wahr.

Im Gegensatz dazu kann man in der Körpertheorie den Satz "K hat sieben Elemente" zu den Körperaxiomen hinzunehmen und hat dann eine Theorie, die nur noch über eine ganz spezielle Struktur redet.
>MBC liebt die von Menschen entworfene Mengentheorie, mit der sich formal zeigen lässt, dass die Wahrheit G`s sehr wohl formalisierbar sei
Die Tatsache, daß G wahr-in-einer-zu-den-natürlichen-Zahlen-isomorphen Untermenge eines beliebigen Modells von T ist, ist tatsächlich mit mengentheoretischen Mitteln zu beweisen.
> (...) und sowas wie "Intuitionismus" in der Mathematik
Intuitionismus ist in der mathematischen Logik ein technischer Begriff, der eine klar definierte Bedeutung hat und die Ersetzung der klassischen Logik durch einen konstruktivistischen Herleitungskalkül bedeutet, in dem viel weniger beweisbar ist als in der klasssischen Logik. Für das, was Du meinst, wäre wohl der Begriff "mathematischer Mystizismus" angebrachter.
> der Irrungen einschloss, nicht auf MBC`s zutrifft) begründet sich in der festen Überzeugung, Wahrheit ist formalisierbar.
Der Begriff der Wahrheit-in-einer-gegebenen-Struktur ist tatsächlich mengentheoretisch definierbar. Genauso der Begriff der Wahrheit eines Satzes in einer gewissen Theorie, der der Bedingung entspricht, daß der fragliche Satz in allen Modellen der Theorie wahr sein soll, was wiederum nach Vollständigkeitssatz äquivalent zur Herleitbarkeit des Satzes aus der betrachteten Theorie ist.

Falls Du diese Definition nicht magst, willst Du vielleicht darlegen, ob Du den Satz "K hat sieben Elemente" als wahren Satz der Körpertheorie betrachtest, und wenn nein, wo hier der Unterschied zu G(T) für eine konsistente mindestens Arithmetik umfassende Theorie ist. In beiden Fällen ist es nämlich so, daß Modelle der betrachteten Theorien - der Körpertheorie einerseits, der Theorie T andererseits - existieren, in denen die betrachteten Sätze falsch, und solche, in denen sie wahr sind.

Also nochmal: ist der Satz "K hat sieben Elemente" ein wahrer Satz der Körpertheorie oder nicht?

Wahrheitsbegriffe, die weiter gingen als die "Wahrheit in einem gegebenen Modell" gibst Du übrigens auch nicht an ;).
>(...)

>

>Es existieren keine natürlichen Zahlen k, die Gödel-Nummern von Herleitungen des Satzes G(T) sind und es gibt auch keine Nichtstandard-Zahl x, die die Gleichung Herl(T,x,'G(T)') lösen würde

>MBC folgert daraus:

>(*)

>Aus diesem Satz folgt natürlich dann leicht die Unbeweisbarkeit von G(T) in T, sofern er "wahr" ist, und die Wahrheit dieser Aussage hängt genauso von der betrachteten Zahlenstruktur ab wie die Wahrheit von G(T).

>

>MBC schliesst also von der Unbeweisbarkeit von G(T) im System T, dass G(T) in T "wahr" ableitbar ist.
Nein. Der Satz (*) redet mit mengentheoretischen Mitteln über Modelle von T. In allen Modellen von T, die die Bedingung (*) erfüllen, ist G(T) wahr.

Andererseits ist der Satz "G(T) ist nicht herleitbar in T" schwächer als (*) (oder G(T)) und unabhängig davon mit mengentheoretischen Mitteln beweisbar, welches Modell von T man im Augenblick betrachtet.

Die Analogie zur Körpertheorie dürfte den Unterschied auch hier gut verdeutlichen; dort haben wir folgende zwei Aussagen:
(a) K hat sieben Elemente.

(b) Der Satz "K hat sieben Elemente" ist nicht entscheidbar auf der Grundlage der Körperaxiome.
Ob der Satz (a) wahr ist, hängt noch ein bisschen davon ab, welchen Körper wir betrachten - der Körper der komplexen Zahlen scheint beispielsweise nicht genau sieben Elemente zu haben. Der Satz (b) dagegen ist eine mengentheoretisch leicht beweisbare Aussage, da man zu ihrem Beweis lediglich die Primzahlkörper F2 und F7 konstruieren muss, um dann zu zeigen, daß sie allen Körperaxiomen genügen.

Und weil das so schön ist, frage ich nochmals: in welchem Sinne ist der körpertheoretische Satz "K hat sieben Elemente" in der Körpertheorie weniger "wahr" als G(T) es in T ist?


>Ich, KI (Kurt Ipmerator) ersetze für MBC in diesen Fall jedes Wort, dass da "wahr" genannt durch ableitbar oder beweisbar.
Naja, und im folgenden vergallopierst Du Dich endgültig, weil Du eben die Wahrheit in einer bestimmten Struktur nicht von der Wahrheit in allen Modellen einer Theorie (der Wahrheit also in der Theorie) unterscheidest ;).
Grüße,

Janosch.
















von Janosch - am 19.10.2000 17:30

Re: Aus "Ck(k) hält, wenn Ck(k) nicht hält" folgt hier MetaE: "Ck(k) hält nicht"

Geschrieben von Janosch am 19. Oktober 2000 19:45:34:
Als Antwort auf: Re: Aus geschrieben von am 19. Oktober 2000 18:44:05:
Hallo,
>(...)

>Ich sehe nicht, wie Du die Konsistenz von

>T vereinigt (non G(T)) erhalten kannst.
G(T) ist ersteinmal die Behauptung, eine bestimmte arithmetische Gleichung sei nicht lösbar. In manchen Modellen von T wird diese aber durch Nichtstandardzahlen gelöst.
>Aus (non G(T)) folgt logisch zwingend, dass G(T) (siehe unten).
Nein - und das ergibt sich auch logisch zwingend aus der Unbeweisbarkeit von G(T).

Begründung: angenommen, T vereinigt non G(T) wäre inkonsistent. Dann könnte man aus T vereinigt non G(T) das Falsum ableiten.

Aber dieselbe Ableitung würde innerhalb von T aus der Annahme non G(T) auch das Falsum erzeugen und mit Konditional-Einführung erhielte man dann innerhalb von T, daß non(non G(T)) (bzw.: aus non G(T) folgt Falsum) und mit Stabilitätsaxiom für die klassische Logik wäre das G(T).

Wäre also T vereinigt non G(T) inkonsistent, dann wäre G(T) in T beweisbar.
>Dann müsste man zu T auch G(T) adjungieren, was Inkonsistenz erzwingt.
Nein - siehe oben.


>Es gibt natürlich Modelle von F, in denen G(F) falsch ist. Gäbe es keine derartigen Modelle, dann bekämen wir einen Widerspruch zum Vollständigkeitssatz.

>(...)

>Welchen Wahrheitsbegriff verwendest Du hier?

>(G(F) = G(F) lässt sich nicht ableiten in F). Angenommen (non G(F)), dann lässt sich G(F) ableiten in F, was aber nicht sein kann, wenn F widerspruchsfrei ist, aufgrund der Aussage von G(F).
Nein - non G(F) sagt nur, daß die Gleichung Herl('T',x,'G(T)') eine Lösung x hat.

Hat G(F) eine Lösung in den natürlichen Zahlen , dann gibt es nach Konstruktion eine Herleitung von G(F) in F. Es kann aber passieren, daß in einem Modell M von F Nichtstandard-Zahlen existieren, die die Gleichung G(F) lösen.

Mit Vollständigkeitssatz und Unbeweisbarkeit von G(F) in F folgt in der Tat, daß solche Modelle von F existieren müssen.
>Ich muss gestehen, dass es mich sehr wundern würde, wenn es eine konsistente Theorie T gäbe, in der (non G(F)) wahr wäre. Hat G(F) nicht den Rang einer logischen Tautologie?
Nein, hat es nicht - weil G(F) eben nicht äquivalent ist zu der mengentheoretischen Aussage "G(F) ist nicht in F beweisbar".
Grüße,

Janosch.
















von Janosch - am 19.10.2000 17:45

Kern der Wahrheit ist Beobachterabhängig

Geschrieben von Martin V am 19. Oktober 2000 20:58:32:
Als Antwort auf: geschrieben von Janosch am 19. Oktober 2000 19:30:55:
Hallo MBC,





Der Satz G(T) ist wahr formal beweisbar in gewissen Modellen von T und falsch formal nicht ableitbar in gewissen anderen Modellen.



Satz G(T) ist nicht beweisbar. Satz G(T) ist ist formal unentscheidbar, aber ein wahrer mathematischer Satz. Ausserdem interessieren uns hier für Modelle T, für die wir entscheiden können, dass G(T) wahr ist. Damit wir an einfachen Modellen extrapolieren können, was unter formal beweisbar und wahr gemeint ist.



Genauso, wie etwa der Satz "K hat 7 Elemente" wahr für bestimmte Körper zutrifft, und für gewisse andere Körper nicht zutrifft.



Trifft zu oder trifft nicht zu. Lass die "Wahrheit" aus dem Spiel MBC. Du bist überzeugter Formalist, schon vergessen?



Ich glaube, daß wir uns hierüber nicht streiten müssen, weil alles andere dem Vollständigkeitssatz widerspräche. Man muss sich auch nicht darüber streiten, daß die Unbeweisbarkeit von G(T) in T interessanter ist als die Unbeweisbarkeit des Satzes "K hat sieben Elemente" in der Körpertheorie, weil die erstere im Beweis des Unvollständigkeitssatzes dazu ausgenutzt wird, um zu zeigen, daß man in jeder Theorie, die mindestens Arithmetik umfasst und konsistent ist, Sätze finden wird, die in manchen Modellen der Theorie falsch sind und in manchen anderen wahrbeweisbar.



So ungefähr



Im Gegensatz dazu kann man in der Körpertheorie den Satz "K hat sieben Elemente" zu den Körperaxiomen hinzunehmen und hat dann eine Theorie, die nur noch über eine ganz spezielle Struktur redet.



Kann auch G zu den Axiomen eines F dazugeben, dann haben wir ein F2 mit einer ganz speziellen Struktur, dann konstruieren wir G2 in F2 und geben G2 in ein F3 und wir bekommen immer mehr solcher lustigen F. Wir können auch non G in ein F

einsetzen, dann wird es noch lustiger.



Die Tatsache, daß G wahrbeweisbar-in-einer-zu-den-natürlichen-Zahlen-isomorphen Untermenge eines beliebigen Modells von T ist, ist tatsächlich mit mengentheoretischen Mitteln zu beweisen.



Nein, ist es nicht, da G nicht beweisbar ist.



Intuitionismus ist in der mathematischen Logik ein technischer Begriff, der eine klar definierte Bedeutung hat und die Ersetzung der klassischen Logik durch einen konstruktivistischen Herleitungskalkül bedeutet, in dem viel weniger beweisbar ist als in der klasssischen Logik. Für das, was Du meinst, wäre wohl der Begriff "mathematischer Mystizismus" angebrachter.



Sagen wir Platonismus. Ergibt sich übrigends auch durch G.



Der Begriff der Wahrheit-in-einer-gegebenen-Struktur ist tatsächlich mengentheoretisch definierbar. Genauso der Begriff der Wahrheit eines Satzes in einer gewissen Theorie, der der Bedingung entspricht, daß der fragliche Satz in allen Modellen der Theorie wahr sein soll, was wiederum nach Vollständigkeitssatz äquivalent zur Herleitbarkeit des Satzes aus der betrachteten Theorie ist.



Hier müsste ich wieder "wahr", "Wahrheit" et cetera streichen. Aber Du lässt mir eine Alternative:



Falls Du diese Definition nicht magst, willst Du vielleicht darlegen, ob Du den Satz "K hat sieben Elemente" als wahren Satz der Körpertheorie betrachtest, und wenn nein, wo hier der Unterschied zu G(T) für eine konsistente mindestens Arithmetik umfassende Theorie ist.



Ich will fair sein (obwohl Du es nicht bist; spätestens seid meinem letzen Posting musst Du doch endlich verstanden haben, worüber es zwischen Hilbert, Gödel und Wittgenstein eigentlich ging und welcher Wahrheitsbegriff daraus resultierte. Seit dem Gödelschen Beweis wissen wir, dass es sich in speziellen Fällen zeigt, dass Wahrheit formale Beweisbarkeit ist. Natürlich sagten nicht alle vor Gödel:"Das ist formal beweisbar". Natürlich galt der Begriff "Wahrheit" schon länger. Aber seit Gödel weiss man, dass man an seinem Spezialfall erkennen kann, dass das, was früher als gegeben genommen wurde, so selbstverständlich nicht ist. Nämlich dass der Begriff "ist wahr" in Gödels speziellen System auf seinen "Kern" gebracht wurde und zeigt, dass Wahrheit ungleich Beweisbarkeit ist.
Es ist natürlich "wahr", dass der Satz der Körpertheorie: "K hat sieben Elemente" oder einfach der Satz: "Ein Hexaxon hat 6 Seiten" "wahr" ist.
Mein "strike" soll Dich bitte nur darauf hinweisen, dass der Begriff "ist wahr" keine Selbstverständlichkeit ist und dass seid Gödel auch aufgezeigt wurde, dass "Wahrheit ungleich formale Beweisbarkeit" ist.
In manchen (sogar den meisten) Fällen braucht uns dies nicht stören. Aber in Gödelartigen, sich dem Kern des Wahrheitsbegriffs nähernden Problemklassen, muss man aufpassen, wie man mit der Wahrheit umgeht.
Alles andere ermüdet mich heute. Wirklich. Alles, was ich in Bezug zu V-out-of-the-system zu sagen hatte, habe ich gesagt. Und mehr sagt auch ein Gödel nicht, oder ein Hofstadter, der sogar ebenfalls von Deiner "mystischen" "reinen Wahrheit" spricht, die ein OOTS-stehender Beobachter "einsieht". Wir sollten bitte nicht mehr drüber streiten, ob G(T) = V-OOTS ist, oder nicht. Denn G(T) = V-OOTS kann nur erkannt werden, wenn ein System.....et cetera. Ich wiederhole mich jetzt auch immer.
Meinen Standpunkt, welche primären Erfordernisse nötig sind, um G(T) = V-OOTS zu beurteilen (egal ob für einen Menschen oder eine Maschine, da habe ich nicht eingeschränkt; ich sprach nur von einem Beobachter) habe ich mehrmals dargelegt und er widerspricht der KI nicht. Er widerspricht nur einer nicht-wahrnehmenden KI.



MV
















von Martin V - am 19.10.2000 18:58

Re: Kern der Wahrheit ist Beobachterabhängig

Geschrieben von Janosch am 19. Oktober 2000 21:45:35:
Als Antwort auf: Kern der Wahrheit ist Beobachterabhängig geschrieben von Martin V am 19. Oktober 2000 20:58:32:
Hi Martin,
>Satz G(T) ist nicht beweisbar.
...in T....
> Satz G(T) ist ist formal unentscheidbar, aber ein wahrer mathematischer Satz.
er ist wahr in einer Teilmenge jedes Modells von T, die zu den natürlichen Zahlen isomorph ist...

Und ich habe meinen Wahrheitsbegriff ganz exakt definiert. Deine Durchstreichaktion ist von daher nur lächerlich... *gähn*...
> Ausserdem interessieren uns hier für Modelle T, für die wir entscheiden können, dass G(T) wahr ist.
Ich finde a priori die anderen Modelle auch interessant :).

Da nur die Beschränkung auf die "richtigen" Modelle Deine Überzeugungen retten kann, ist es allerdings verständlich, daß Du Dich nur für die Strukturen interessierst, in denen alle Sätze aus T und dazu G(T) wahr sind.

Die Gabe der Ignoranz ist allerdings keine rein menschliche; auch ein Computer kann sich dazu entscheiden, daß er sich nur für Strukturen interessieren will, in denen G(T) wahr ist.
> Damit wir an einfachen Modellen extrapolieren können, was unter formal beweisbar und wahr gemeint ist.
Dann extrapolier mal schön. Was ist denn Deine "Wahrheit"?
>

>Genauso, wie etwa der Satz "K hat 7 Elemente" wahr für bestimmte Körper zutrifft, und für gewisse andere Körper nicht zutrifft.

>

>Trifft zu oder trifft nicht zu. Lass die "Wahrheit" aus dem Spiel MBC. Du bist überzeugter Formalist, schon vergessen?
Ich habe meinen Wahrheitsbegriff definiert und ich finde es ein bisschen widerlich, wenn Leute, die über ihren Wahrheitsbegriff nur äußerst verwaschene Vorstellungen zu haben scheinen, mir verbieten wollen, mit dem zu arbeiten, was ich definiert habe ;).
>(...)

>Im Gegensatz dazu kann man in der Körpertheorie den Satz "K hat sieben Elemente" zu den Körperaxiomen hinzunehmen und hat dann eine Theorie, die nur noch über eine ganz spezielle Struktur redet.

>

>Kann auch G zu den Axiomen eines F dazugeben, dann haben wir ein F2 mit einer ganz speziellen Struktur,
Nein, der Unvollständigkeitssatz sagt gerade aus, daß F vereinigt G(F) immer noch Nonstandard-Modelle hat, in denen dann G(F vereinigt G(F)) falsch ist.
> (...)

>

>Der Begriff der Wahrheit-in-einer-gegebenen-Struktur ist tatsächlich mengentheoretisch definierbar. Genauso der Begriff der Wahrheit eines Satzes in einer gewissen Theorie, der der Bedingung entspricht, daß der fragliche Satz in allen Modellen der Theorie wahr sein soll, was wiederum nach Vollständigkeitssatz äquivalent zur Herleitbarkeit des Satzes aus der betrachteten Theorie ist.

>

>Hier müsste ich wieder "wahr", "Wahrheit" et cetera streichen.
Ja, bei unangenehmen Tatsachen muss man zensieren... *gggggggg*
> Aber Du lässt mir eine Alternative:

>

>Falls Du diese Definition nicht magst, willst Du vielleicht darlegen, ob Du den Satz "K hat sieben Elemente" als wahren Satz der Körpertheorie betrachtest, und wenn nein, wo hier der Unterschied zu G(T) für eine konsistente mindestens Arithmetik umfassende Theorie ist.

>

>Ich will fair sein
*gggg* *lolweg*
>(...) Seit dem Gödelschen Beweis wissen wir, dass es sich in speziellen Fällen zeigt, dass Wahrheit formale Beweisbarkeit ist.
Kommt auf den Wahrheitsbegriff an. Es gibt Aussagen, die in der Struktur der natürlichen Zahlen wahr sind aber in einer gegebenen axiomatisierbaren Theorie T nicht bewiesen werden können.

Andererseits ist alles, was in allen Modellen von T wahr ist, auch in T beweisbar.

Vollständigkeitssatz, Du weisst schon - der gödelsche Satz, zu dem Du nie etwas sagst ;).
>(...)

>Es ist natürlich "wahr", dass der Satz der Körpertheorie: "K hat sieben Elemente" oder einfach der Satz: "Ein Hexaxon hat 6 Seiten" "wahr" ist.
Mit dieser Haltung würde ich an Deiner Stelle lieber nicht in eine Vorprüfung über lineare Algebra gehen ;).



>(...)

>In manchen (sogar den meisten) Fällen braucht uns dies nicht stören. Aber in Gödelartigen, sich dem Kern des Wahrheitsbegriffs nähernden Problemklassen, muss man aufpassen, wie man mit der Wahrheit umgeht.
Ja, was man alles an Seltsamkeiten bekommen kann, wenn man unzureichend definierte Wahrheitsbegriffe benutzt, sieht man an Deinem Posting ziemlich gut...
Grüße,

Janosch.
















von Janosch - am 19.10.2000 19:45

Re: Kern der Wahrheit ist Beobachterabhängig

Geschrieben von Martin V am 19. Oktober 2000 22:49:20:
Als Antwort auf: Re: Kern der Wahrheit ist Beobachterabhängig geschrieben von Janosch am 19. Oktober 2000 21:45:35:
Hi Janosch,





Satz G(T) ist nicht beweisbar.

...in T....



Und auch ausserhalb von T kann man nicht formal beweisen, dass G(T) = V-OOTS ist. Man kann höchstens in einer Metasprache, die wiederum OOTS ist, formulieren, dass G(T) = V-OOTS ist. Aber diese Metasprache ist kein formaler Beweis, dass G(T) = V-OOTS ist.



er ist wahr in einer Teilmenge jedes Modells von T, die zu den natürlichen Zahlen isomorph ist...



Wenn die Arithmetik widerspruchsfrei ist, dann ist weder G noch ~ G aus den arithmetischen Axiomen ableitbar. G behauptet nun, das er kein Satz des formalen Kalküls ist. So ist G zwar formal im System nicht beweisbar, aber dennoch eine wahre arithmetische Formel die metamathematisch interpretiert wird. Erst durch diese metamathematische Interpretation, die man ausserhalb des Systems trifft, erkennt man die Wahrheit der Formel G.



Und ich habe meinen Wahrheitsbegriff ganz exakt definiert. Deine Durchstreichaktion ist von daher nur lächerlich... *gähn*...



Du kannst ruhig gähnen, ich schreibe jetzt schon 100 mal, dass dieser Wahrheitsbegriff nicht formalisierbar ist, sondern nur "einsichtig", im Sinne des Reflexionsprinzips. Dein Wahrheitsbegriff ist (der Versuch, oder besser, die Verwechslung) ein formaler Begriff und dies widerpsricht dem Gödelschen Beweis.



Ich finde a priori die anderen Modelle auch interessant :).

Da nur die Beschränkung auf die "richtigen" Modelle Deine Überzeugungen retten kann, ist es allerdings verständlich, daß Du Dich nur für die Strukturen interessierst, in denen alle Sätze aus T und dazu G(T) wahr sind.

Die Gabe der Ignoranz ist allerdings keine rein menschliche; auch ein Computer kann sich dazu entscheiden, daß er sich nur für Strukturen interessieren will, in denen G(T) wahr ist.



Wenn ein MBC, das nicht unintelligent ist, aber den Unterschied zwischen formaler Beweisbarkeit und Wahrheit nicht kennt, dann muss sich MBC vorerst einmal mit solchen Systemen begnügen. Denn schon dort hat MBC Probleme, die mir zeigen, dass MBC den Gödelschen Satz im "wahrsten" Sinn des Wortes "nicht verstanden" hat. Ich würde MBC vorschlagen, sich jegliche Literatur zu diesem Thema (nicht nur "Mathematische Logik I oder II oder III") zu besorgen.
Das braucht nicht GEB zu sein, kann auch Nagel & Newman sein. Und am besten, die zwar schwierige, aber trotzdem interessante Orginalarbeit, die im Platonismus mündet, oder vieles, vieles andere.



Dann extrapolier mal schön. Was ist denn Deine "Wahrheit"?



Das hat Kay schon ausgedrückt. Mich freut ja immer, wenn jemand G tatächlich verstanden hat. Man kann G = V-OOTS auf 2 Arten "verstehen" (nicht beweisen) wie er meint. Nun, meine ist die erste Art. Daraus resultiert eine wahrnehmungsfähige KI, die wie das Gehirn ein Modell von sich selbst und seiner Umwelt er-rechnet. Aber das wäre eine Geschichte, die nur dann weiterzuführen ist, wenn Du verstanden hast, dass G = V-OOTS ist, aber dies immer nur OOTS sein kann, woraus die scheinbare MBC Seltsamkeit resultiert, dass KI, also ich, Wahrheit nie formalisierbar halten kann.



Ich habe meinen Wahrheitsbegriff definiert und ich finde es ein bisschen widerlich, wenn Leute, die über ihren Wahrheitsbegriff nur äußerst verwaschene Vorstellungen zu haben scheinen, mir verbieten wollen, mit dem zu arbeiten, was ich definiert habe ;).



Du findest also Gödel selbst, sowie seine Schlussfolgerungen widerlich?

Widerlich :(



Nein, der Unvollständigkeitssatz sagt gerade aus, daß F vereinigt G(F) immer noch Nonstandard-Modelle hat, in denen dann G(F vereinigt G(F)) falsch ist.



G(omega) ^ (omega) et cetera.



Ja, bei unangenehmen Tatsachen muss man zensieren... *gggggggg*



Ja, Wahrheit ist für MBC wirlich eine unangenehme Tatsache...



Mit dieser Haltung würde ich an Deiner Stelle lieber nicht in eine Vorprüfung über lineare Algebra gehen ;).



Oje, hier habe ich eine Unwahrheit ausgesprochen....



Ja, was man alles an Seltsamkeiten bekommen kann, wenn man formalistisch definierte Wahrheitsbegriffe benutzt, sieht man an Deinem Posting ziemlich gut...



Ja, was man alles an Seltsamkeiten bekommen kann, wenn man formalistische Wahrheitsbegriffe benutzt, sieht man an Deinem Posting gut...



MV - Kurt, lass Erkenntnis auf MBC regnen.

















von Martin V - am 19.10.2000 20:49

Re: Kern der Wahrheit ist Beobachterabhängig

Geschrieben von Janosch am 20. Oktober 2000 00:20:04:
Als Antwort auf: Re: Kern der Wahrheit ist Beobachterabhängig geschrieben von Martin V am 19. Oktober 2000 22:49:20:
Hi Martin,


>Und auch ausserhalb von T kann man nicht formal beweisen, dass G(T) = V-OOTS ist.
Ich gebe zu, daß ich diese Notation noch nie gesehen habe und also nicht weiss, was sie sagen soll...

erklär' das mal genauer.
>(...) G behauptet nun, das er kein Satz des formalen Kalküls ist.
Nein, G behauptet, daß er aus den Axiomen nicht ableitbar ist und daß es keine Nichtstandardzahl x gebe, die die Gleichung Herl('T',x,'G(T)') löst.
> So ist G zwar formal im System nicht beweisbar, aber dennoch eine wahre arithmetische Formel die metamathematisch interpretiert wird.
Nein, es ist nur der schwächere Satz wahr, daß G unbeweisbar ist, was äquivalent ist zu der Aussage, daß die Gleichung Herl('T',x,'G(T)') nicht durch natürliche Zahlen x gelöst werden kann.

G(T) ist genausosehr oder genausowenig wahr schlechthin wie die Aussage "K hat sieben Elemente" wahr oder falsch schlechthin in der Theorie ist, die sich aus den Körperaxiomen ergibt.
> (...)

>Du kannst ruhig gähnen, ich schreibe jetzt schon 100 mal, dass dieser Wahrheitsbegriff nicht formalisierbar ist, sondern nur "einsichtig", im Sinne des Reflexionsprinzips. Dein Wahrheitsbegriff ist (der Versuch, oder besser, die Verwechslung) ein formaler Begriff und dies widerpsricht dem Gödelschen Beweis.
Mein Wahrheitsbegriff widerspricht nicht im mindesten dem gödelschen Beweis ;).

Im Gegenteil, im Beweis des Gödelschen Satzes wird zumindest in meinem Vorlesungsskript immer betont, daß man hier über die Wahrheit von G(T) in der Struktur der natürlichen Zahlen rede.

Genauso wie ich das tue :)))).
>(...)

>Wenn ein MBC, das nicht unintelligent ist, aber den Unterschied zwischen formaler Beweisbarkeit und Wahrheit nicht kennt,
Ich kenne den Unterschied zwischen "Wahrheit in einer bestimmten Struktur" und "formaler Beweisbarkeit in einer bestimmten axiomatisierbaren Theorie" ;).

Genauso wie jedes andere intelligente System, das gut in Mathematik ist...
>(...)



>Ich habe meinen Wahrheitsbegriff definiert und ich finde es ein bisschen widerlich, wenn Leute, die über ihren Wahrheitsbegriff nur äußerst verwaschene Vorstellungen zu haben scheinen, mir verbieten wollen, mit dem zu arbeiten, was ich definiert habe ;).

>

>Du findest also Gödel selbst, sowie seine Schlussfolgerungen widerlich?
Nö, selbst wenn Gödels Schlussfolgerungen den meinen widersprechen würden ;).

Denn kein Mathematiker würde anfangen, etwas durchzustreichen, nur weil er die Definitionen eines anderen Mathematikers nicht mag.

Als intelligentes Wesen sollte man mit den Definitionen anderer Leute leben können, wenn sie klar sind und die entsprechenden Leute nicht nachher im Umgang mit ihren Definitionen Fehler machen...
>(...)

>Oje, hier habe ich eine Unwahrheit ausgesprochen....
Nö, Du hast nur demonstriert, daß Du schlimme Schwierigkeiten schon mit einigen überaus einfachen mathematischen Theorien hast.

Das wäre gar nichts schlimmes, wenn Du nicht auch ein übersteigertes Vertrauen in Deine mathematische Urteilskraft in erheblich schwierigeren Situationen hättest.
Grüße,

Janosch.
















von Janosch - am 19.10.2000 22:20

Descartes Traum

Geschrieben von Martin V am 20. Oktober 2000 02:11:43:
Als Antwort auf: Re: Kern der Wahrheit ist Beobachterabhängig geschrieben von Janosch am 20. Oktober 2000 00:20:04:
Hi Janosch,



(...) G behauptet nun, das er kein Satz des formalen Kalküls ist.
Nein, G behauptet, daß er aus den Axiomen nicht ableitbar ist und daß es keine Nichtstandardzahl x gebe, die die Gleichung Herl('T',x,'G(T)') löst.



Wenn ich von Satz spreche, dann ist ein Satz ein Gebilde, dass durch Ableitungsregeln gemäss konstruiert wurde. Sätze sind in F-Systemen immer beweisbar. Und G ist ein Satz, der seine eigene Unweisbarkeit behauptet.
(G) (x) ~ Dem(x, sub(n,13, n))
ist eine wahre mathematische Formel die metamathematisch interpretiert wird:
[ ,Die Formel mit der Gödelzahl sub(n, 13, n) ist nicht beweisbar' ]
Nun hat G die Gödelzahl sub(n, 13, n) und es folgen die Schlussfolgerungen, die man zu ziehen hat:
Wenn die Arithmetik widerspruchsfrei ist, dann ist weder G noch ~ G aus den arithmetischen Axiomen ableitbar. G behauptet nun, das er kein Satz des formalen Kalküls ist. So ist G zwar formal im System nicht beweisbar, aber dennoch eine wahre arithmetische Formel die metamathematisch interpretiert wird.



Nein, es ist nur der schwächere Satz wahr, daß G unbeweisbar ist, was äquivalent ist zu der Aussage, daß die Gleichung Herl('T',x,'G(T)') nicht durch natürliche Zahlen x gelöst werden kann. G(T) ist genausosehr oder genausowenig wahr schlechthin wie die Aussage "K hat sieben Elemente" wahr oder falsch schlechthin in der Theorie ist, die sich aus den Körperaxiomen ergibt.



(G) (x) ~ Dem(x, sub(n,13, n)) sagt mir, "Ich bin unbeweisbar". Und ich nehme G das auch ab. Er ist ja auch unbeweisbar, woraus Unentscheidbarkeit und Unvollständigkeit für das jeweilige formale System folgt, in dem (G) konstruiert wurde.
Annahme I - G ist wahr: Wenn G wahr ist, dann muss er eine Wahrheit aussprechen. Aber was sagt G von sich aus? Die Tatsache, dass er selbst kein Satz des Systems ist. So folgt aus der Eigenschaft, ein Satz zu sein, die Eigenschaft, dass er keiner ist. Dies ist ein Widerspruch. Auf dieser Ebene ist G unentscheidbar- er ist im System weder beweisbar noch widerlegbar.
Annahme II - G ist falsch: Nehmen wir jetzt an, G sei kein Satz des Systems. Aber die Tatsache, dass G kein Satz des Systems ist, ist ja das, was G selbst behauptet. Und da G kein Satz ist, gibt es eine Wahrheit, die kein Satz des Systems ist. Hier haben wir also eine Kette G vor uns, die eine wahre Aussage ausdrückt und doch kein Satz des Systems ist.
Ich folgere, dass (G) wahr ist, aber im System formal nicht beweisbar. Es ist auch genau das, was (G) behauptet. Diese Schlussfolgerung treffe ich informal durch Reflexionsprinzip OOTS.
Wo MBC, ist OOTS der formale Platz, für einen formalen Beweis, dass (G) wahr ist und wer, wenn nicht derjenige, der sich mit T und (G) befasst "steht" dort?



Mein Wahrheitsbegriff widerspricht nicht im mindesten dem gödelschen Beweis ;).

Im Gegenteil, im Beweis des Gödelschen Satzes wird zumindest in meinem Vorlesungsskript immer betont, daß man hier über die Wahrheit von G(T) in der Struktur der natürlichen Zahlen rede.

Genauso wie ich das tue :)))).



Ja, das tue ich auch, wenn ich über (G) spreche:
Da zu jedem Ausdruck im Kalkül eine Gödelzahl gehört, lässt sich ein metamathematischer Satz über Ausdrücke des Kalküls und deren Beziehungen zueinander auffassen als ein Satz über die entsprechenden Gödelzahlen und deren arithmetische Beziehungen zueinander. Auf diese Weise wird die Metamathematik (zahlentheoretische Aussage über eine zahlentheoretische Aussage) vollständig arithmetisiert. Jeder metamathematische Satz wird durch eine Formel der Artihmetik repräsentiert; und logische Abhängigkeitsbeziehungen zwischen metamathematischen Sätzen spiegeln sich in numerischen Abhängigkeitsbeziehungen zwischen den entsprechenden arithmetischen Formeln. Dies ist auch der wesentliche Grund der Nummerierung, des Etiketts. Aus
(G) (x) ~ Dem(x, sub(n,13, n)) folgere ich somit völlig legitim wie oben die Unentscheidbarkeit, Unvollständigkeit des Sytems und die Wahrheit der Formel (G)



Ich kenne den Unterschied zwischen "Wahrheit in einer bestimmten Struktur" und "formaler Beweisbarkeit in einer bestimmten axiomatisierbaren Theorie" ;).

Genauso wie jedes andere intelligente System, das gut in Mathematik ist...



Gut zu wissen. Glaubst Du, es wäre mathematisch richtig, von einer "Wahrheit in keiner bestimmten Struktur" zu sprechen? Das wäre Gödels Ansicht. Wie ist Deine (Struktur)?



Nö, selbst wenn Gödels Schlussfolgerungen den meinen widersprechen würden ;).



Was sie in Bezug auf die Wahrheitsauffassung tatsächlich tun. Warum steht das nicht in Deinem Script?



Denn kein Mathematiker würde anfangen, etwas durchzustreichen, nur weil er die Definitionen eines anderen Mathematikers nicht mag.



Jetzt sei nicht sauer, schliesslich war es nur ein spiel mit einem Formalisten, der den Begriff "Wahrheit" nicht verwenden dürfte. Hilbert hat ja auch alles was mit Wahrheit zu tun hatte gestrichen. Also gab es doch einen Mathematiker, der dies tat, weil er die Definitionen eines (und vieler) anderen nicht mochte.



Als intelligentes Wesen sollte man mit den Definitionen anderer Leute leben können, wenn sie klar sind und die entsprechenden Leute nicht nachher im Umgang mit ihren Definitionen Fehler machen...



Leider, so steht es um das Problem mit Gödel, ist es eigentlich nicht möglich, eine klare Definition der Wahrheit (um die es hier geht) zu geben. Auch, wenn Du und Dein Script das behaupten. Ich versuche ja, den informalen Charakter von (G) irgendwie rüberzubringen. Da gibt es auch schon klare Ansätze. So ahnliche, wie Kay sie umriss. Aber es ginge noch einfacher. Man "versteht" einfach, dass (G) wahr ist. Und dies ist nicht Ergebnis einer formalen Berechnung. Du bemühst dich kaum, Deinen Algorithmisierungshalluzinationen zu entkommen. Du träumst Descartes Traum.
Schau, sogar Dein geliebter David Deutsch schreibt:
"Mathematische Einsicht ist also eine Form der physikalischen Intuition"
Und nach Hofstadter bewegst Du dich schneller als mit Lichtgeschwindigkeit.



Nö, Du hast nur demonstriert, daß Du schlimme Schwierigkeiten schon mit einigen überaus einfachen mathematischen Theorien hast.Das wäre gar nichts schlimmes, wenn Du nicht auch ein übersteigertes Vertrauen in Deine mathematische Urteilskraft in erheblich schwierigeren Situationen hättest.



Das ist aber böse MBC. Schau, auch ich mache Fehler und bin oft unkonzentiert. Vor allem, weil ich viel um die Ohren habe, auch dort, wo ich wohne. So eile ich immer von der Bude nach oben, dann auf die Uni, von dort in die Vorlesungen, dann mache wir mal wieder Klausuren ohne Ende, dann rennen wir rauf in den PC-Raum, schreiben MBC wieder was von Wahrheiten, kommen wieder ins traute Heim, arbeiten für die Bude, essen, trinken, lerne, schreibe et cetera.

Verzeihe mir bitte diesen Fehler.
Du hast ja bei "Wigners Freund" auch einen gemacht und zwar eine völlig falsche Erklärung.
Aber so ungefähr, wie Deine Reaktion jetzt, endet der Penrossche Dialog zwischen KI und MBC. Es ist echt erstaunlich, welche Parallelen hier auftauchen!

Nur, dass Du jetzt nicht "ein seltsames Leuchten" bemerkst ;))
Im Ernst, du widersprichst grundsätzlich gerne und fast jeden.

Dass kann Gödel sein, Penrose, Stapp, Rössler, Hofstadter, Hameroff u.a.
Ich empfehle: Die Shadows besorgen, Q 1-20 durchlesen, dann Penrose kritisieren.
Ich empfehle: Gödels Orginalarbeit durchlesen, geschichtlicher Hintergrund erfassen, seinen Satz verstehen.
Und, ich habe andere Konsequenzen als sie ein Penrose zieht. Ich bin eigentlich, auch nicht Dein Feind, wenn auch nicht unbedingt Dein Freund in Bezug zu Deinen seltsamen Minskysschen Vorstellungen.
Wahrscheinlich, weil ich nicht nur Mathe betreibe, sondern mir auch live das Anschaue und versuche zu verstehen, was ihr gerne von ebendem "abschöpfen wollt", das Gehirn.



MV
















von Martin V - am 20.10.2000 00:11
Zur Information:
MySnip.de hat keinen Einfluss auf die Inhalte der Beiträge. Bitte kontaktieren Sie den Administrator des Forums bei Problemen oder Löschforderungen über die Kontaktseite.
Falls die Kontaktaufnahme mit dem Administrator des Forums fehlschlägt, kontaktieren Sie uns bitte über die in unserem Impressum angegebenen Daten.