Schatten des Geistes: Qualia contra Penrose?

Startbeitrag von Martin V am 13.09.2000 16:17

Geschrieben von Martin V am 13. September 2000 18:17:54:
Fällt jemanden etwas dazu ein?



Die derzeitige philosophische Diskussion rund um das "Bewußtsein" richtet sich mehr auf die berühmten Qualia-Argumente: What is it like to be a x? Penrose aber sieht nicht Qualia als Bausteine eines phänomenologischen Bewußtseins an, sondern die Fähigkeit des Bewußtseins, Sachverhalte zu verstehen. Anders gesagt, wir führen nicht nur Algorithmen aus (reines "geistloses" herumverschieben von Symbolen nach bestimmten Regeln), sondern "verstehen" auch, was ein x bedeutet.
Wir verstehen z.b. Gödels Satz und können deshalb folgern: Er ist wahr. Und dies, obwohl es keinen Algorithmus geben kann, der zu diesen Schluss kommen könnte (eine Turing-Maschine würde gen Unendlichkeit nach einer Lösung "suchen"; sie würde nie anhalten. Und das, obwohl eine TM universell ist). G wird informal bewiesen; allein intuitiv, nicht-rechnerisch.
Was ist es nun Wert, untersucht zu werden?
(a)Wie es ist x zu sein >Qualia (sein-wie)

(b)Sachverhalt x zu verstehen (Penrose/Gödel)
Gibt es einen Zusammenhang zwischen (a)& (b)?



MV















Antworten:

Geschrieben von Kay S am 14. September 2000 19:24:11:
Als Antwort auf: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 13. September 2000 18:17:54:
Hallo Martin,
ein interessantes Forum, dass du führst. Zwar hat die Bewusstseinsforschung für mich den Charme einer gewissen Vergeblichkeit - sind wir denn wirklich weiter,

als es Schopenhauer seinerzeit war, oder Descartes? Lassen sich nicht immernoch

alle erdenklichen Spekulationen zum Thema Bewusstsein aufstellen? Von der Aussage, es gäbe gar keines(D.Dennet) bis zu der Vielzahl spiritueller Ansichten über Seelenwanderung und Geisterkommunikation, die ich gar nicht vorweg lächerlich machen möchte.
Einige Bemerkungen zu Deinem Posting:

es mir nicht ganz klar, warum noch immer Gödels Satz im Zusammenhang mit

der Widerlegung der Thesen der sog. starken KI von Relevanz sein soll?

Dass eine wahre mathematische Aussage, nicht als Satz innerhalb eines formalen

Systems gewonnen werden kann, d.h. durch eine Deduktion mit Hilfe von Ableitungsregeln und Axiomen, besagt überhaupt nichts über die Algorithmisier-

barkeit des Geistes aus. Ohne zu zögern, würde ich sagen, dass wir die Wahrheit von Satz G durch Mustererkennung bestimmen können. Ein Aspekt dieser Mustererkennung kann das Erkennen logischer Formen sein. Die Mustererkennung erfolgt jedoch nicht deduktiv oder als Schlussweise innerhalb eines formalen Systems, sie beruht jedenfalls nicht auf einem solchen. Ich würde auch das "Verstehen" eines Ausdrucks auf diese Weise angehen. Dass ein solcher Erkenntnisvorgang allerdings bewusst erfolgen soll, bleibt nach wie vor ein Rätsel.
>Die derzeitige philosophische Diskussion rund um das "Bewußtsein" richtet sich mehr auf die berühmten Qualia-Argumente: What is it like to be a x? Penrose aber sieht nicht Qualia als Bausteine eines phänomenologischen Bewußtseins an, sondern die Fähigkeit des Bewußtseins, Sachverhalte zu verstehen. Anders gesagt, wir führen nicht nur Algorithmen aus (reines "geistloses" herumverschieben von Symbolen nach bestimmten Regeln), sondern "verstehen" auch, was ein x bedeutet.

>Wir verstehen z.b. Gödels Satz und können deshalb folgern: Er ist wahr. Und dies, obwohl es keinen Algorithmus geben kann, der zu diesen Schluss kommen könnte (eine Turing-Maschine würde gen Unendlichkeit nach einer Lösung "suchen"; sie würde nie anhalten. Und das, obwohl eine TM universell ist). G wird informal bewiesen; allein intuitiv, nicht-rechnerisch.

>Was ist es nun Wert, untersucht zu werden?

>(a)Wie es ist x zu sein >Qualia (sein-wie)

>(b)Sachverhalt x zu verstehen (Penrose/Gödel)

>Gibt es einen Zusammenhang zwischen (a)& (b)?

>

>MV



















von Kay S - am 14.09.2000 17:24
Geschrieben von Janosch am 15. September 2000 01:46:35:
Als Antwort auf: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 13. September 2000 18:17:54:
Hallo,
die gödelschen Unvollständigkeitssätze kann man durchaus formal beweisen, wenn man das in einer hinreichend starken Theorie versucht. Tatsächlich nicht beweisen kann man in einer Theorie, die konsistent ist und mindestens die Arithmetik enthält, beispielsweise den Satz "Diese Theorie ist konsistent". Das ist nun aber erstens weder für eine KI noch für einen Menschen ein Hindernis, diesen Beweis in einer etwas "stärkeren" Theorie zu führen und zweitens konnte noch kein Mensch die Widerspruchsfreiheit der gesamten nichtkonstruktiven Mathematik beweisen (bzw. der zermelo-fraenckelschen Mengenlehre, was praktisch auf dasselbe hinausläuft), genau wie es Gödel für den Fall voraussagen würde, daß Menschen Rechenanlagen sind und Mathematik oder Mengenlehre widerspruchsfrei sind.
Grüße,

Janosch.
















von Janosch - am 14.09.2000 23:46
Geschrieben von Martin V am 15. September 2000 13:04:54:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Janosch am 15. September 2000 01:46:35:
Grüsse Janosch,



Freut mich, dass Du hier bist.

Du schreibst, man könne die G - Sätze durchaus formal beweisen, wenn man dies in einer hinreichend starken Theorie (oder meinst Du ein F-System?) versucht.
Ich wäre erfreut, wenn dies klappen würde, doch derzeit habe ich keinen blassen Schimmer, wie dies möglich sein soll. Natürlich kann ich einen, in einem System F1 konstruierten G-Satz als Axiom in ein neues System F2 hinzufügen. Doch ist es ein leichtes, für F2 wiederum einen Satz G2 zu konstruieren, der ein Satz des Systems F2 wäre, und meinte, er wäre in dem System F2 unbeweisbar (in natürlicher Sprache übersetzt). Und so geht es weiter und weiter. Die Omega-Widerspruchsfreiheit kann nicht erfüllt werden. Wenn es einen formalen Beweis für G geben sollte, dann muss dieser (in Deiner Definition einer starken Theorie) aber von einer grundsätzlich anderen Maschine ausgeführt werden, die jedenfalls keine klassische universelle Turing-Maschine ist. Derzeit existiert keine derartige Maschine. Die Quantencomputation könnte aber ein zukünftig hinreichendes Werkzeug zur Untersuchung das Halteproblems sein.
Tatsache ist, dass wir, die wir ausserhalb des Systems stehen, G informal "als wahr einsehen" können, ohne in eine infinite Omega-Schleife zu geraten. Wie J.R. Lucas sagt:
"Die Maschine wird auf jeder Omega-Stufe zu einer anderen; die alte Maschine unter Beifügung eines neuen Teils. Der menschliche "Geist" (was auch immer Geist, Bewusstsein ist) ist schon vollständig und hat keine Achillesferse".
Du schreibst, man könne in einer konsistenten Theorie, die die Arithmetik enthält (also nach Gödel umfassend genug ist, darin arithmetische Ausdrücke zu verwenden; ergo mindestens die Peano-Axiome enthalten) (F-System) den Satz:
'Diese Theorie ist konsistent'
oder besser:



GF:'Das F-System mit der Gödelnummer n ist beweisbar'
nicht beweisen. Vorweg: Ein F-System per se hat weder bewiesen noch unbewiesen zu werden. Ob es konsistent ist, zeigen einzig Ableitungen und dann sind wir wieder auf der Ebene von Sätzen innerhalb das F-Systems.
Soweit ich diese Ausführungen verstehe, verwendest Du statt einem einzelnen Satz eines F-Systems wie seinerzeit Gödel, gleich "das ganze F-System, um dieses zu, sagen wir mal, gödelisieren. Nur, es gibt nichts zu beweisen, wenn man über ein F-System spricht, denn ein F-System als ganzes Kalkül gesehen, ist weder eine Aussage noch ein Satz. Deshalb kann man GF nicht mit Wahrheitswerten belegen, noch eine Gödelnummer zuordnen.
Ich gebe Dir recht; es wäre höchst bemerkenswert einen GF "Satz" zu konstruieren; nur leider wird dies nie ein Satz sein und damit läuft sich, so glaube ich, die Frage nach GF tod.
Um die Widerpsruchsfreiheit eines Systems zu negieren bzw. zuzugestehen, muss man sich seine Axiome ansehen. Es wird aber immer möglich sein, einem "fremdes System" Gödelzahlen zuzuordnen und somit den eigentlich Systemfremden G-Satz "darin wie ne Bombe reinplatzen zu lassen". Damit, wie schon geschrieben, die Gödelnummerierung auch funzt, muss es umfassend genug sein (in Bezug zu Peano). Und das ist auch die Mengenlehre und ihre verschiedenen "Lehren" (ich erinnere an das Barbier - Paradoxon).
Welchen Wert hat für Dich die Lucas/Penrose Argumentation nun?
cheers,

MV
















von Martin V - am 15.09.2000 11:04
Geschrieben von Martin V am 15. September 2000 13:28:24:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Kay S am 14. September 2000 19:24:11:
Grüsse Kay,



Eure Reaktion freut mich. Natürlich hast Du recht mit der Argumentation, der "Vergeblichkeit" in Bezug zum Phänom "Bewußtsein". Es hat sich auch seit Descartes nicht sehr viel verändert. Der Funktionalismus mag dazugekommen sein (Entwicklung der Turing - Maschine und Neumanns Automatentheorie). Doch auch dieser Turing- Maschinen - Funktionalismus (TMF) bringt uns nicht wirklich weiter, denn Soft & Harware sind in Bezug zum menschlichen Gehirn identisch; auch wenn diese Identität auf einer "strange loop" (Hofstadters seltsame Schleifen) zu einer "Identität" wird. Ausserdem wäre es nach dem TMF ebenso denkbar (Searle stellt diese lustige Überlegung an), ein ganzes chinesisches Volk ein Gehirn "nachbilden" zu lassen, indem jeder Chinese ein Neuron darstellt, und die einzelnen axonalen und dentritischen Verbindungen im Gehirn, hier "Seile" sind, an denen ein Chinese (oder mehrere) zieh(t)en oder nicht zieh(t)en. Nach TMF könnte nun das chinesische Volk als Kollektiv gesehen, Bewusstsein und Subjektivität hervorbringen. Ebenso kann man ne Mühle als Modell für diese seltsame Überlegung verwenden ect. Der TMF würde, an seine Grenze getrieben, im Panpsychismus enden.
Dein Argument gegen die Penrose/Lucas/Gödel - These überzeugt mich allerdings nicht. "Das Erkennen logischer Formen" setzt schon "verstehen" voraus. "Verstehen" jetzt nur ganz eingeschränkt im Kontext zu G. Doch hast Du "erkennen logischer Formen" ja als Teil dessen beschrieben, was Du Mustererkennung nennst. Worauf beruht "Mustererkennung", wenn nicht auf algorithmische Prozesse (Deduktion, Schlussregeln, Axiome)?



cheers,

MV


















von Martin V - am 15.09.2000 11:28
Geschrieben von Kay S am 15. September 2000 22:24:08:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 15. September 2000 13:28:24:
Hallo Martin,
hier mein Reply:


es war durchaus nicht meine Absicht im letzten Posting die Mustererkennung

zu mystifizieren. Mir ist wohl bewusst, dass jeder Mustererkennungsalgorithmus

(jedenfalls jeder mir bekannte) einen extrem kleinen 'Sichtwinkel' besitzt.

Allerdings lassen sich beliebig viele von ihnen erzeugen und vernetzen und damit

der Sichtwinkel vergrößern. Worauf ich hinaus möchte: jedesmal wenn wir uns

ausserhalb eines formalen Systems wiederfinden, dass wir konstruiert haben,

können wir einen Algorithmus schreiben (wir können das nicht wirklich, aber es

ist nicht unzulässig dies anzunehmen), der unseren Wahrnehmungsakt wiederholt,

der uns in unsere Lage gebracht hat. Wir erzeugen nun, sozusagen durch Integration infinitesimaler Wahrnehmungsmomente, unser Programm. Ist es nun vollständig und widerspruchsfrei, im Sinne der mathematischen Logik? Keineswegs, wie sich mit Gödels Satz eindrucksvoll beweisen lässt. Allerdings versteht unser Programm diesen Satz auch, denn wir haben ihm ja beigebracht selbstbezügliche Aussagen zu erkennen und ebenso logische Schlussfolgerungen aus Annahmen zu ziehen.

Es wird seine eigene Unvollständigkeit aber auf eine ganz andere und viel konkretere Weise bemerken, es kann z.B. kein chinesisch, der Computer auf dem er installiert ist, hat nur begrenzt viel Speicher zur Verfügung etc. Er ist zwar unvollständig, aber jeden intellektuellen Trick, den ein Mensch beherrscht, den kann er auch.

Das ist einfach so, weil systematisch die Lücken in seiner ( zumindest intellektuellen) Wahrnehmung geschlossen wurden, die ihn von uns unterschieden haben.
In der bisherigen Geschichte der KI ist es nicht gelungen herauszufinden, wie ein impressionistisches Bild der Wirklichkeit zu malen ist, in dem keine riesengroßen Lücken klaffen. Es hat stets den Anschein, als würden wir wieder vor einer weißen Leinwand stehen, wenn wir uns einige Meter von ihr wegbewegen, so dünn sind die Punkte gesät, die mit einem ganz feinen, spitzen Pinsel aufgetupft wurden. Zumindest gilt das für die sog. symbolische KI. Für die konnektionistische KI kann man sagen: sie hat es gerade

bis zu Ein-Fleck-Bildern geschafft. Allerdings weiß niemand, wie sich weitere Flecke so auftragen lassen, dass auch eine Komposition entstehen kann. Ich bin andererseits nicht sehr pessimistisch, dass es uns doch irgendwann gelingen wird mit breiteren und feineren Linien und Punkten aus Algorithmen ein denkendes Wesen zu malen - als eine auf genauer Selbstbeobachtung beruhende mimische Übertragung von Interpretationshandlungen. Verstehen bedeutet dann die Trennung einer sprachlichen Figur von einem sprachlichen Hintergrund, der nicht figural sondern medial ist, zum Zweck der Beantwortung einer Frage oder der Lösung einer Aufgabe oder etwas, dass weder das eine oder das andere ist,

aber doch die Figur-Hintergrund-Trennung, wie sie anderswo vollzogen wird, nachahmt.

Das Programm wird, wie alles andere auch im Universum unvollständig sein, ob formal oder auch nicht.
Ob das Programm oder das ganze chinesische Volk Bewusstsein hat, weiß ich nicht,

aber soll ich mich nun dem beschränkten Horizont von J.Searle anvertrauen, nur weil er so eine Art gesundes Empfinden ausdrückt? Dass das Gehirn Bewusstsein hervorbringen soll, scheint den meisten Menschen genauso absurd, wie der Gedanke, dass Chinesen mit Seilen Axone simulieren. Aber was besagt das schon?

Vielleicht erzeugt das Gehirn ja tatsächlich keines, sondern empfängt es wie eine Fernsehantenne, was weiß ich? Ich habe dafür keine Begriffe.
Einen schönen Abend,

Gruß

Kay




















von Kay S - am 15.09.2000 20:24
Geschrieben von Janosch am 15. September 2000 23:54:05:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 15. September 2000 13:04:54:
Hallo,


> Derzeit existiert keine derartige Maschine. Die Quantencomputation könnte aber ein zukünftig hinreichendes Werkzeug zur Untersuchung das Halteproblems sein.
Ein Quantencomputer kann keine nichtrekursiven Funktionen berechnen; das wurde 1985 von David Deutsch bewiesen. Er kann allenfalls vielleicht (bislang unbewiesen ;)... ) *manche* Dinge viel schneller tun als ein normaler Computer, aber seine einzige grundsätzliche Überlegenheit gegenüber einer Turing-Maschine besteht in der Fähigkeit, echte Zufallszahlen zu erzeugen, und das liesse sich notfalls auch einer gewöhnlichen Rechenanlage mit etwas Zusatz-Hardware beibringen. Aus diesem Grund muss Penrose ja auch zu Spekulationen über unverstandene Teile der Physik (Theorie der Quantengravitation) übergehen, wenn er will, daß seine Vorstellung vom Gehirn als einem makroskopischen Quantencomputer mit gewissen mystischen Zusatz-Fähigkeiten Sinn macht.

In Deiner Argumentation ist meiner Meinung nach ein zugegebenermassen subtiler Denkfehler enthalten ;). Du gehst von der richtigen Feststellung aus, daß für jedes algorithmisch repräsentierbare Axiomensystem, das zu einer konsistenten Theorie gehört, Sätze existieren, die zwar in der Theorie wahr sind, aber aus den Axiomen nicht bewiesen werden können - von der Aussage des bekannten gödelschen Satzes also. Im weiteren verwechselst Du diesen Unvollständigkeitssatz aber mit den konkreten Gödel-Sätzen, deren Unbeweisbarkeit in einer gegebenen Theorie zum Beweis dieses Satzes dient, und schliesst dann, daß der Unvollständigkeitssatz selbst von keiner Maschine bewiesen werden könne, nur weil für jede Maschine, die ein konsistentes Weltbild hat, ein "Zeuge" des Unvollständigkeitssatzes existiert, das heisst, ein Satz, der von der Maschine nicht bewiesen werden kann.

Das würde vielleicht zu einem Widerspruch führen, wenn die Maschine beweisen könnte, daß der Unvollständigkeitssatz auf sie anwendbar wäre. Ein anderer Unvollständigkeitssatz von Gödel sagt uns aber, daß gerade das nicht möglich ist, weil sie die Voraussetzung des Satzes, daß ihr Anschauungssystem konsistent ist, nicht beweisen kann.

Vielleicht liegt hier auch der Grund für die Tatsache, daß Menschen den Unvollständigkeitssatz nicht auf sich selbst anwenden wollen ;)).
>"Die Maschine wird auf jeder Omega-Stufe zu einer anderen; die alte Maschine unter Beifügung eines neuen Teils. Der menschliche "Geist" (was auch immer Geist, Bewusstsein ist) ist schon vollständig und hat keine Achillesferse".
Auch das bezweifle ich. Betrachten wir einmal, für den Zweck einer informellen Diskussion, den Satz "Penrose kann diesen Satz nicht beweisen." .

Wenn wir annehmen, daß Penrose eine widerspruchsfreie Weltanschauung hat, dann kann er den Satz offenbar nicht beweisen, auch wenn Penrose uns das begreiflicherweise nicht glauben wird ;).


>

>GF:'Das F-System mit der Gödelnummer n ist beweisbar'
Nein, der formal beweisbare Satz, den ich meine, sagt ungefähr:

Wenn zu dem algorithmisch repräsentierbaren Axiomensystem x kein y existiert, so daß y eine Herleitung des Falsums aus x ist, dann gehört der Satz "Es existiert kein y, so daß y eine Herleitung des Falsums aus x ist" nicht zu den Sätzen, die aus x hergeleitet werden können.

Dieser Satz ist in jeder Theorie, die mindestens die Arithmetik enthält, ausdrückbar, weil man in einer solchen Theorie beliebige berechenbare Relationen ausdrücken kann und in diesem Satz nur berechenbare Sachen vorkommen. Ich denke, daß sich damit Deine Einwände weitgehend erübrigen, auch wenn ich im Rahmen dieses Beitrages nicht imstande sein werde, den formalen Beweis der obigen Aussage anzugeben ;).



>Welchen Wert hat für Dich die Lucas/Penrose Argumentation nun?
Allenfalls einen sehr geringen, und das aus mehreren Gründen:

1. Es scheint nicht so zu sein, daß Menschen allgemeine Probleme aus im gödelschen Sinne "schwierigen" Problemklassen lösen können; im Gegenteil findet man aus diesen Problemklassen sehr einfach zu formulierende Probleme, mit denen Menschen rasende Schwierigkeiten haben.

2. Zusätzlich zu den Dingen, die ich oben schon angeführt habe, scheint Penrose auch die Tatsache zu übersehen, daß eine KI sich durch Lernprozesse verändern könnte, während sie *auch* ein bestimmtes mathematisches Problem bearbeitet. In diesem Fall ist es nicht mehr einfach, festzustellen, welche Frage man der Maschine stellen soll, wenn man sicher sein will, daß sie sich nicht irgendwann selbst erweitert und die Frage *dann* lösen kann. Ausserdem ist nicht unmittelbar einsichtig, daß eine KI, die sinnvoll über Dinge nachdenken soll, ein global konsistentes Weltbild haben muss. Die derzeit komplexeste tatsächlich existierende KI baut jedenfalls nicht auf einer global konsistenten Wissensbasis auf, sondern ihr Wissen ist in tausende von nur lokal konsistenten Mikrotheorien unterteilt.

Natürlich können auch solche Systeme letztlich den grundsätzlichen Grenzen geisteswissenschaftlicher Erkenntnis, die sich aus dem Gödel-Satz ergeben, nicht entrinnen. Aber es wird unter Umständen schwer, andere Fragen zu finden als die, die man auch Menschen stellen kann und die diese dann als trivialerweise uninteressant abtun können ;).

3. Wenn man die Frage nach der Möglichkeit starker KI von einem empirischen Standpunkt her betrachtet, dann scheint heute relativ klar zu sein, daß man einerseits beliebige Fähigkeiten nichtmenschlicher Tiere auf Robotern wird nachbilden können und andererseits gibt es auch eine lange Liste erfolgreicher Nachbildungen von intellektuellen Fähigkeiten, die man im Tierreich nur beim Menschen findet. Sogar beim allgemeinen intellektuellen Weltverständnis dürften Systeme wie Cyc heute besser sein als praktisch alle Tiere.

Es erscheint mir nun zum Ersten nicht sinnvoll, anzunehmen, daß die Evolution ausgerechnet bei unserer Spezies irgendeine grundlegende Neuerung vermutlich auf der Ebene des einzelnen Neurons im Gehirn eingebaut haben sollte, die nicht im Ansatz bei irgendeiner anderen Art vorkommt. Zum zweiten meine ich speziell bei der Beurteilung der Frage, ob ein System Bewusstsein habe oder nicht, zu sehen, daß doppelte Maßstäbe angewendet werden, was darauf hindeutet, daß viele Menschen sich dabei von vorintellektuellen Kriterien leiten lassen. Allgemein habe ich den Eindruck, daß einem Tier viel leichter ein gewisser Grad an Intelligenz und ein Bewusstsein zugestanden werden als einem Roboter, der vermutlich erst durch menschenähnliches Verhalten überzeugen könnte.

Zum Dritten finde ich in Anbetracht der riesigen Rechenleistung biologischer Gehirne die bisherigen Fortschritte auf dem Gebiet der künstlichen Intelligenz weitaus überraschender als die Fehlschläge.

4. Penrose et al. gehen davon aus, daß man irgendwelche Dinge, die nichtrekursive Funktionen berechnen können, in einer vollständigen Theorie der Physik finden wird. Das ist zum gegenwärtigen Zeitpunkt anscheinend pure Spekulation und ausserdem frage ich mich, ob eine Theorie, die unberechenbare Entitäten annimmt, überhaupt falsifizierbar wäre. Immerhin könnte man aus einer derartigen Theorie zumindest an den "interessanten" Stellen nicht durch irgendwelche Folgen von Berechnungen Vorhersagen ableiten, d.h. man müßte in den Fällen, in denen die Theorie interessant würde, die Vorhersagen durch mühevolles Nachdenken bekommen und dann in gewisser Weise noch annehmen, daß die Physik selbst auch ähnliche Denkprozesse durchführt, um dann das erwartete Ergebnis liefern zu können. Ich finde eine solche Annahme aussergewöhnlich kompliziert und ich halte nichts von aussergewöhnlich komplizierten Annahmen, für die nicht aussergewöhnlich gute Belege bekannt sind.
Grüße,

Janosch.
















von Janosch - am 15.09.2000 21:54
Geschrieben von Martin V am 16. September 2000 17:08:01:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Janosch am 15. September 2000 23:54:05:


Ein Quantencomputer kann keine nichtrekursiven Funktionen berechnen; das wurde 1985 von David Deutsch bewiesen. Er kann allenfalls vielleicht (bislang unbewiesen ;)... ) *manche* Dinge viel schneller tun als ein normaler Computer, aber seine einzige grundsätzliche Überlegenheit gegenüber einer Turing-Maschine besteht in der Fähigkeit, echte Zufallszahlen zu erzeugen, und das liesse sich notfalls auch einer gewöhnlichen Rechenanlage mit etwas Zusatz-Hardware beibringen. Aus diesem Grund muss Penrose ja auch zu Spekulationen über unverstandene Teile der Physik (Theorie der Quantengravitation) übergehen, wenn er will, daß seine Vorstellung vom Gehirn als einem makroskopischen Quantencomputer mit gewissen mystischen Zusatz-Fähigkeiten Sinn macht.
Dazu Artur Schmidt:



"Für die Realisierung von Quantencomputern muß ein Modell entwickelt werden, das dem Modell der universellen Turing-Maschine bei klassischen Berechnungen entspricht. Es wird deshalb vorgeschlagen, dieses Modell die universelle Gödel-Maschine zu nennen. Ob Quantencomputer die Church-Turing-These erfüllen, bleibt ebenso zu klären wie die Frage des Halte-Problems. Da bei überlagerten Zuständen die einzige Möglichkeit, das Programm zu stoppen, darin besteht eine Messung vorzunehmen, muß es gelingen, die Kohärenz der Berechnung aufrechtzuerhalten. Darüberhinaus muß geklärt werden, für welche Problemklassen sich besonders der Einsatz von Quantencomputer eignet und welche Problemstellungen womöglich nur mit klassischen Computern zu lösen sind. Dies hätte jedoch zur Folge, daß es keinen universellen Quantencomputer geben kann und somit die Anwendung des Church-Turing-Prinzips auf physikalische Systeme keinen Sinn machen würde. Eine physikalische Interpretation der Church-Turing-These würde bedeuten, daß sich jedes physikalische System durch eine universelle Maschine in endlichen Schritten simulieren ließe. Sollte es jedoch möglich sein, daß ein Quantencomputer jede Art von Problem lösen kann, stehen wir vor einem völlig neuartigen Universum von Möglichkeiten, sowohl für das Leben im Jetzt, als auch für die Evolution von Mensch-Maschine-Systemen.
Das Lösen von Problemen ist immer relativ zum Problemlösungspotential des Systems zu sehen, welches das Problem bearbeitet. Es gibt unlösbare Probleme, noch nicht bewiesene unlösbare Probleme und lösbare Probleme. Die Lösbarkeit der lösbaren Problemen hängt von den Algorithmen, der Größe des involvierten Systems und der Rechenleistung der verfügbaren Rechner ab. Zukünftige Computer könnten die Lösung von Problemen gestatten, die für Menschen bisher als unlösbar galten. Derartige Maschinen nenne ich Gödel-Maschinen, da sie dem Menschen erlauben könnten, hinter seine eigene Gödelgrenzlinie zu sehen. Dieser Computer kann eine unendliche Anzahl von Rechenschritten in einem unendlich kleinen Zeitintervall berechnen.
Ein derartiger Quantenrechner müßte zwangsläufig nichtlokale Eigenschaften haben, wenn Berechnungen in Echtzeit durchgeführt werden sollen. Nur ein Hyper-System im Quantenzustand kann alles potentielle Wissen umfassen, d.h. authentisch die Realität abbilden. Die Idee eines solchen Quantenrechners, der auf Nichtlokalität basiert, bleibt jedoch solange theoretischer Natur, bis es Möglichkeiten gibt, die Nichtlokalität, z.B. durch besondere Raumkrümmungen oder Überlichtgeschwindigkeiten, im Makrokosmos nachzuweisen und diese für Berechnungen zu nutzen. Das Jetzt ist für einen universellen Quantencomputer, wie Gödels Axiome verdeutlichen, ein unüberwindbare Grenze, da durch infinitesimale Differenzen, die immer weiter divergieren, ständig ein neues Jetzt, d.h. neue Universen entstehen. Während Turing-Maschinen Software programmieren, könnten Gödel-Maschinen auch Hardware neu verschalten.
Formale Systeme haben Gödelgrenzlinien, die nur durch erweiterte Systeme mit neuen Gödelgrenzen durchbrochen werden können. Da auch unser Gehirn trotz seines nicht-formalen Verhaltens in seinen Fähigkeiten begrenzt ist, erscheint es als ein notwendiger Schritt, die Möglichkeiten des Denkens zu erweitern. Nur eine neue Art von Lebewesen, die intelligenter als der Mensch wäre, könnte hinter die Gödelgrenzlinie des Menschen schauen. So könnte zwar einem Cyborg die menschliche Wahrheit zugänglich sein, er könnte jedoch die Cyborg-Wahrheit nicht finden, da auch er wiederum eine Gödelgrenze besitzt. Die subjektive Gödelgrenze bildet somit immer eine Grenze zwischen Wissen und Nicht-Wissen. Zukünftige Computer können die Turing-Maschinen ablösen und parallele Gödel-Maschinen sein, da diese den Blick hinter subjektive Gödelgrenzlinien simulieren können. Sie erschaffen parallele Welten und zielen auf Differenzbildung."



Kurz ausgesrückt: Die "Gödelgrenze" ist analog zu Spencer Browns Kalkulus "Laws of Form" nichts weiter als die Divergenz zwischen Endosystem und Exosystem, aus dem heraus ein G Satz informal bewiesen werden kann. Die Gesetze innerhalb eines Systems können anders sein, als ausserhalb dieses Systems. In einem Gödel-Universum1 existiert ein Satz G. Aufgrund der physikalischen Beschaffenheit dieses Universums, die sich wiederum auf die mathematischen Möglichkeiten umschlagen, ist es den Bewohnern dieses Universums unmöglich, bestimmte Sätze zu beweisen oder als wahr einzusehen (Wahrheit ist stärker als formale Beweisbarkeit). In einem anderen G-Universum2 aber, vermögen diese Bewohner solche, für G-Universum1 unentscheidbaren Sätze, "zu enschteiden". Doch jedesmal ensteht ein neues Exo-Endo System, das sich wie eine russische Puppe, infinit verschachtelt (ich kenne keine infiniten russischen Puppen, aber nehmen wir dies einmal an ;)
Eine Gödel-Maschine könnte diese Gödel-Universen und ihre Endo/Exo Digitalität im Sinne der Quantenmechanik "binden" und ein Hyperuniversum generieren. In diesen Hyperuniversum wäre jede Omega-Stufe ein und dieselbe (ähnlich der Argumentation von J.R. Lucas - die verschiedenen Maschinen unter Beifügung eines neuen Teils). Der Formalismus hierfür wurde z.b. von Eddie Oshins entwickelt. Wenn ich seine eMail noch finde, schicke ich Dir das Ganze zu. Spricht man von Gödel-Maschinen, so spricht man von einer neuen Diziplin; der Endophysik Rösslers.



In Deiner Argumentation ist meiner Meinung nach ein zugegebenermassen subtiler Denkfehler enthalten ;). Du gehst von der richtigen Feststellung aus, daß für jedes algorithmisch repräsentierbare Axiomensystem, das zu einer konsistenten Theorie gehört, Sätze existieren, die zwar in der Theorie wahr sind, aber aus den Axiomen nicht bewiesen werden können - von der Aussage des bekannten gödelschen Satzes also. Im weiteren verwechselst Du diesen Unvollständigkeitssatz aber mit den konkreten Gödel-Sätzen, deren Unbeweisbarkeit in einer gegebenen Theorie zum Beweis dieses Satzes dient, und schliesst dann, daß der Unvollständigkeitssatz selbst von keiner Maschine bewiesen werden könne, nur weil für jede Maschine, die ein konsistentes Weltbild hat, ein "Zeuge" des Unvollständigkeitssatzes existiert, das heisst, ein Satz, der von der Maschine nicht bewiesen werden kann.

Das würde vielleicht zu einem Widerspruch führen, wenn die Maschine beweisen könnte, daß der Unvollständigkeitssatz auf sie anwendbar wäre. Ein anderer Unvollständigkeitssatz von Gödel sagt uns aber, daß gerade das nicht möglich ist, weil sie die Voraussetzung des Satzes, daß ihr Anschauungssystem konsistent ist, nicht beweisen kann.

Vielleicht liegt hier auch der Grund für die Tatsache, daß Menschen den Unvollständigkeitssatz nicht auf sich selbst anwenden wollen ;)).



Ja, es gibt zwei G-Sätze. Den Unentscheidbarkeitssatz und den Unvollständigkeitssatz. Ich will sie, wie auf meiner Page als "Annahmen" definieren:
Annahme I (Unentscheidbarkeitssatz) - G ist wahr: Wenn G wahr ist, dann muss er eine Wahrheit aussprechen. Aber was sagt G von sich aus? Die Tatsache, dass er selbst kein Satz des Systems ist. So folgt aus der Eigenschaft, ein Satz zu sein, die Eigenschaft, dass er keiner ist. Dies ist ein Widerspruch. Auf dieser Ebene ist G unentscheidbar- er ist im System weder beweisbar noch widerlegbar.
Annahme II (Unvollständigkeitssatz) - G ist falsch: Nehmen wir jetzt an, G sei kein Satz des Systems. Aber die Tatsache, dass G kein Satz des Systems ist, ist ja das, was G selbst behauptet. Und da G kein Satz ist, gibt es eine Wahrheit, die kein Satz des Systems ist. Hier haben wir also eine Kette G vor uns, die eine wahre Aussage ausdrückt und doch kein Satz des Systems ist. Da G also zugleich wahr und formal unentscheidbar ist, sind die Axiome der Arithmetik unvollständig.
Annahme 2 liegt am F-System selbst. Annahme 1 ist aber für uns entscheidbar. Ich mächte nun von Dir wissen, warum er für uns entscheidbar ist? Weil wir ausserhalb des F-Systems stehen?



Auch das bezweifle ich. Betrachten wir einmal, für den Zweck einer informellen Diskussion, den Satz "Penrose kann diesen Satz nicht beweisen." .

Wenn wir annehmen, daß Penrose eine widerspruchsfreie Weltanschauung hat, dann kann er den Satz offenbar nicht beweisen, auch wenn Penrose uns das begreiflicherweise nicht glauben wird ;).



Penrose kann diesen Satz zwar nicht beweisen, doch in Gegensatz zu einer Turing-Maschine oder einem F-System weiss er, dass er diesen Satz nicht widerspruchsfrei aussagen kann. Und somit ist er der Maschine wiederum einen Schritt voraus. Wie willst Du einer Maschine dieses "Wissen darum" beibringen, damit sie auch wirklich anhält, wenn sie mit G gefüttert wurde?



Nein, der formal beweisbare Satz, den ich meine, sagt ungefähr:

Wenn zu dem algorithmisch repräsentierbaren Axiomensystem x kein y existiert, so daß y eine Herleitung des Falsums aus x ist, dann gehört der Satz "Es existiert kein y, so daß y eine Herleitung des Falsums aus x ist" nicht zu den Sätzen, die aus x hergeleitet werden können.

Dieser Satz ist in jeder Theorie, die mindestens die Arithmetik enthält, ausdrückbar, weil man in einer solchen Theorie beliebige berechenbare Relationen ausdrücken kann und in diesem Satz nur berechenbare Sachen vorkommen. Ich denke, daß sich damit Deine Einwände weitgehend erübrigen, auch wenn ich im Rahmen dieses Beitrages nicht imstande sein werde, den formalen Beweis der obigen Aussage anzugeben ;).
Deine Aussage, wie sie hier steht, vermischt Sprache mit Metasprache; es ensteht dabei zwangsläufig eine "strange loop". Frage: Woher kommt diese Aussage? Ist sie eine Aussage über dieses System in dem System? Oder ist diese Aussage systemfremd und nicht in das System, über das es spricht, eingebunden? Und wenn sie eine Aussage über ein System ist, ist sie dann ein Satz des Systems? Dies musst Du mir näher erläutern.



Allenfalls einen sehr geringen, und das aus mehreren Gründen:

1. Es scheint nicht so zu sein, daß Menschen allgemeine Probleme aus im gödelschen Sinne "schwierigen" Problemklassen lösen können; im Gegenteil findet man aus diesen Problemklassen sehr einfach zu formulierende Probleme, mit denen Menschen rasende Schwierigkeiten haben.



Ein Schachcomputer mag eine grössere Rechenleistung besitzen, mag schneller arbeiten und somit Problemklassen lösen können, zu denen der Mensch Jahre bräuchte. Ein gutes Beispiel wäre ein zellulärer Automat. Trotzdem wird ein KI System nicht verstehen, was es gerade macht. Searles "Chinesisches Zimmer" mag neben Gödel ein nicht-formales, aber einsichtiges Gedankenexperiment sein. Und dieser Einwand enstammt einer Problemklasse, die eine grundsätzliche Grenze der Berechenbarkeit darstellt. Damit aber, scheinen die Menschen keine so rasenden Schwierigkeiten zu haben. Nur damit, solche Problemklassen formal zu beweisen. Die Gödelgrenze wird durch informale Einsicht (Beweisbarkeit contra Wahrheit) überschritten. Deshalb ward das Hilbert-Programm, den Begriff der Wahrheit eines Satzes durch seine Beweisbarkeit zu ersetzen. Gödel machte da nen Strich, im wahrsten Sinne des Wortes, durch die Rechnung.



2. Zusätzlich zu den Dingen, die ich oben schon angeführt habe, scheint Penrose auch die Tatsache zu übersehen, daß eine KI sich durch Lernprozesse verändern könnte, während sie *auch* ein bestimmtes mathematisches Problem bearbeitet. In diesem Fall ist es nicht mehr einfach, festzustellen, welche Frage man der Maschine stellen soll, wenn man sicher sein will, daß sie sich nicht irgendwann selbst erweitert und die Frage *dann* lösen kann. Ausserdem ist nicht unmittelbar einsichtig, daß eine KI, die sinnvoll über Dinge nachdenken soll, ein global konsistentes Weltbild haben muss. Die derzeit komplexeste tatsächlich existierende KI baut jedenfalls nicht auf einer global konsistenten Wissensbasis auf, sondern ihr Wissen ist in tausende von nur lokal konsistenten Mikrotheorien unterteilt.



Naja, Du schreibst ja noch weiter:



Natürlich können auch solche Systeme letztlich den grundsätzlichen Grenzen geisteswissenschaftlicher Erkenntnis, die sich aus dem Gödel-Satz ergeben, nicht entrinnen. Aber es wird unter Umständen schwer, andere Fragen zu finden als die, die man auch Menschen stellen kann und die diese dann als trivialerweise uninteressant abtun können ;).



Natürlich hat ein Mensch seine Probleme. Er findet ein neues algorithmisches Verfahren und will nun wissen, ob ein gewisser Satz aus diesem System wahr/falsch/unentscheidbar ist. Wenn die Maschine dann z.b. 2000 Jahre lang rechnet, wird der zukünftige Mathematiker immer noch nicht wissen, ob dieser Satz seines Vorgängers wahrscheinlich doch unentscheidbar ist -- oder doch wahr -- oder doch falsch. Nicht alle unentscheidbaren Sätze sind für Menschen unmittelbar einsichtig (durch Einsicht). Auf der anderen Seite aber kann man Fragen stellen, die für eine Maschine "unvorstellbar" zu beantworten wären (wie die Frage, ob G wahr oder falsch ist), für uns aber völlig einsichtig; wie der Satz: 'Penrose kann diesen Satz nicht widerspruchsfrei aussagen' Für Penrose ist dies eine Aussage, die sich für ihn totläuft. Er akzeptiert dass er es nicht kann, er versteht, dass er es nicht kann und widmet sich anderen Dingen, wie z.b. schwarze Löchern (Frauen?) ;)



3. Wenn man die Frage nach der Möglichkeit starker KI von einem empirischen Standpunkt her betrachtet, dann scheint heute relativ klar zu sein, daß man einerseits beliebige Fähigkeiten nichtmenschlicher Tiere auf Robotern wird nachbilden können und andererseits gibt es auch eine lange Liste erfolgreicher Nachbildungen von intellektuellen Fähigkeiten, die man im Tierreich nur beim Menschen findet. Sogar beim allgemeinen intellektuellen Weltverständnis dürften Systeme wie Cyc heute besser sein als praktisch alle Tiere.

Es erscheint mir nun zum Ersten nicht sinnvoll, anzunehmen, daß die Evolution ausgerechnet bei unserer Spezies irgendeine grundlegende Neuerung vermutlich auf der Ebene des einzelnen Neurons im Gehirn eingebaut haben sollte, die nicht im Ansatz bei irgendeiner anderen Art vorkommt. Zum zweiten meine ich speziell bei der Beurteilung der Frage, ob ein System Bewusstsein habe oder nicht, zu sehen, daß doppelte Maßstäbe angewendet werden, was darauf hindeutet, daß viele Menschen sich dabei von vorintellektuellen Kriterien leiten lassen. Allgemein habe ich den Eindruck, daß einem Tier viel leichter ein gewisser Grad an Intelligenz und ein Bewusstsein zugestanden werden als einem Roboter, der vermutlich erst durch menschenähnliches Verhalten überzeugen könnte.

Zum Dritten finde ich in Anbetracht der riesigen Rechenleistung biologischer Gehirne die bisherigen Fortschritte auf dem Gebiet der künstlichen Intelligenz weitaus überraschender als die Fehlschläge.



Bisher hat ein KI-System nicht mehr Intelligenz als eine Ameise. Wobei ich nicht weiss, wie es ist, eine Ameise zu sein. Kann ja nur aus ihrem Verhalten auf ihre Intelligenz schliessen. Ob ein System nun Bew. hat oder nicht; dies ist ein weiters Feld der Bewußtseinsforschung. Leider spielen hierbei gewisse Qualia nicht nur eine philosophische Rolle in dieser Diskussion. Und vor allem: Intelligenz setzt wiederum "verstehen" voraus.



4. Penrose et al. gehen davon aus, daß man irgendwelche Dinge, die nichtrekursive Funktionen berechnen können, in einer vollständigen Theorie der Physik finden wird. Das ist zum gegenwärtigen Zeitpunkt anscheinend pure Spekulation und ausserdem frage ich mich, ob eine Theorie, die unberechenbare Entitäten annimmt, überhaupt falsifizierbar wäre. Immerhin könnte man aus einer derartigen Theorie zumindest an den "interessanten" Stellen nicht durch irgendwelche Folgen von Berechnungen Vorhersagen ableiten, d.h. man müßte in den Fällen, in denen die Theorie interessant würde, die Vorhersagen durch mühevolles Nachdenken bekommen und dann in gewisser Weise noch annehmen, daß die Physik selbst auch ähnliche Denkprozesse durchführt, um dann das erwartete Ergebnis liefern zu können. Ich finde eine solche Annahme aussergewöhnlich kompliziert und ich halte nichts von aussergewöhnlich komplizierten Annahmen, für die nicht aussergewöhnlich gute Belege bekannt sind.
Ja, ein gutes Argument, dem ich (halb) zustimmen muss. Trotzdem exisiert ein Beweis für nicht-rechnerische "Aktivitäten" in diesem Universum: Die Bellschen Ungleichungen. Höchst kompliziert. Und da ich kein Physiker bin, verstehe ich ehrlich gesagt auch nicht ganz, was diese nun aussagen. Ich arbeite aber daran -- spätestens nächstes Semester ;)



Grüsse,

MV - nice weekend


















von Martin V - am 16.09.2000 15:08
Geschrieben von Martin V am 16. September 2000 17:13:05:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Kay S am 15. September 2000 22:24:08:


Hallo Kay, ich muss mein comment auf Montag verschieben, da die Uni diesen Raum nun schliesst. Mein Netz-Anschluss zuhause funzt leider nicht und so ist erst Montags wieder Zeit. Ist schon bald 17:15 ;)


Hallo Martin,

hier mein Reply:
es war durchaus nicht meine Absicht im letzten Posting die Mustererkennung

zu mystifizieren. Mir ist wohl bewusst, dass jeder Mustererkennungsalgorithmus

(jedenfalls jeder mir bekannte) einen extrem kleinen 'Sichtwinkel' besitzt.

Allerdings lassen sich beliebig viele von ihnen erzeugen und vernetzen und damit

der Sichtwinkel vergrößern. Worauf ich hinaus möchte: jedesmal wenn wir uns

ausserhalb eines formalen Systems wiederfinden, dass wir konstruiert haben,

können wir einen Algorithmus schreiben (wir können das nicht wirklich, aber es

ist nicht unzulässig dies anzunehmen), der unseren Wahrnehmungsakt wiederholt,

der uns in unsere Lage gebracht hat. Wir erzeugen nun, sozusagen durch Integration infinitesimaler Wahrnehmungsmomente, unser Programm. Ist es nun vollständig und widerspruchsfrei, im Sinne der mathematischen Logik? Keineswegs, wie sich mit Gödels Satz eindrucksvoll beweisen lässt. Allerdings versteht unser Programm diesen Satz auch, denn wir haben ihm ja beigebracht selbstbezügliche Aussagen zu erkennen und ebenso logische Schlussfolgerungen aus Annahmen zu ziehen.

Es wird seine eigene Unvollständigkeit aber auf eine ganz andere und viel konkretere Weise bemerken, es kann z.B. kein chinesisch, der Computer auf dem er installiert ist, hat nur begrenzt viel Speicher zur Verfügung etc. Er ist zwar unvollständig, aber jeden intellektuellen Trick, den ein Mensch beherrscht, den kann er auch.

Das ist einfach so, weil systematisch die Lücken in seiner ( zumindest intellektuellen) Wahrnehmung geschlossen wurden, die ihn von uns unterschieden haben.

In der bisherigen Geschichte der KI ist es nicht gelungen herauszufinden, wie ein impressionistisches Bild der Wirklichkeit zu malen ist, in dem keine riesengroßen Lücken klaffen. Es hat stets den Anschein, als würden wir wieder vor einer weißen Leinwand stehen, wenn wir uns einige Meter von ihr wegbewegen, so dünn sind die Punkte gesät, die mit einem ganz feinen, spitzen Pinsel aufgetupft wurden. Zumindest gilt das für die sog. symbolische KI. Für die konnektionistische KI kann man sagen: sie hat es gerade

bis zu Ein-Fleck-Bildern geschafft. Allerdings weiß niemand, wie sich weitere Flecke so auftragen lassen, dass auch eine Komposition entstehen kann. Ich bin andererseits nicht sehr pessimistisch, dass es uns doch irgendwann gelingen wird mit breiteren und feineren Linien und Punkten aus Algorithmen ein denkendes Wesen zu malen - als eine auf genauer Selbstbeobachtung beruhende mimische Übertragung von Interpretationshandlungen. Verstehen bedeutet dann die Trennung einer sprachlichen Figur von einem sprachlichen Hintergrund, der nicht figural sondern medial ist, zum Zweck der Beantwortung einer Frage oder der Lösung einer Aufgabe oder etwas, dass weder das eine oder das andere ist,

aber doch die Figur-Hintergrund-Trennung, wie sie anderswo vollzogen wird, nachahmt.

Das Programm wird, wie alles andere auch im Universum unvollständig sein, ob formal oder auch nicht.

Ob das Programm oder das ganze chinesische Volk Bewusstsein hat, weiß ich nicht,

aber soll ich mich nun dem beschränkten Horizont von J.Searle anvertrauen, nur weil er so eine Art gesundes Empfinden ausdrückt? Dass das Gehirn Bewusstsein hervorbringen soll, scheint den meisten Menschen genauso absurd, wie der Gedanke, dass Chinesen mit Seilen Axone simulieren. Aber was besagt das schon?

Vielleicht erzeugt das Gehirn ja tatsächlich keines, sondern empfängt es wie eine Fernsehantenne, was weiß ich? Ich habe dafür keine Begriffe.

Einen schönen Abend,

Gruß

Kay


















von Martin V - am 16.09.2000 15:13
Geschrieben von Janosch am 16. September 2000 21:28:29:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 16. September 2000 17:08:01:
Hallo,
Dein langes Zitat betreffend kann ich nur wiederholen, daß das, was heute unter dem Stichwort des "Quantencomputers" diskutiert wird, exakt dem Modell entspricht, mit dem sich David Deutsch 1985 befasst hat und daß er dabei folgende zwei Dinge unter der Voraussetzung der heute bekannten Physik bewiesen hat:

a) Ein Quantencomputer kann keine nichtrekursiven Funktionen berechnen, seine Fähigkeiten sind aber in dieser Hinsicht auch nicht geringer als die einer Turing-Maschine.

b) Ein genügend großer Quantencomputer kann jedes beliebige physikalische System exakt simulieren.

(siehe Deutsch, David (1985). "Quantum Theory, the Church-Turing Principle and the

Universal Quantum Computer," Proc. R. Soc.

London A 400, pp. 97-117 )
>Kurz ausgesrückt: Die "Gödelgrenze" ist analog zu Spencer Browns Kalkulus "Laws of Form" nichts weiter als die Divergenz zwischen Endosystem und Exosystem, aus dem heraus ein G Satz informal bewiesen werden kann.
Ich nehme an, ein G-Satz soll hier ein Zeuge des Gödelschen Unvollständigkeitssatzes für eine bestimmte Maschine sein?
> Die Gesetze innerhalb eines Systems können anders sein, als ausserhalb dieses Systems. In einem Gödel-Universum1 existiert ein Satz G. Aufgrund der physikalischen Beschaffenheit dieses Universums, die sich wiederum auf die mathematischen Möglichkeiten umschlagen, ist es den Bewohnern dieses Universums unmöglich, bestimmte Sätze zu beweisen oder als wahr einzusehen (Wahrheit ist stärker als formale Beweisbarkeit).
Das stimmt. Nur ist dieser Satz *nicht* der Unvollständigkeitssatz oder der Unentscheidbarkeitssatz oder der Satz über die Unmöglichkeit, in einer konsistenten mindestens Arithmetik umfassenden Theorie die Konsistenz ebendieser Theorie zu beweisen.
> (...)

>Eine Gödel-Maschine könnte diese Gödel-Universen und ihre Endo/Exo Digitalität im Sinne der Quantenmechanik "binden" und ein Hyperuniversum generieren.
Soweit ich diese Beschreibung einer "Gödel-Maschine" verstanden habe, müßte sie unendlich viele Berechnungen in endlicher Zeit ausführen können. Es gibt aber nach heutigem Wissen keine Systeme, die so etwas tun können, siehe eben auch das Resultat von Deutsch.
> (...) Spricht man von Gödel-Maschinen, so spricht man von einer neuen Diziplin; der Endophysik Rösslers.
Eben das ist eines der Dinge, die ich an derartigen Konstruktionen seltsam finde, daß sie nämlich eine neue Physik herbeispekulieren um die Erfüllung letztlich ideologisch bedingter Wünsche möglich erscheinen zu lassen.
>Ja, es gibt zwei G-Sätze. Den Unentscheidbarkeitssatz und den Unvollständigkeitssatz. Ich will sie, wie auf meiner Page als "Annahmen" definieren:

>Annahme I (Unentscheidbarkeitssatz) - G ist wahr: Wenn G wahr ist, dann muss er eine Wahrheit aussprechen. Aber was sagt G von sich aus? Die Tatsache, dass er selbst kein Satz des Systems ist. So folgt aus der Eigenschaft, ein Satz zu sein, die Eigenschaft, dass er keiner ist. Dies ist ein Widerspruch.
Das hört sich nicht nach einer wohldefinierten mathematischen Aussage an.

Der Unentscheidbarkeitssatz, den ich aus der mathematischen Logik kenne, sagt einfach aus, daß zu jeder Theorie, das mindestens ein bisschen Arithmetik enthält, ein Satz A existiert, so daß A nicht zu der Theorie gehört und non-A auch nicht. Period.
>(...)

>Annahme II (Unvollständigkeitssatz) - G ist falsch: Nehmen wir jetzt an, G sei kein Satz des Systems. Aber die Tatsache, dass G kein Satz des Systems ist, ist ja das, was G selbst behauptet. Und da G kein Satz ist, gibt es eine Wahrheit, die kein Satz des Systems ist. Hier haben wir also eine Kette G vor uns, die eine wahre Aussage ausdrückt und doch kein Satz des Systems ist. Da G also zugleich wahr und formal unentscheidbar ist, sind die Axiome der Arithmetik unvollständig.
Was ist hier G? Ein Zeuge des Unvollständigkeitssatzes für eine gegebene Theorie oder der Unvollständigkeitssatz selbst?
>Annahme 2 liegt am F-System selbst. Annahme 1 ist aber für uns entscheidbar. Ich mächte nun von Dir wissen, warum er für uns entscheidbar ist? Weil wir ausserhalb des F-Systems stehen?
Für den Zweck des Beweises des Unvollständigkeitssatzes setzen wir die Konsistenz der betrachteten mindestens Arithmetik enthaltenden Theorie voraus und damit kann man den Unvollständigkeitssatz auch formal beweisen, weil innerhalb des Systems ein Satz A konstruiert werden kann, der sagt, es gebe für ihn keinen Beweis ('Für jede Herleitung von mir findet man eine kürzere Widerlegung von mir'). Dann kann man annehmen, es gäbe eine Herleitung von A, daraus formal folgern, daß dann auch eine Herleitung von non-A existiert und daraus bekommt man, daß eine Herleitung des Falsums im betrachteten System existiert. Widerspruch zur Annahme der Konsistenz, damit Beweis fertig.

Wir wissen einfach durch die Konsistenz-Annahme mehr über die im Unvollständigkeitssatz betrachteten Systeme, als man innerhalb der Systeme selbst herausbekommen kann. Man braucht hier also dem Menschen keine "unberechenbaren" Fähigkeiten zuzuschreiben.
>

>Auch das bezweifle ich. Betrachten wir einmal, für den Zweck einer informellen Diskussion, den Satz "Penrose kann diesen Satz nicht beweisen." .

>Wenn wir annehmen, daß Penrose eine widerspruchsfreie Weltanschauung hat, dann kann er den Satz offenbar nicht beweisen, auch wenn Penrose uns das begreiflicherweise nicht glauben wird ;).

>

>Penrose kann diesen Satz zwar nicht beweisen, doch in Gegensatz zu einer Turing-Maschine oder einem F-System weiss er, dass er diesen Satz nicht widerspruchsfrei aussagen kann.
Daß sie einen ähnlichen Satz nicht beweisen kann, ohne sich in Widersprüche zu verwickeln, kann in der Tat auch eine geeignet programmierte Maschine herausfinden. Sie kann aber - wie Penrose - nicht herausfinden, daß ihr Anschauungssystem widerspruchsfrei ist und weil der Satz falsch ist, wenn Penroses Anschauungen widerspruchsvoll sind (dann kann er nämlich gleich jeden Satz beweisen) ist das für die Entscheidung eines Satzes dieser Art von im wahrsten Wortsinn entscheidender Bedeutung.
>Und somit ist er der Maschine wiederum einen Schritt voraus. Wie willst Du einer Maschine dieses "Wissen darum" beibringen, damit sie auch wirklich anhält, wenn sie mit G gefüttert wurde?
Für einen Satz wie den geschilderten reicht ein System zur Erkennung sehr einfacher logischer Schleifen aus. Die Maschine könnte ohne weiteres erkennen, daß sich ein früher schon erreichter Zustand ihres Verstandes wiederholt hat und dann sagen, daß das Problem uninteressant ist.
> Wenn zu dem algorithmisch repräsentierbaren Axiomensystem x kein y existiert, so daß y eine Herleitung des Falsums aus x ist, dann gehört der Satz "Es existiert kein y, so daß y eine Herleitung des Falsums aus x ist" nicht zu den Sätzen, die aus x hergeleitet werden können. (...)
>Deine Aussage, wie sie hier steht, vermischt Sprache mit Metasprache;
Nein. Die x und y sind Zahlen, aber in einem System, daß mindestens die Arithmetik enthält, kann man über den natürlichen Zahlen alle denkbaren berechenbaren Relationen installieren, die dann eben auch eine Isomorphie zwischen einem arithmetischen System und einem logischen System hervorrufen können. Es kann etwa eine dreistellige berechenbare Relation definiert werden, die erfüllt ist genau dann, wenn x für ein algorithmisch repräsentierbares Axiomensystem steht und z für einen Satz und y für eine logisch korrekte Herleitung von z aus x. Dabei werden mitnichten Sprache und Metasprache vermischt.
> (...) Frage: Woher kommt diese Aussage? Ist sie eine Aussage über dieses System in dem System?
Es ist eine Aussage, die in mindestens die Arithmetik enthaltenden Systemen formuliert und bewiesen werden kann. Nicht bewiesen werden kann in solchen Systemen, daß sie auf das System, in dem sie formuliert und bewiesen wurde, anwendbar ist, wie die Aussage ja auch selbst sagt, falls sie in einem widerspruchsfreien System formuliert wurde *g*.
>Ein Schachcomputer mag eine grössere Rechenleistung besitzen, mag schneller arbeiten und somit Problemklassen lösen können, zu denen der Mensch Jahre bräuchte. Ein gutes Beispiel wäre ein zellulärer Automat. Trotzdem wird ein KI System nicht verstehen, was es gerade macht. Searles "Chinesisches Zimmer" mag neben Gödel ein nicht-formales, aber einsichtiges Gedankenexperiment sein.
Ich finde das Gedankenexperiment vom chinesischen Zimmer ganz und gar nicht einsichtig. Searle zeigt bestenfalls, daß der im Zimmer hockende Mensch kein Chinesisch versteht und schliesst dann daraus, daß das ganze Zimmer auch kein Chinesisch verstehen kann. Mit anderen Worten: er geht von der Annahme aus, daß innerhalb eines beliebigen physikalischen Systems nur Menschen irgendwelche Dinge verstehen können und schliesst dann daraus, daß nur Menschen irgendwelche Dinge verstehen können.

Der Schluss ist natürlich richtig, aber die Voraussetzungen, die hier verwendet werden, halte ich für inakzeptabel stark ;).
> Und dieser Einwand enstammt einer Problemklasse, die eine grundsätzliche Grenze der Berechenbarkeit darstellt. Damit aber, scheinen die Menschen keine so rasenden Schwierigkeiten zu haben.
( ) Du bist der Ansicht, daß Menschen die Widerspruchsfreiheit der nichtkonstruktiven Mathematik einsehen könnten?

Ich kenne keinen Mathematiker, der Dir da zustimmen würde ;).
>Natürlich hat ein Mensch seine Probleme. Er findet ein neues algorithmisches Verfahren und will nun wissen, ob ein gewisser Satz aus diesem System wahr/falsch/unentscheidbar ist. Wenn die Maschine dann z.b. 2000 Jahre lang rechnet, wird der zukünftige Mathematiker immer noch nicht wissen, ob dieser Satz seines Vorgängers wahrscheinlich doch unentscheidbar ist -- oder doch wahr -- oder doch falsch. Nicht alle unentscheidbaren Sätze sind für Menschen unmittelbar einsichtig (durch Einsicht). Auf der anderen Seite aber kann man Fragen stellen, die für eine Maschine "unvorstellbar" zu beantworten wären (wie die Frage, ob G wahr oder falsch ist), für uns aber völlig einsichtig;
Hier ist G wieder ein "Zeuge" des Unvollständigkeitssatzes (falls Deine Behauptung richtig ist zumindest) und also für verschiedene Maschinen unterschiedlich zu wählen und es kann sogar sein, daß eine Maschine durch Lernprozesse (in Interaktion mit dem Rest der Welt) sich so verändert, daß sie einen Satz, der ihr ohne Lernprozesse immer uneinsichtig geblieben wäre, verstehen kann.

Ich sehe nicht, daß das bei Menschen irgendwie anders wäre.
> wie der Satz: 'Penrose kann diesen Satz nicht widerspruchsfrei aussagen' Für Penrose ist dies eine Aussage, die sich für ihn totläuft. Er akzeptiert dass er es nicht kann, er versteht, dass er es nicht kann und widmet sich anderen Dingen, wie z.b. schwarze Löchern (Frauen?) ;)
Die Maschine kann auch einsehen und akzeptieren, daß so eine Aussage sich für sie totläuft, *falls* ihre Überzeugungen widerspruchsfrei sind. Nur ist das eine für Mensch und Maschine in Bezug auf ihre jeweiligen Überzeugungssysteme nicht logisch beweisbare Zusatzannahme, und so kann eben auch Penrose strenggenommen nur vermuten, daß er den Satz nicht beweisen kann und deshalb die Bearbeitung der Aufgabe abbrechen.


>Bisher hat ein KI-System nicht mehr Intelligenz als eine Ameise.
Nein. Heutige Roboter sind viel intelligenter als Insekten.

Die Konstruktion von Robotern, die sich in normalen Umgebungen bewegen, ist hauptsächlich aus zwei Gründen in der Vergangenheit schwer gewesen:

1. Roboter sind ziemlich schwere Gebilde, bei denen Unfälle, die Insekten passieren dürfen, sowohl für den Roboter als auch für seine Umgebung sehr negativ wären.

2. Roboter sollen auf menschliche Anweisungen reagieren können und also beispielsweise auf Befehl *bestimmte* Gegenstände ansteuern können. Dazu muss ein Roboter eine interne Repräsentation seiner Umgebung aufbauen können, und genau das scheinen Insekten nicht zu tun. Es stellt sich im Gegenteil immer klarer heraus, daß die Steuersysteme von Insekten ausschliesslich auf wenig rechenintensiven "visuellen Reflexen" und ein bisschen Mustererkennung beruhen, ohne daß eine innere "Karte" der Umgebung angelegt würde.

Ein PC mit einem Gigahertz-Pentiumprozessor *kann* einen Roboter steuern, der aus Kameradaten ein nur wenige Fehler enthaltendes dreidimensionales Umgebungsbild macht und darin bestimmte Dinge (beispielsweise Personen) erkennen kann. Damit allein zeigen Roboter heute eine deutliche Überlegenheit gegenüber Insekten. Speziell die Mustererkennungsleistungen betreffend wird die Überlegenheit heutiger Computersysteme den meisten Tieren gegenüber schon dann deutlich, wenn man sich überlegt, wieviele verschiedene Tonmuster ein Spracherkennungssystem unterscheiden muss, um nur halbwegs zuverlässig zu arbeiten. Und Spracherkennungssysteme funktionieren heutzutage.

Die Intelligenz von Insekten wird auch deshalb deutlich überschätzt, weil Fehlverhalten von Robotern viel besser bekannt ist als die mindestens ebenso abstrusen Reaktionen von Insekten auf Situationen, denen sie durch Evolution nicht angepasst wurden.

Wären die klügsten heutigen Roboter Tiere, würden sie vermutlich sogar als recht intelligent gelten, weil sie zur vorausschauenden Planung von Handlungen und zu einfachem Werkzeuggebrauch fähig sind, wenn man sie lange genug denken läßt.

Darüberhinaus weiss ich nicht, ob es sinnvoll ist, nur Robotern Intelligenz zuzugestehen und dann die Roboter mit Tieren auf den Gebieten zu vergleichen, auf die die Tiere speziell optimiert sind. Programme wie SHRDLU haben schon in den siebziger Jahren linguistische Fähigkeiten gezeigt, die über das hinausreichen, was beispielsweise bei Graupapageien als Zeichen besonders entwickelter Intelligenz bejubelt wird; Schachprogramme führen weiterreichende Planungen aus als irgendein nichtmenschliches Tier; Programme wie Cyc können sich zumindest in einer Sprache, die nicht die Mehrdeutigkeiten der menschlichen Sprache hat, über ein weites Spektrum an Themen auf einem Niveau unterhalten, das von Schimpansen definitiv nicht erreicht wird; Theorembeweiser haben bereits Probleme gelöst, an denen hochintelligente Menschen viele Jahre lang erfolglos gearbeitet haben; bestimmte Programme können klassische Musik komponieren auf einem Niveau, das von dem sehr guter menschlicher Komponisten nicht zu unterscheiden ist; Programme wie EURISKO haben selbstständig in einer Reihe von Bereichen kleine Entdeckungen gemacht, mit denen Menschen nicht gerechnet hatten; Programme wie VERBMOBIL können in beschränkten Kontexten natürlichsprachige gesprochene Aussagen von einer Sprache in eine andere übersetzen; Computeralgebra-Systeme sind im symbolischen Rechnen praktisch allen Menschen weit überlegen; die Liste liesse sich fortsetzen und laesst unwillkürlich die Frage aufkommen, unter welcher Intelligenzdefinition denn nun Ameisen klüger sein sollen als KI-Systeme.
Viele Grüße,

Janosch.
















von Janosch - am 16.09.2000 19:28
Geschrieben von Martin V am 18. September 2000 15:05:39:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Janosch am 16. September 2000 21:28:29:
Hallo,

Dein langes Zitat betreffend kann ich nur wiederholen, daß das, was heute unter dem Stichwort des "Quantencomputers" diskutiert wird, exakt dem Modell entspricht, mit dem sich David Deutsch 1985 befasst hat und daß er dabei folgende zwei Dinge unter der Voraussetzung der heute bekannten Physik bewiesen hat:

a) Ein Quantencomputer kann keine nichtrekursiven Funktionen berechnen, seine Fähigkeiten sind aber in dieser Hinsicht auch nicht geringer als die einer Turing-Maschine.

b) Ein genügend großer Quantencomputer kann jedes beliebige physikalische System exakt simulieren.

(siehe Deutsch, David (1985). "Quantum Theory, the Church-Turing Principle and the

Universal Quantum Computer," Proc. R. Soc.

London A 400, pp. 97-117 )



Kurz gesagt: Es geht hier nicht um die Möglichkeit der "Berechenbarkeit primitiv-rekursiver Funktionen", sondern um nicht-rechnerische aber qualitativ konsistente intuitionistische Einsichten, die aber, in Gegensatz zu J.R. Lucas, ihre physikalische Matrix haben müssen. Welchen Algorithmus benutzen menschliche Mathematiker bei der "Einsicht" in Satz G (ich wills hier klarstellen; G ist der Gödelsche Satz:



(G) (x) nicht Dem(x, sub(n, 13, n))
(Siehe seine Konstruktion auf meiner Seite "Gödel")

Es geht hier vor allem um die Geschichte der Enstehung der Gödelschen Sätze. Ein für allemal wurde klar, dass der Intuitionistische Begriff "Wahrheit" stärker sei, als die von Hilbert und Wittgenstein angestrebte "formale Beweisbarkeit", die "Wahrheit" entgültig steichen soll.
In Bezug zu dessen, was eine Gödelmaschine vermag und was nicht, sei hier nur trivialerweise erwähnt, dass eine GM unweigerlich mit der Reduktion (orch or) der komplexen Wellenfunktion, die diskontinuierlich ist, zurechtkommen muss. Deutsch vertritt die "many worlds", Penrose eine objektive Reduktion der Wellenfunktion, Hawkins eine nur mathematische Reduktion der Wellenfunktion.
Wenn ich also von nicht-rechnerischen Prozessen spreche, dann impliziert dies die orch or Theorie der Quantenmechanik. Die Einsicht in die Wahrheit von G ist keine primitiv-rekursive Funktion, sondern es exisiert in der klassischen Mechanik einfach kein Rechenverfahren, dass mir ein Ergebnis (G ist wahr) liefert.



Das stimmt. Nur ist dieser Satz *nicht* der Unvollständigkeitssatz oder der Unentscheidbarkeitssatz oder der Satz über die Unmöglichkeit, in einer konsistenten mindestens Arithmetik umfassenden Theorie die Konsistenz ebendieser Theorie zu beweisen.

(...)
Dies war erstens kein formaler Satz sondern eine von vielen Implikationen das G-Theorems. Es ist dieselbe Argumentation wie: Füge in S2 G als Axiom ein. Konstruiere ein G in S2 folgt wiederum Unvollständigkeit und Unentscheidbarkeit des Systems S2 (Omega-Widerspruchsfreiheit). Ausserdem gilt seid Gödel, dass kein System, das umfassend genug für die Arithmetik sei (aufgrund der Konstruktionsschritte für G) konsistent ist. Deshalb erübrigt sich ein Beweis, der die Konsistenz für ein formales System (eine Theorie ist etwas anderes) beweisen soll.



Soweit ich diese Beschreibung einer "Gödel-Maschine" verstanden habe, müßte sie unendlich viele Berechnungen in endlicher Zeit ausführen können. Es gibt aber nach heutigem Wissen keine Systeme, die so etwas tun können, siehe eben auch das Resultat von Deutsch.
Nicht, wenn eine Gödel-Maschine Systeminterne und Systemexterne Standpunkte gleichzeitig annehmen kann. Hier spielt Rösslers Mikrorelativität eine grosse Rolle.



Eben das ist eines der Dinge, die ich an derartigen Konstruktionen seltsam finde, daß sie nämlich eine neue Physik herbeispekulieren um die Erfüllung letztlich ideologisch bedingter Wünsche möglich erscheinen zu lassen.



Wenn sich eine derartige neue Physik entwickeln lässt, so wird sie von ideologischen Standpunkten zwar generiert, aber ihre möglicherweise empirischen Ergebnisse haben dann nichts mit einer Ideologie zu tun, sondern mit Ergebnissen. Die "many worlds" sind derzeit auch nicht mehr als eine Ideologie Everetts, der den berühmten Kollaps nicht akzeptieren kann. Und die "many worlds" sind von Empirie noch weit entfernt. Du kannst nicht über ein "noch-nicht-empirisches Weltbild" schimpfen und dabei selbst einem solchen anhängen.



Das hört sich nicht nach einer wohldefinierten mathematischen Aussage an.

Der Unentscheidbarkeitssatz, den ich aus der mathematischen Logik kenne, sagt einfach aus, daß zu jeder Theorie, das mindestens ein bisschen Arithmetik enthält, ein Satz A existiert, so daß A nicht zu der Theorie gehört und non-A auch nicht. Period.

(...)
Diese "wohldefinierte Metamathematische Aussagen" sind die beiden G-Sätze in Reinform.



Was ist hier G? Ein Zeuge des Unvollständigkeitssatzes für eine gegebene Theorie oder der Unvollständigkeitssatz selbst?



Antwort oben.



Für den Zweck des Beweises des Unvollständigkeitssatzes setzen wir die Konsistenz der betrachteten mindestens Arithmetik enthaltenden Theorie voraus und damit kann man den Unvollständigkeitssatz auch formal beweisen, weil innerhalb des Systems ein Satz A konstruiert werden kann, der sagt, es gebe für ihn keinen Beweis ('Für jede Herleitung von mir findet man eine kürzere Widerlegung von mir'). Dann kann man annehmen, es gäbe eine Herleitung von A, daraus formal folgern, daß dann auch eine Herleitung von non-A existiert und daraus bekommt man, daß eine Herleitung des Falsums im betrachteten System existiert. Widerspruch zur Annahme der Konsistenz, damit Beweis fertig.



Ja. Das ist der Beweis. Ein Reductio ad absurdum. Und diesen habe ich ja schon in den beiden "Annahmen" (die beiden G-Sätze) hier eingetippt.



Wir wissen einfach durch die Konsistenz-Annahme mehr über die im Unvollständigkeitssatz betrachteten Systeme, als man innerhalb der Systeme selbst herausbekommen kann. Man braucht hier also dem Menschen keine "unberechenbaren" Fähigkeiten zuzuschreiben.



Ein interessanter Punkt. Die Konsistenz-Annahme ist meine Annahme 2. und somit der Unentscheidbarkeitssatz. Doch dieser Satz hat nichts mit dem Penrose/Lucas/Gödel Argument zu tun, sondern Annahme 1, der Unvollständigkeitssatz. Darin ist ein Satz wahr, aber formal unentscheidbar und somit die Axiome des Systems unvollständig. Die Tatsache aber, dass ein Satz "wahr" ist, wird nur durch einen menschlichen Logiker "eingesehen", aber formal kann er nie bewiesen werden. Somit hat die Konsistenz-Annahme keinen Wert für das Prinzip der "informalen Wahrheit G's. Du verwechselst hier die beiden G-Sätze in Bezug auf die Argumentation gegen die KI.



Daß sie einen ähnlichen Satz nicht beweisen kann, ohne sich in Widersprüche zu verwickeln, kann in der Tat auch eine geeignet programmierte Maschine herausfinden. Sie kann aber - wie Penrose - nicht herausfinden, daß ihr Anschauungssystem widerspruchsfrei ist und weil der Satz falsch ist, wenn Penroses Anschauungen widerspruchsvoll sind (dann kann er nämlich gleich jeden Satz beweisen) ist das für die Entscheidung eines Satzes dieser Art von im wahrsten Wortsinn entscheidender Bedeutung.



Was ändert diese Argumentation daran, dass Penrose weiss, dass er "flippt" und somit sagen kann: "Ich kann diesen Satz tatsächlich nicht widerspruchsfrei aussagen, aber ich weiss darum, dass ich ihn nicht widerspruchsfrei aussagen kann."



Für einen Satz wie den geschilderten reicht ein System zur Erkennung sehr einfacher logischer Schleifen aus.



Richtig. Es war ja Dein Argument. Doch, wie Du nun weiter unten feststellst, ist dieses Argument sicherlich kein G-Satz für menschliche Turing Maschinen und schon gar nicht ein G-Satz für Turing-Maschinen. Er ist in natürlicher Sprache stehend einfach nicht stark genug dafür.



Die Maschine könnte ohne weiteres erkennen, daß sich ein früher schon erreichter Zustand ihres Verstandes wiederholt hat und dann sagen, daß das Problem uninteressant ist.



Somit hast Du das Penrose-Widerspruchs-Argument selbst negiert. Es ist weder Argument für Hirne noch für TM.



Nein. Die x und y sind Zahlen, aber in einem System, daß mindestens die Arithmetik enthält, kann man über den natürlichen Zahlen alle denkbaren berechenbaren Relationen installieren, die dann eben auch eine Isomorphie zwischen einem arithmetischen System und einem logischen System hervorrufen können. Es kann etwa eine dreistellige berechenbare Relation definiert werden, die erfüllt ist genau dann, wenn x für ein algorithmisch repräsentierbares Axiomensystem steht und z für einen Satz und y für eine logisch korrekte Herleitung von z aus x. Dabei werden mitnichten Sprache und Metasprache vermischt.



In Deiner ursprünglichen Aussage aber waren sie vermischt. Um diese Aussage zu verifizieren, musst Du sie schon in einem formalen System wiederspiegeln lassen. Dann erst kann man sich ein Bild davon machen. Vorher ist dies eine Prämisse, keine Conclusio, keine Schlussfolgerung.



Es ist eine Aussage, die in mindestens die Arithmetik enthaltenden Systemen formuliert und bewiesen werden kann. Nicht bewiesen werden kann in solchen Systemen, daß sie auf das System, in dem sie formuliert und bewiesen wurde, anwendbar ist, wie die Aussage ja auch selbst sagt, falls sie in einem widerspruchsfreien System formuliert wurde *g*.



Ich bin mir nicht sicher, aber ist das nicht Annahme 2?



>Der Schluss ist natürlich richtig, aber die Voraussetzungen, die hier verwendet werden, halte ich für inakzeptabel stark ;).



*g* Gebe ich zu!



( ) Du bist der Ansicht, daß Menschen die Widerspruchsfreiheit der nichtkonstruktiven Mathematik einsehen könnten?



Menschen können nicht-formal beweisbare Sätze einsehen.



Die Maschine kann auch einsehen und akzeptieren, daß so eine Aussage sich für sie totläuft, *falls* ihre Überzeugungen widerspruchsfrei sind. Nur ist das eine für Mensch und Maschine in Bezug auf ihre jeweiligen Überzeugungssysteme nicht logisch beweisbare Zusatzannahme, und so kann eben auch Penrose strenggenommen nur vermuten, daß er den Satz nicht beweisen kann und deshalb die Bearbeitung der Aufgabe abbrechen.



Ein Unterschied: Penrose bricht ab, weil er diesen Satz versteht, die Maschine, weil sie, je nach Programmierung nach t Zeitschritten abbricht, oder weil sie darauf programmiert wurde, bei Input dieses Satzes sofort abzubrechen. Hier ist ein klarer Unterschied, warum Penrose abbricht, und warum eine TMaschine abbricht. Aber, wie oben geschrieben, dieses Argument ist zu schwach - für Menschen und TM.



Nein. Heutige Roboter sind viel intelligenter als Insekten.

Die Konstruktion von Robotern, die sich in normalen Umgebungen bewegen, ist hauptsächlich aus zwei Gründen in der Vergangenheit schwer gewesen:

1. Roboter sind ziemlich schwere Gebilde, bei denen Unfälle, die Insekten passieren dürfen, sowohl für den Roboter als auch für seine Umgebung sehr negativ wären.

2. Roboter sollen auf menschliche Anweisungen reagieren können und also beispielsweise auf Befehl *bestimmte* Gegenstände ansteuern können. Dazu muss ein Roboter eine interne Repräsentation seiner Umgebung aufbauen können, und genau das scheinen Insekten nicht zu tun. Es stellt sich im Gegenteil immer klarer heraus, daß die Steuersysteme von Insekten ausschliesslich auf wenig rechenintensiven "visuellen Reflexen" und ein bisschen Mustererkennung beruhen, ohne daß eine innere "Karte" der Umgebung angelegt würde.

>Ein PC mit einem Gigahertz-Pentiumprozessor *kann* einen Roboter steuern, der aus Kameradaten ein nur wenige Fehler enthaltendes dreidimensionales Umgebungsbild macht und darin bestimmte Dinge (beispielsweise Personen) erkennen kann. Damit allein zeigen Roboter heute eine deutliche Überlegenheit gegenüber Insekten. Speziell die Mustererkennungsleistungen betreffend wird die Überlegenheit heutiger Computersysteme den meisten Tieren gegenüber schon dann deutlich, wenn man sich überlegt, wieviele verschiedene Tonmuster ein Spracherkennungssystem unterscheiden muss, um nur halbwegs zuverlässig zu arbeiten. Und Spracherkennungssysteme funktionieren heutzutage.

Die Intelligenz von Insekten wird auch deshalb deutlich überschätzt, weil Fehlverhalten von Robotern viel besser bekannt ist als die mindestens ebenso abstrusen Reaktionen von Insekten auf Situationen, denen sie durch Evolution nicht angepasst wurden.

Wären die klügsten heutigen Roboter Tiere, würden sie vermutlich sogar als recht intelligent gelten, weil sie zur vorausschauenden Planung von Handlungen und zu einfachem Werkzeuggebrauch fähig sind, wenn man sie lange genug denken läßt. Darüberhinaus weiss ich nicht, ob es sinnvoll ist, nur Robotern Intelligenz zuzugestehen und dann die Roboter mit Tieren auf den Gebieten zu vergleichen, auf die die Tiere speziell optimiert sind. Programme wie SHRDLU haben schon in den siebziger Jahren linguistische Fähigkeiten gezeigt, die über das hinausreichen, was beispielsweise bei Graupapageien als Zeichen besonders entwickelter Intelligenz bejubelt wird; Schachprogramme führen weiterreichende Planungen aus als irgendein nichtmenschliches Tier; Programme wie Cyc können sich zumindest in einer Sprache, die nicht die Mehrdeutigkeiten der menschlichen Sprache hat, über ein weites Spektrum an Themen auf einem Niveau unterhalten, das von Schimpansen definitiv nicht erreicht wird; Theorembeweiser haben bereits Probleme gelöst, an denen hochintelligente Menschen viele Jahre lang erfolglos gearbeitet haben; bestimmte Programme können klassische Musik komponieren auf einem Niveau, das von dem sehr guter menschlicher Komponisten nicht zu unterscheiden ist; Programme wie EURISKO haben selbstständig in einer Reihe von Bereichen kleine Entdeckungen gemacht, mit denen Menschen nicht gerechnet hatten; Programme wie VERBMOBIL können in beschränkten Kontexten natürlichsprachige gesprochene Aussagen von einer Sprache in eine andere übersetzen; Computeralgebra-Systeme sind im symbolischen Rechnen praktisch allen Menschen weit überlegen; die Liste liesse sich fortsetzen und laesst unwillkürlich die Frage aufkommen, unter welcher Intelligenzdefinition denn nun Ameisen klüger sein sollen als KI-Systeme.
Dieser langen Ausführung kann ich nicht viel hinzufügen. Deshalb, weil auch ich der Meinung bin, eine TM wie z.b. Dennetts geliebter COG sei zu komplexer Informationsverarbeitung fähig. Du siehst jetzt aber, ich schreibe nicht das Wort "Intelligenz", denn wahre Intelligenz setzt verstehen voraus (ich bleibe dabei) und verstehen setzt Bewußtsein voraus. Und derzeit existiert keine TM, die nach dieser Definition Intelligent wäre. Ob eine Ameise intelligent ist, weiss ich nicht. Denn ich weiss nicht, wie es ist, eine Ameise zu sein. Die qualitativen Erlebnisse einer Ameise dürften wohl nur rudimentät sein; aber dies wird mir, als systemfremder, nicht zugänglich sein.



cheers,

MV


















von Martin V - am 18.09.2000 13:05
Geschrieben von Martin V am 18. September 2000 15:36:54:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 16. September 2000 17:13:05:
Hallo Martin,

hier mein Reply:

es war durchaus nicht meine Absicht im letzten Posting die Mustererkennung

zu mystifizieren. Mir ist wohl bewusst, dass jeder Mustererkennungsalgorithmus

(jedenfalls jeder mir bekannte) einen extrem kleinen 'Sichtwinkel' besitzt.

Allerdings lassen sich beliebig viele von ihnen erzeugen und vernetzen und damit

der Sichtwinkel vergrößern. Worauf ich hinaus möchte: jedesmal wenn wir uns

ausserhalb eines formalen Systems wiederfinden, dass wir konstruiert haben,

können wir einen Algorithmus schreiben (wir können das nicht wirklich, aber es

ist nicht unzulässig dies anzunehmen), der unseren Wahrnehmungsakt wiederholt,

der uns in unsere Lage gebracht hat.



Somit meinst Du also, dass wir (Gedankentheoretisch) den "neuronalen" Algorithmus niederschreiben können, den menschliche Logiker benutzen, wenn sie ein formales System konstruieren? Interessante Idee.



Wir erzeugen nun, sozusagen durch Integration infinitesimaler Wahrnehmungsmomente, unser Programm. Ist es nun vollständig und widerspruchsfrei, im Sinne der mathematischen Logik? Keineswegs, wie sich mit Gödels Satz eindrucksvoll beweisen lässt.



Völlig richtig.



Allerdings versteht unser Programm diesen Satz auch, denn wir haben ihm ja beigebracht selbstbezügliche Aussagen zu erkennen und ebenso logische Schlussfolgerungen aus Annahmen zu ziehen.



Welchen Satz? Einen G-Satz für menschliche Turing-Maschinen? Bisher ist Dein beschriebenes "Wahrnehmungsprogramm" selbst nicht G- konzipiert.



Es wird seine eigene Unvollständigkeit aber auf eine ganz andere und viel konkretere Weise bemerken, es kann z.B. kein chinesisch, der Computer auf dem er installiert ist, hat nur begrenzt viel Speicher zur Verfügung etc. Er ist zwar unvollständig, aber jeden intellektuellen Trick, den ein Mensch beherrscht, den kann er auch.



Richtig, Dein Wahrnehmungsprogramm ist ein Algorithmus und somit syntaktisch. Er unterliegt denselben Grenzen wie eine Turing-Maschine, die ja selbst ein Algorithmus ist.



Das ist einfach so, weil systematisch die Lücken in seiner ( zumindest intellektuellen) Wahrnehmung geschlossen wurden, die ihn von uns unterschieden haben.



Die Frage bleibt aber bestehen: Ist dieser neuronale Algorithmus überhaupt algorithmisch; d.h. ist es überhaupt denkbar, einen Rechenvorgang im menschlichen Gehirn von seinem Substrat abzuschöpfen? Und wenn es etwas gibt, dass dem syntaktischen Spiel der Neuronen eine Bedeutung gibt, also in höheren Regionen des Gehirns sich nicht-rechnerische Dinge abspielen, kann ich dieses nicht-rechnerische Moment ebenfalls abschöpfen? Wie sieht denn der neuronale Algorithmus eines Menschen aus, der den G-Satz versteht? Vorweg: Es exisiert kein derartiger Algorithmus; trotzdem scheint es etwas zu geben, das uns konsistente "Wahrheiten" in Bezug auf ein formales System liefert, ohne selbst rechnerisch zu sein.



In der bisherigen Geschichte der KI ist es nicht gelungen herauszufinden, wie ein impressionistisches Bild der Wirklichkeit zu malen ist, in dem keine riesengroßen Lücken klaffen. Es hat stets den Anschein, als würden wir wieder vor einer weißen Leinwand stehen, wenn wir uns einige Meter von ihr wegbewegen, so dünn sind die Punkte gesät, die mit einem ganz feinen, spitzen Pinsel aufgetupft wurden. Zumindest gilt das für die sog. symbolische KI. Für die konnektionistische KI kann man sagen: sie hat es gerade

bis zu Ein-Fleck-Bildern geschafft. Allerdings weiß niemand, wie sich weitere Flecke so auftragen lassen, dass auch eine Komposition entstehen kann. Ich bin andererseits nicht sehr pessimistisch, dass es uns doch irgendwann gelingen wird mit breiteren und feineren Linien und Punkten aus Algorithmen ein denkendes Wesen zu malen - als eine auf genauer Selbstbeobachtung beruhende mimische Übertragung von Interpretationshandlungen. Verstehen bedeutet dann die Trennung einer sprachlichen Figur von einem sprachlichen Hintergrund, der nicht figural sondern medial ist, zum Zweck der Beantwortung einer Frage oder der Lösung einer Aufgabe oder etwas, dass weder das eine oder das andere ist,

aber doch die Figur-Hintergrund-Trennung, wie sie anderswo vollzogen wird, nachahmt.
Hier muss ich nachfragen, da ich etwas nicht "verstehe". Wie kommt nach Deiner Definition Selbstbeobachtung zustande?



eine Fernsehantenne, was weiß ich? Ich habe dafür keine Begriffe.



Ich vertrete in Bezug auf die "Chinesen" Chalmers nichtreduktiven Funktionalismus. Demnach wird sich "Bewusstsein" einstellen, wenn die Chinesen funktional isomorph zu einem Gehirn sind. Natürlich ab einer bestimmten Feinkörnigkeit der neuronalen Ebene ausgehend. Spielen Quantenprozesse eine wesentliche Rolle, so sind eben die Chinesen funktional isomorph in Bezug zu diesen Prozessen. Spielen Gliazellen eine Rolle, so dasselbe. Dies nennt man strukturelle Invarianz. Es ist aber ein "nichtreduktiver" Funktionalismus, da die phänomenologischen Atome "Qualia" dabei trotzdem nicht auf die funktionelle Organisation selbst reduzierbar sind. The mind wins!



cheers,

MV
















von Martin V - am 18.09.2000 13:36
Geschrieben von Janosch am 19. September 2000 01:17:44:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 18. September 2000 15:05:39:
Hallo,
unabhängig von der Frage, ob der Unvollständigkeitssatz selbst in einer formalisierten widerspruchsfreien Metatheorie mit einem geeigneten (nicht im Allgemeinen entscheidbaren) Wahrheitsbegriff für die zu betrachtenden eine Minimal-Arithmetik enthaltenden mathematischen Theorien beweisbar ist (ich denke, daß ich mich in diesem Punkt geirrt habe), weise ich darauf hin, daß die gödelschen Sätze nur die Fähigkeiten von Maschinen einschränken, die nie Fehler machen. Menschen, und auch menschliche Mathematiker, sind aber wie heutige hochentwickelte KIs (Cyc) keine derartigen Maschinen und also ist der Unvollständigkeitssatz auf sie schlicht nicht anwendbar ;).

Vielleicht macht jedes intelligente Wesen in diesem Universum manchmal Fehler - wenn wir die intelligentesten uns bekannten Wesen betrachten, scheint diese Hypothese nicht implausibel zu sein.

Eine interessante Behandlung der übrigen Thesen von Penrose et al. findet man hier.
Grüße,

Janosch.
















von Janosch - am 18.09.2000 23:17
Geschrieben von KayS am 19. September 2000 08:23:43:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 18. September 2000 15:36:54:

Hallo Martin,

hier mein Reply:

es war durchaus nicht meine Absicht im letzten Posting

die Mustererkennung

zu mystifizieren. Mir ist wohl bewusst, dass jeder Mustererkennungsalgorithmus

(jedenfalls jeder mir bekannte) einen extrem kleinen

'Sichtwinkel' besitzt.

Allerdings lassen sich beliebig viele von ihnen erzeugen

und vernetzen und damit

der Sichtwinkel vergrößern. Worauf ich hinaus

möchte: jedesmal wenn wir uns

ausserhalb eines formalen Systems wiederfinden, dass

wir konstruiert haben,

können wir einen Algorithmus schreiben (wir können

das nicht wirklich, aber es

ist nicht unzulässig dies anzunehmen), der unseren

Wahrnehmungsakt wiederholt,

der uns in unsere Lage gebracht hat.


Somit meinst Du also, dass wir (Gedankentheoretisch) den "neuronalen"

Algorithmus niederschreiben können, den menschliche Logiker benutzen,

wenn sie ein formales System konstruieren? Interessante Idee.


Ich halte das, was in der Kognitiven Wissenschaften mit "neuronalen

Algorithmen" bezeichnet wird für eine sehr oberflächliche und unreflektierte Methodologie, die allenfalls, wenn auch erfolgreich, dazu taugt, natürliche

NN zu simulieren, so wie man mit finiten Elementen Autocrashs simulieren kann. Was man mit künstlichen NN nicht kann, ist die Beschreibung künstlicher NN. Das hat mich seit jeher gewundert: 50 Jahre KI und wir haben keine KI-Programme, die sich für den praktisch tätigen Programmierer nutzen ließen, keines dass über soviel Selbstverständnis verfügt, dass es mir sagen würde, der Algorithmus den ich da gerade in die Tastatur hacken würde, weiche von seiner Spezifikation ab. Die Grund: die einzige Meta-Sprache über die wir verfügen ist die

natürliche Sprache und diese ist paradoxerweise ihre eigene Meta-Sprache.

Genau diese schöne Eigenschaft der Sprache wurde in der KI systematisch untergraben, mit Ausnahme vielleicht bei Hofstadter, der seine Philosophie auf der indirekten Selbstbezüglichkeit der Sprache fundiert. Stattdessen haben wir alle möglichen Arten von "Repräsentationen" der natürlichen Sprache, die

als ärmliche Klappergerüste in der Welt herumhängen, siehe nur CYC. Bei CYC kommt zur syntaktischen Illusion, die wir in ihrer spezifischen Form von Chomsky geerbt haben nun auch noch die semantische Illusion, die Wirklichkeit in eine überall konsistente Weise beschreiben zu können. Lenat kann nie eine Zeitung gelesen haben, geschweige denn, deren zwei.

Ich versuche, soweit das überhaupt möglich ist, die Sprache als das zu nehmen was sie ist und wie ich sie vorfinde.


Ich will nicht den neuronalen Algorithmus niederschreiben,

sondern Gedanken, Bilder und ihre Interaktion verstehen. Ein Wahrnehmungsakt

kann etwas sein wie: das Wort neuronal im vorigen Satz wurde kursiv geschrieben. Oder auch: hier geht es um das Verstehen

des Verstehens. Es handelt sich also um ein dichtes Bündel von Interpretationen.

Dieses Bündel kann man so dicht machen wie man will, es können auch falsche Interpretationen darunter sein. Werden weitere Deutungsmöglichkeiten

gefunden, so können diese auch eingebaut werden.

Es ist eher soetwas wie die Nachbildung gedanklicher Kontinuität, bezogen auf Textfragmente. Wenn ich also den Logiker beobachte, dann versuche ich nicht immanent einen Beweisgang durch einen Algorithmus nachzubilden, sondern sein ganzes sprachliches Handeln und auch das aller anderen Logiker als Hintergrund

zu nutzen, aus dem dann die konkrete Figur des Beweises erschaffen

werden kann. Es würde nicht genau derselbe Beweis sein, den der Logiker niederschreiben würde, es liegt keine Hirnsimulation vor, aber einer, der dasselbe bedeutet. Voraussetzung ist, dass diese Handlungen in Form geschriebener Texte vorliegen und durch Algorithmen in Aktionen zurückcodierbar sind. Diese Aktionen sind i.w. Mustererkennungsvorgänge, die sich selbst

dadurch stabilisieren, dass sie andere Mustererkennungsvorgänge aufrufen,

von denen jeder ein 'Erkenntnisfragment' als Beitrag liefert. Diese disparaten

Mustererkennungen müssen zur Synthese geführt werden.


Selbsterkenntnis stelle ich mir dann so vor, dass das Programm zunächst

seine eigenen Aktionen aufzeichnet,

z.B. Methodenaufrufe in einem Logging-File protokolliert.

Das Logging-File wird dann genau wie ein Text interpretiert. Vermutlich

ist nur ein winziger Teil der Daten in diesem Logging-File überhaupt nutzbar. Die Interpretation der Daten wird wieder, zunächst durch einen

menschlichen Beobachter vorgenommen, der eine neue, in natürlicher Sprache verfasste Interpretation darüberlegt. Angenommen ich spiele ihm nun die Interpretation zurück: hier wurde eine Schleife abgearbeitet ->

arbeite die Schleife nocheinmal ab. Die nochmalige Abarbeitung der

Schleife stabilisiert nun die Interpretation und er kann sie auf beliebige andere Schleifen übertragen. Dass er das kann liegt wiederum darin, dass das

Logging-File ein Text ist und durch Texte interpretiert wird, aber

das hatten wir schon.

Der Algorithmus wird in der Lage sein, seine eigenen Aktionen zu steuern,

indem er vorherige Aktionen interpretiert.


(...)

Die Frage bleibt aber bestehen: Ist dieser neuronale Algorithmus

überhaupt algorithmisch; d.h. ist es überhaupt denkbar, einen

Rechenvorgang im menschlichen Gehirn von seinem Substrat abzuschöpfen?

Und wenn es etwas gibt, dass dem syntaktischen Spiel der Neuronen eine

Bedeutung gibt, also in höheren Regionen des Gehirns sich nicht-rechnerische

Dinge abspielen, kann ich dieses nicht-rechnerische Moment ebenfalls abschöpfen?

Wie sieht denn der neuronale Algorithmus eines Menschen aus, der den G-Satz

versteht? Vorweg: Es exisiert kein derartiger Algorithmus; trotzdem scheint

es etwas zu geben, das uns konsistente "Wahrheiten" in Bezug auf ein formales

System liefert, ohne selbst rechnerisch zu sein.


Nun, mir scheint, das Gehirn führt genausoviele Rechnungen durch

wie es eben benötigt. Dabei könnte es weitere Daten in sich integrieren, d.h. lesen oder zuhören, um neue Prozesse zu starten, die 'Rechenergebnisse'

anderer Gehirne in eigene Prozesse zurückübersetzen. Wie ich oben erläutert habe, glaube ich in der Tat daran, dass man diese 'Ökologie des Geistes' auf nichtneuronale Systeme übertragen kann. Die Natur hat, für meine Begriffe, einen sehr geschickten Weg gefunden, Daten in Handlungen und Handlungen in Daten zu übersetzen; schließlich erweist sich die neuronale Architektur als ungemein flexibel zur Nachbildung von allem Möglichen.

Sie ist, wie zu zeigen sein wird - und seien wir ein wenig geduldig - nicht die einzig mögliche Form, nicht die einzige 'Ökologie des Geistes'. Hofstadter hatte recht damit, in Seltsamen Schleifen jene systemischen Figuren zu erkennen, die solche ökologischen Systeme, wie das Gehirn, ausmachen. Wie sie dann das Substrat binden um sowohl stabil als auch flexibel zu sein, dafür hat die Natur zwei erfolgreiche Prototypen geliefert: das Gehirn und die Zelle. Es könnte eine tiefe Ironie darin liegen, dass wir bei unseren Versuchen ganzheitliche KIs zu schaffen, nicht beim Gehirn, sondern bei der Zelle enden. Was wissen wir über das Bewusstsein der Zelle?


(...)


Hier muss ich nachfragen, da ich etwas nicht "verstehe". Wie kommt

nach Deiner Definition Selbstbeobachtung zustande?
(s.o)

Ich vertrete in Bezug auf die "Chinesen" Chalmers nichtreduktiven

Funktionalismus. Demnach wird sich "Bewusstsein" einstellen, wenn die Chinesen

funktional isomorph zu einem Gehirn sind. Natürlich ab einer bestimmten

Feinkörnigkeit der neuronalen Ebene ausgehend. Spielen Quantenprozesse

eine wesentliche Rolle, so sind eben die Chinesen funktional isomorph in

Bezug zu diesen Prozessen. Spielen Gliazellen eine Rolle, so dasselbe.

Dies nennt man strukturelle Invarianz. Es ist aber ein "nichtreduktiver"

Funktionalismus, da die phänomenologischen Atome "Qualia" dabei trotzdem

nicht auf die funktionelle Organisation selbst reduzierbar sind. The mind

wins!



 


Bei mir gewinnt der Geist auch immer! Man könnte auch sagen, seine

eigentliche Funktion in der Welt ist die Betrachtung des Weltknotens von allen Seiten. Das ist natürlich eine metaphysische Aussage, aber nach meiner privaten Auffasung wird die Welt eher von Rätseln als von Göttern oder Teilchen generiert, die kommen erst später. Die eigentlliche kosmische Katastrophe wäre

die Elimination des Rätsels, die Auflösung des Knotens. Kommt man dem

Rätsel zu nahe verwickelt er einen in Paradoxien und Unentscheidbarkeiten oder er lässt Träume frei herumlaufen.

Ohne sie gäbe es jedoch keine wahre Freiheit. Über die ethischen

Implikationen des Weltknotens werde ich noch nachdenken müssen.



cheers,



MV


na dann mal Prost!



Kay
















von KayS - am 19.09.2000 06:23
Geschrieben von Janosch am 19. September 2000 09:00:34:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Janosch am 19. September 2000 01:17:44:
P.S.: Ganz konkret habe ich den Eindruck, daß wir beim Beweis von Sätzen wie dem Gödelschen Satz folgende Schlussregel benutzen, die entweder manchmal fehlerhaft ist oder formal beweisbar, denn sie ist in jedem Fall algorithmisierbar:

In einer konsistenten Theorie T kann man aus 'Ex x. Herl(T,x,n)' auf den Satz schliessen, der die Gödel-Nummer n hat' .
Mit dieser Regel könnte auch eine Maschine folgendes mit G machen:


Zeige: (x). nicht dem(x,n) (beispielsweise mit dem von Dir konstruierten n)

Fall: Ex x dem(x,f) (f Gödel-Nummer des Falsums)

dann (k). ex y (dem y k) (ex falso quodlibet)

Widerspruch zur Behauptung folgt trivialerweise

Fall: (x). nicht dem(x,f) (also eigene Theorie konsistent)

Annahme: Ex x dem(x,n)

dann: dem(y,n) für ein y

dann nach genannter Schlussregel: (x). nicht dem(x,n)

nicht dem(y,n) Widerspruch und Behauptung bewiesen

Folgerung: Satz ist äquivalent zur Behauptung, mein System sei konsistent und also für mich unentscheidbar ---> Beendung des Programmlaufs und Ausgabe dieses Resultats zusammen mit der Vermutung, daß der Satz zutrifft nach eventuell ein bisschen versuchen, einen Widerspruch in den eigenen Anschauungen zu finden.

















von Janosch - am 19.09.2000 07:00

Symbolische KI

Geschrieben von Janosch am 19. September 2000 10:08:51:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von KayS am 19. September 2000 08:23:43:
Hallo,
> Das hat mich seit jeher gewundert: 50 Jahre KI und wir haben keine KI-Programme, die sich für den praktisch tätigen Programmierer nutzen ließen, keines dass über soviel Selbstverständnis verfügt, dass es mir sagen würde, der Algorithmus den ich da gerade in die Tastatur hacken würde, weiche von seiner Spezifikation ab.
Meine Nullhypothese hierzu wäre, daß solche Dinge auf Maschinen, die ungefähr den ein hunderttausendstel der Rechenkapazität menschlicher Gehirne haben (im Fall eines PCs mit Gigahertz-Prozessor), einfach nicht implementierbar sind.

In ähnlicher Weise hätte man vor 350 Millionen Jahren auf die damals herumkriechenden Amphibien verweisen können, um zu "beweisen", daß biologische Organismen niemals in der Lage sein werden, menschenähnliche Intelligenz zu entwickeln.
> (...)

> Stattdessen haben wir alle möglichen Arten von "Repräsentationen" der natürlichen Sprache, die

>als ärmliche Klappergerüste in der Welt herumhängen, siehe nur CYC.
Wenn wir annehmen, dass Cyc heutzutage auf Hochleistungs-Workstations läuft, die vielleicht zehnmal leistungsfähiger sind als PCs, dann hat es vielleicht den zehntausendsten Teil der Rechen- und Speicherkapazität eines menschlichen Gehirns zur Verfügung.

In Anrechnung dieser Tatsachen vermute ich, daß Programme wie Cyc das beste sind, was wir mit heutiger Hardware unterhalb der Ebene riesiger Supercomputersysteme machen können. Und Teraflops-Supercomputer werden begreiflicherweise nicht dazu verwendet, um KI zu entwickeln, weil das Ergebnis mit Sicherheit nicht so weit in seinen Fähigkeiten über einen Menschen hinausreichen würde, daß künstliche Intelligenz nicht erheblich teurer wäre als menschliche Intelligenz. Möglicherweise wird sich das ändern, falls es einmal Supercomputer gibt, die viel mehr Rechenleistung als ein Gehirn haben und begrenzte Erfolge mit KI-Systemen auf schwächerer Hardware die Hoffnung berechtigt erscheinen lassen, daß man auf einem solchen Supercomputer rasch zu einer posthumanen Intelligenz kommen könnte - denn immerhin wäre es denkbar, daß eine deutlich "übermenschliche" KI zu Einsichten käme, die ökonomisch oder strategisch wertvoller sind als die Ergebnisse von Nuklearwaffensimulationen oder Rechnungen zur Proteinfaltung.
> Bei CYC kommt zur syntaktischen Illusion, die wir in ihrer spezifischen Form von Chomsky geerbt haben nun auch noch die semantische Illusion, die Wirklichkeit in eine überall konsistente Weise beschreiben zu können.
Der Witz an Cyc ist ja gerade, daß es keine globale Konsistenz seiner Weltrepräsentation braucht.
Grüße,

Janosch.
















von Janosch - am 19.09.2000 08:08
Geschrieben von Martin V am 19. September 2000 15:21:59:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Janosch am 19. September 2000 09:00:34:
Hallo,
P.S.: Ganz konkret habe ich den Eindruck, daß wir beim Beweis von Sätzen wie dem Gödelschen Satz folgende Schlussregel benutzen, die entweder manchmal fehlerhaft ist oder formal beweisbar, denn sie ist in jedem Fall algorithmisierbar:

In einer konsistenten Theorie T kann man aus 'Ex x. Herl(T,x,n)' auf den Satz schliessen, der die Gödel-Nummer n hat' .

Mit dieser Regel könnte auch eine Maschine folgendes mit G machen:
Zeige: (x). nicht dem(x,n) (beispielsweise mit dem von Dir konstruierten n)
Fall: Ex x dem(x,f) (f Gödel-Nummer des Falsums)

dann (k). ex y (dem y k) (ex falso quodlibet)

Widerspruch zur Behauptung folgt trivialerweise

Fall: (x). nicht dem(x,f) (also eigene Theorie konsistent)

Annahme: Ex x dem(x,n)

dann: dem(y,n) für ein y

dann nach genannter Schlussregel: (x). nicht dem(x,n)

nicht dem(y,n) Widerspruch und Behauptung bewiesen

Folgerung: Satz ist äquivalent zur Behauptung, mein System sei konsistent und also für mich unentscheidbar ---> Beendung des Programmlaufs und Ausgabe dieses Resultats zusammen mit der Vermutung, daß der Satz zutrifft nach eventuell ein bisschen versuchen, einen Widerspruch in den eigenen Anschauungen zu finden.
Wunderbar durchdacht. Aber: G ist zwar algorithmisch durchführbar, ein System kann über sich selbst sprechen, dass es konsistent und somit unentscheidbar ist, aber die Tatsache, dass das System unvollständig ist, folgt nicht aus der Annahme (die Du algorithmisierst), dass das System konsistent sei, sondern dass Deine Formel falsch sei und damit unvollständig, aber informal eine wahre Aussage darstellt. Da Du aber "Unentscheidbarkeit" ansprichst, die aus der Annahme der Konsistenz folgt, und diese Unentscheidbarkeit auch ausgedruckt werden kann, bedeutet dies noch nicht, dass, aufgrund des formalen "wissens" des Systems über seine Unentscheidbarkeit aufgrund seiner Konsistenz, aufgrund des Unvollständigkeitssatzes er einen Satz wie G entscheiden könnte. Er kann nur Rechenschaft darüber ablegen, dass er konsistent ist und deshalb unentscheidbare Aussagen enthält. Doch nur für ihn unentscheidbar - aufgrund der Unvollständigkeit des Systems aber, wird er nichts entscheiden können, da seine eigenen Axiome selbst unvollständig sind, und dies sind sie, weil man einen Satz konstruieren kann, der formal unentscheidbar, aber wahr ist. Und dieser Wahrheit, um die es ja eigentlich in diesen Diskurs geht, kann der keine Rechenschaft ablegen - höchstens, wie Du wunderbar dargestellt hast, seiner Annahme, er wäre konsistent und somit unentscheidbar. Über die Entscheidbarkeit mancher für ihn unentscheidbaren Sätze aber, kann er nichts aussagen.
Konsistenz impliziert die Wahrheit beweisbarer Sätze nur, wenn man auch Vollständigkeit annimmt. Wenn ein Satz beweisbar ist, seine Negation aber wahr wäre, dann folgt aus der Vollständigkeit, dass die Negation auch beweisbar wäre, was im Widerspruch zur Konsistenz ist. Vollständigkeit aber dürfen wir nicht annehmem, denn wir sind gerade dabei, einen Unvollständigkeitssatz zu beweisen. Also dürfen wir aus der Konsistenz des Systems nicht auf die Wahrheit beweisbarer Sätze schliessen, sondern, wie in Deinem System, auf gewisse unentscheidbare Sätze -- und soweit ging Dein Argument (sogar weiter, indem das System selbst dieser Argumentation/Konstruktion folgt) -- aber es sagt nichts darüber aus, dass es ja unentscheidbare Sätze gibt, die trotzdem wahr sind -- und dieser Wahrheit kann das System im wahrsten Sinne des Wortes keine Rechenschaft tragen.



cheers,

MV



















von Martin V - am 19.09.2000 13:21

Endo, Exo und Gödel

Geschrieben von Martin V am 19. September 2000 16:08:42:
Als Antwort auf: Re: Schatten des Geistes: Qualia contra Penrose? geschrieben von Martin V am 19. September 2000 15:21:59:
Ich will noch etwas wichtiges hinzufügen:



Wir sind uns darüber einig, dass innerhalb eines Systems G nicht formal bewiesen, ausserhalb dieses Systems aber G sehr wohl bewiesen werden kann; wenn auch nicht formal (warum, das würde sich weiter unten zeigen). Im Exosystem also, tritt "Wahrheit" auf, während im Endosystem formale Unentscheidbarkeit und Unvollständigkeit auftritt.
Nun ist das Exosystem, indem die neue Exoeigenschaft auftritt, wiederum ein Endosystem, nämlich ein menschliches Gehirn. Wir haben also ein Endosystem, dessen Exosystem das Endosystem Gehirn ist.
Nun kann in einem solchen Endosystem zweiter Ordnung ( sagen wir ED² = Gehirn)

wiederum eine neue Eigenschaft dieses ED² Systems in einem EX² auftreten, wie schon in Bezug auf ED1 & EX1.
Nun Frage ich mich folgendes:
Aus ED1 folgte in EX1 neue Eigenschaft des ED1 (Wahrheit), doch EX1 ist eigentlich ED² (Gehirn) und somit muss wiederum ein EX² existieren und dieses wäre wieder ED1 das gleichzeitig wieder EX1 ist. Aber die neue Eigeschaft x von ED² würde sich inkosistent bezüglich des EX1 & ED1 zeigen, da beide Systeme irgendwie "identisch" sind.
Ist also, mal ganz unabhängig von Penrose, der informale Charakter von EX1 eine Erscheinung einer weiteren Paradoxie bzw. inkonsistenten Überlagerung von Endo-Exosystemen?



Nur mal ein kleiner Gedanke..
















von Martin V - am 19.09.2000 14:08

Re: Endo, Exo und Gödel

Geschrieben von Janosch am 19. September 2000 20:16:25:
Als Antwort auf: Endo, Exo und Gödel geschrieben von Martin V am 19. September 2000 16:08:42:
>Wir sind uns darüber einig, dass innerhalb eines Systems G nicht formal bewiesen, ausserhalb dieses Systems aber G sehr wohl bewiesen werden kann; wenn auch nicht formal (warum, das würde sich weiter unten zeigen).
Vor allem können wir uns darüber einig sein, daß das von Penrose vorgebrachte Argument mindestens vier schwere Fehler aufweist:

1. Menschen sind ebenso wie die heute am höchsten entwickelten KIs keine Maschinen mit global konsistentem Weltbild und sie machen Fehler, so daß der gödelsche Unvollständigkeitssatz sich mit ihnen überhaupt nicht befasst.

2. Eine Maschine kann wie von mir beschrieben den Unvollständigkeitssatz beweisen, weil sie *dafür* annehmen kann, daß die Theorie, in der G , der "Zeuge" also des Unvollständigkeitssatzes, konsistent ist.

3. Eine Maschine kann sehr begründet vermuten , daß sie den auf sie angepassten Gödel-Satz nicht beweisen kann, wenn sie die begründete Vermutung hat, daß ihr Weltbild konsistent ist. Dabei unterscheidet sie sich nicht von einem Menschen, der den Gödel-Satz für die Mengenlehre ebenfalls nicht beweisen kann, weil er nicht weiss, ob die Mengenlehre widerspruchsfrei ist und also der gödelsche Unvollständigkeitssatz auf sie anwendbar ist - in der Tat gibt es Mathematiker, die versuchen, zumindest "verstärkte" Systeme der Mengenlehre (z.B. ZFC+AC+Kontinuumshypothese) zum Widerspruch zu führen (ohne viel Hoffnung zu haben, daß das gelingen wird).

4. Es ist nicht klar, daß eine Maschine mit der Fähigkeit, unberechenbare Beweis-Operationen durchzuführen, den Grenzen des gödelschen Satzes entkommen könnte. Meiner Meinung nach könnte man beispielsweise wie folgt argumentieren:

Sei T eine widerspruchsfreie Theorie in einer abzählbaren Sprache L, die es erlaubt, mindestens die Minimal-Arithmetik zu formulieren, die Voraussetzung der gödelschen Unvollständigkeitssätze ist und sei B ein (möglicherweise unberechenbares) Beweisbarkeitsprädikat, d.h. ein Satz S soll in T sein genau dann wenn B('S') in T ist, wobei 'X' die Gu-Nummer ( Gödel Unberechenbar - Nummer ) eines Satzes X aus L ist. Da T mindestens die von Gödel vorausgesetzte Minimal-Arithmetik enthält, sollte es möglich sein, in T eine Funktion sub:NxN--->N zu definieren, die die Eigenschaft hat, daß sub(x,y) die Gu-Nummer desjenigen Satzes ist, der aus dem Satz mit Gu-Nummer x durch Substitution aller freien Variablen durch die Zahl y entsteht.

Wir wollen jetzt einen Satz G' definieren durch G'=non B(sub(x,x)) und sei n die Gu-Nummer von G'. Dann setze G=non B(sub(n,n)). Nun hat man einerseits G offensichtlich aus G' durch Substitution der einzigen freien Variable x durch die Zahl n bekommen, und also ist die Gu-Nummer von G sub(n,n). Andererseits ist ebenso klar, daß G wahr ist genau dann wenn der Satz mit der Gu-Nummer sub(n,n) nicht zu T gehört. Da T nach Voraussetzung konsistent ist, würde man hier einen Widerspruch bekommen, wenn G in T wäre.

Also ist G nicht in T und wahr und wir haben nirgends vorausgesetzt, daß das Beweisbarkeitsprädikat von T berechenbar wäre und also können Systeme, die unberechenbare Funktionen beherrschen, dem Gödelschen Satz nicht entkommen.

Noch mehr, unser Beweis ist für eine Maschine anscheinend genauso gut beweisbar wie der ursprüngliche gödelsche Unvollständigkeitssatz. Folgt man der Argumentation von Penrose, dann hätten wir hier absurderweise gezeigt, daß Turing-Maschinen beliebigen anderen Beweismaschinen, die vielleicht sogar mit unberechenbaren Funktionen umgehen können, überlegen sind, weil wir für jedes Beweis-System, das konsistent und halbwegs ausdrucksstark ist, Sätze angeben können, die das System nicht beweisen kann.

Natürlich ist in Wirklichkeit die scheinbare Überlegenheit eines Unvollständigkeitssatz-Beweisers über die Systeme, mit denen sich der jeweilige Unvollständigkeitssatz befasst, nur darauf zurückzuführen, daß man dabei die Widerspruchsfreiheit der betrachteten Theorien voraussetzt, was innerhalb der jeweiligen Theorie zu beweisen wäre.
Du sagst weiter:

Konsistenz impliziert die Wahrheit beweisbarer Sätze nur, wenn man auch Vollständigkeit annimmt.

Hier verwechselst Du Vollständigkeit und Korrektheit einer Theorie. Eine Theorie heisst vollständig, wenn sie alle Sätze enthält, die von ihr "erzwungen" werden. Sie heisst korrekt, wenn sie keine falschen Sätze enthält. Und sie heisst konsistent, wenn in ihr das Falsum nicht beweisbar ist.

Vollständigkeit ist dem Gödelschen Satz zufolge für keine halbwegs interessante Theorie zu erreichen. Korrektheit kann man dagegen leicht erreichen, wenn man sich in einem konsistenten Axiomensystem nur an die üblichen Folgerungsregeln hält (oder, ganz trivial, einfach gar keine Aussagen macht). Konsistenz kann man auch in interessanten Theorien erreichen, aber die Konsistenz einer Theorie ist innerhalb der Theorie selbst nicht beweisbar, sondern allenfalls widerlegbar (ist ein Axiomensystem inkonsistent und die Herleitungsrelation berechenbar, dann kann man trivialerweise einen Algorithmus angeben, der in endlicher Zeit eine Herleitung des Falsums liefern wird).
Grüße,

Janosch.
















von Janosch - am 19.09.2000 18:16

P.S.

Geschrieben von Janosch am 19. September 2000 23:46:44:
Als Antwort auf: Endo, Exo und Gödel geschrieben von Martin V am 19. September 2000 16:08:42:
P.S.: Es muss natürlich heissen:

2. Eine Maschine kann wie von mir beschrieben den Unvollständigkeitssatz beweisen, weil sie *dafür* annehmen

kann, daß die Theorie konsistent ist, in der G formuliert wurde, der "Zeuge" also des Unvollständigkeitssatzes.
















von Janosch - am 19.09.2000 21:46

Re: Endo, Exo und Gödel

Geschrieben von Martin V am 20. September 2000 16:09:30:
Als Antwort auf: Re: Endo, Exo und Gödel geschrieben von Janosch am 19. September 2000 20:16:25:
hi,



>Vor allem können wir uns darüber einig sein, daß das von Penrose vorgebrachte Argument mindestens vier schwere Fehler aufweist:

>1. Menschen sind ebenso wie die heute am höchsten entwickelten KIs keine Maschinen mit global konsistentem Weltbild und sie machen Fehler, so daß der gödelsche Unvollständigkeitssatz sich mit ihnen überhaupt nicht befasst.
Menschen machen Fehler, können sich über gewisse Mathematische Gegebenheiten irren, können oftmals wie eine Maschine nicht sagen, ob eine Berechnung anhält oder nicht, aber und hier die Ausnahme, sie können einsehen, dass G wahr ist, aber eine Berechnung G's nie anhalten wird. Sie irren sich nicht, wenn sie die Wahrheit G's behaupten. G beschäftigt sich nicht mit dem Menschen, aber der Mensch sich mit G. Und wenn das Gehirn eine Turing-Maschine ist, dann dürften wir die Wahrheit G's nicht "sehen" und unterlägen denselben Grenzen wie eine TM, was nicht der Fall ist.



2. Eine Maschine kann wie von mir beschrieben den Unvollständigkeitssatz beweisen, weil sie *dafür* annehmen kann, daß die Theorie, in der G , der "Zeuge" also des Unvollständigkeitssatzes, konsistent ist.



Kann aber die Wahrheit G's nicht beweisen, da kein Rechenverfahren für existiert. G ist so konstruiert, dass er jede Maschine in einen infiniten Regress schickt. Kein Rechensystem kann schliesslich die semantische Wahrheit und gleichzeitig die Falschheit G's als logisch korrekten Output angeben. Dieses Paradoxon aber ist für uns entscheidbar, da wir G's Metasprache einsehen können, während eine Maschine nur die primitiv-rekursiven Funktionen in G "sieht".



>3. Eine Maschine kann sehr begründet vermuten , daß sie den auf sie angepassten Gödel-Satz nicht beweisen kann, wenn sie die begründete Vermutung hat, daß ihr Weltbild konsistent ist. Dabei unterscheidet sie sich nicht von einem Menschen, der den Gödel-Satz für die Mengenlehre ebenfalls nicht beweisen kann, weil er nicht weiss, ob die Mengenlehre widerspruchsfrei ist und also der gödelsche Unvollständigkeitssatz auf sie anwendbar ist - in der Tat gibt es Mathematiker, die versuchen, zumindest "verstärkte" Systeme der Mengenlehre (z.B. ZFC+AC+Kontinuumshypothese) zum Widerspruch zu führen (ohne viel Hoffnung zu haben, daß das gelingen wird).



Die Mengenlehre ist nicht widerspruchsfrei:

Sei M die "Menge aller Mengen"

Sei N "definiert" als N = {P ? M | P ? P}, also die Menge aller Mengen, die sich nicht selbst als Element enthalten.



Die Frage, ob N ? N ist sinnlos und führt immer zu einem Widerspruch.

Entweder ist N ? N , dann aber N ? N "per definitionem", oder N ? N, dann aber N ? N.



>4. Es ist nicht klar, daß eine Maschine mit der Fähigkeit, unberechenbare Beweis-Operationen durchzuführen, den Grenzen des gödelschen Satzes entkommen könnte. Meiner Meinung nach könnte man beispielsweise wie folgt argumentieren:

>Sei T eine widerspruchsfreie Theorie in einer abzählbaren Sprache L, die es erlaubt, mindestens die Minimal-Arithmetik zu formulieren, die Voraussetzung der gödelschen Unvollständigkeitssätze ist und sei B ein (möglicherweise unberechenbares) Beweisbarkeitsprädikat, d.h. ein Satz S soll in T sein genau dann wenn B('S') in T ist, wobei 'X' die Gu-Nummer ( Gödel Unberechenbar - Nummer ) eines Satzes X aus L ist. Da T mindestens die von Gödel vorausgesetzte Minimal-Arithmetik enthält, sollte es möglich sein, in T eine Funktion sub:NxN--->N zu definieren, die die Eigenschaft hat, daß sub(x,y) die Gu-Nummer desjenigen Satzes ist, der aus dem Satz mit Gu-Nummer x durch Substitution aller freien Variablen durch die Zahl y entsteht.

>Wir wollen jetzt einen Satz G' definieren durch G'=non B(sub(x,x)) und sei n die Gu-Nummer von G'. Dann setze G=non B(sub(n,n)). Nun hat man einerseits G offensichtlich aus G' durch Substitution der einzigen freien Variable x durch die Zahl n bekommen, und also ist die Gu-Nummer von G sub(n,n). Andererseits ist ebenso klar, daß G wahr ist genau dann wenn der Satz mit der Gu-Nummer sub(n,n) nicht zu T gehört. Da T nach Voraussetzung konsistent ist, würde man hier einen Widerspruch bekommen, wenn G in T wäre.

> Also ist G nicht in T und wahr und wir haben nirgends vorausgesetzt, daß das Beweisbarkeitsprädikat von T berechenbar wäre und also können Systeme, die unberechenbare Funktionen beherrschen, dem Gödelschen Satz nicht entkommen.

>Noch mehr, unser Beweis ist für eine Maschine anscheinend genauso gut beweisbar wie der ursprüngliche gödelsche Unvollständigkeitssatz. Folgt man der Argumentation von Penrose, dann hätten wir hier absurderweise gezeigt, daß Turing-Maschinen beliebigen anderen Beweismaschinen, die vielleicht sogar mit unberechenbaren Funktionen umgehen können, überlegen sind, weil wir für jedes Beweis-System, das konsistent und halbwegs ausdrucksstark ist, Sätze angeben können, die das System nicht beweisen kann.

>Natürlich ist in Wirklichkeit die scheinbare Überlegenheit eines Unvollständigkeitssatz-Beweisers über die Systeme, mit denen sich der jeweilige Unvollständigkeitssatz befasst, nur darauf zurückzuführen, daß man dabei die Widerspruchsfreiheit der betrachteten Theorien voraussetzt, was

innerhalb der jeweiligen Theorie zu beweisen wäre.



Das entspricht Gödels Theorem-Beweismaschine. Hier mal die Standpunkte Turings sowie die Gödels:
Turing:"Anders gesagt, eine Maschine kann dann, wenn erwartet wird, daß sie unfehlbar ist, nicht auch intelligent sein. Es gibt mehrere Sätze, die fast genau diese Aussage machen. Aber diese Sätze sagen nichts darüber, wieviel Intelligenz sich zeigen könnte, wenn eine Maschine nicht vorgibt, unfehlbar zu sein."
Gödel:"Andererseits bleibt es auf der Basis des bislang Bewiesenen unmöglich, daß es eine Theorem-Beweismaschine geben könnte (die möglicherweise sogar empirisch zu entdecken ist), welche tatsächlich der mathematischen Intuition gleichwertig ist. Das kann aber nicht bewiesen werden - ebensowenig wie bewiesen werden kann, daß diese Maschine in der Zahlentheorie nur korrekte Sätze liefert."
Was G sicher aussagt ist, dass es unmöglich ist, mathmematische Einsicht in Form einer Berechnung zu codieren, die mit Sicherheit korrekt ist. Das ist eigentlich die natürliche Folgerung aus G. Du vertrittst hier Turings Standpunkt, nachdem der menschliche Geist Algorithmen verwendet, aber diese nicht vollkommen sind - fehlerhaft. Ein seltsamer Standpunkt, denn es geht in unserer Argumentation darum, wie man einen Beweis nachvollziehen und verstehen kann.
Gödel vertritt hier, dass Mathmematiker zwar ein algorithmisches Verfahren verwenden das fehlerfrei ist, wir aber nicht sicher sein können, was fehlerfrei ist. Das "nicht sichere Wissen" ist Gödels Schlupfloch, während bei Turing mit "fehlender Fehlerfreiheit" argumentiert wird.
Unabhängig dieser beiden privaten Meinungen sagt G trotzdem einfach aus: Wenn sich ein rechnerisches Verfahren (zum Beweis von G) als fehlerfrei erweist, kann man sofort etwas konsruieren, das jenseits der Grenze des Verfahrens liegt. Daraus folgt, dass wir eine Prozedur verwenden, von dem wir nicht sicher wissen, ob es konsistent ist + es könnte etwas exisieren, das uns ermöglicht, diese Methode durchzuführen. Nenne zweiters Lernalgorithmus; und dieser scheint mir in keiner TM implementiert zu sein, da seine Natur nicht-rechnerisch sein muss.



>Du sagst weiter:

> Konsistenz impliziert die Wahrheit beweisbarer Sätze nur, wenn man auch Vollständigkeit annimmt.

>Hier verwechselst Du Vollständigkeit und Korrektheit einer Theorie. Eine Theorie heisst vollständig, wenn sie alle Sätze enthält, die von ihr "erzwungen" werden. Sie heisst korrekt, wenn sie keine falschen Sätze enthält. Und sie heisst konsistent, wenn in ihr das Falsum nicht beweisbar ist.

>Vollständigkeit ist dem Gödelschen Satz zufolge für keine halbwegs interessante Theorie zu erreichen. Korrektheit kann man dagegen leicht erreichen, wenn man sich in einem konsistenten Axiomensystem nur an die üblichen Folgerungsregeln hält (oder, ganz trivial, einfach gar keine Aussagen macht). Konsistenz kann man auch in interessanten Theorien erreichen, aber die Konsistenz einer Theorie ist innerhalb der Theorie selbst nicht beweisbar, sondern allenfalls widerlegbar (ist ein Axiomensystem inkonsistent und die Herleitungsrelation berechenbar, dann kann man trivialerweise einen Algorithmus angeben, der in endlicher Zeit eine Herleitung des Falsums liefern wird).



Siehe Argument oben.

Bisher überzeugt mich Dein interessanter pro KI Ansatz (mehr Rechenleistung, dann wird sich Bew. schon einstellen) nicht ganz in Bezug zu den Ergebnissen, die G mit sich zieht.



cheers,

MV
















von Martin V - am 20.09.2000 14:09

Re: Endo, Exo und Gödel

Geschrieben von Janosch am 20. September 2000 17:19:37:
Als Antwort auf: Re: Endo, Exo und Gödel geschrieben von Martin V am 20. September 2000 16:09:30:
Hallo,
>Menschen machen Fehler, können sich über gewisse Mathematische Gegebenheiten irren, können oftmals wie eine Maschine nicht sagen, ob eine Berechnung anhält oder nicht, aber und hier die Ausnahme, sie können einsehen, dass G wahr ist, aber eine Berechnung G's nie anhalten wird.
Erstens: der Beweisversuch zu G terminiert auf geeignet programmierten Rechenmaschinen, sogar wenn sie sich zuverlässiger Beweisverfahren bedienen, wie ich weiter oben dargelegt habe. Für eine Maschine, die mindestens eine Minimal-Arithmetik versteht und sich zuverlässiger Beweisverfahren bedient, kann aber ein Gödel-Satz konstruiert werden, den sie nicht beweisen kann.

Das hängt aber nur damit zusammen, daß sie die Konsistenz des eigenen Axiomensystems nicht beweisen kann, denn wenn sie davon *ausgeht*, daß ihr Axiomensystem konsistent ist, so wie *wir* es beim Beweis des an sie angepassten Gödel-Satzes tun, dann kann auch sie den Gödel-Satz beweisen. Umgekehrt habe ich in meinem letzten Posting bewiesen, daß man ebenso leicht für eine Maschine mit zuverlässigen nichtalgorithmisierbaren Beweisfähigkeiten einen Gödel-Satz konstruieren könnte wie für ein Computerprogramm.

Kurz: Die Behauptung, daß Menschen (meinetwegen intuitiv) irgendwie alles beweisen könnten, ist *nur* dann aufrechtzuerhalten, wenn man zugibt, daß die fraglichen (meinetwegen "intuitiven") menschlichen Fähigkeiten zu Fehlern führen. Ausserdem gibt es keinen empirischen Hinweis darauf, daß wir bessere Theorembeweiser sind als geeignete Turingmaschinen, weil wir beim Beweis des G-Satzes für eine beliebige widerspruchsfreie formale Theorie einfach mehr voraussetzen, als *innerhalb* der fraglichen Theorie beweisbar wäre. Wenn ein Mathematiker A (Mensch oder Turingmaschine) voraussetzen darf, daß ein Mathematiker B (wieder Mensch oder Turingmaschine) ein konsistentes Weltbild hat und mindestens ein Minimum an Arithmetik versteht, dann kann A natürlich Dinge beweisen, die B nicht beweisen kann, weil B das, was A als Beweis-Voraussetzung quasi geschenkt bekommt, nicht beweisen kann.

Zweitens: es gibt nicht einen Gödel-Satz, der von keiner Maschine bewiesen werden könnte, sondern der unbeweisbare Satz muss für jede Maschine anders gewählt werden.
> Sie irren sich nicht, wenn sie die Wahrheit G's behaupten. G beschäftigt sich nicht mit dem Menschen, aber der Mensch sich mit G.
Erstens befasst sich meine Version von G sehr wohl auch mit Menschen.

Zweitens kann ein Mensch G nicht beweisen, wenn er die Konsistenz der Theorie nicht beweisen kann (oder sie, wie im Beweis des Unvollständigkeitssatzes, einfach als Voraussetzung geschenkt bekommt). Darin ist also die Situation des Menschen exakt die gleiche wie die eines KI-Systems.
> (...)

>2. Eine Maschine kann wie von mir beschrieben den Unvollständigkeitssatz beweisen, weil sie *dafür* annehmen kann, daß die Theorie, in der G , der "Zeuge" also des Unvollständigkeitssatzes, konsistent ist.
>Kann aber die Wahrheit G's nicht beweisen, da kein Rechenverfahren für existiert. G ist so konstruiert, dass er jede Maschine in einen infiniten Regress schickt.
Nein, G ist so formuliert, daß er in jeweils einer bestimmten widerspruchsfreien Theorie nicht bewiesen werden kann. Dabei hängt die Unbeweisbarkeit, wie ich in meinem letzten Posting gezeigt habe, nicht davon ab, ob es eine Turing-Maschine gibt, die nacheinander alle in der Theorie enthaltenen Sätze ausdruckt oder nicht. Es sind durchaus auch Theorien betroffen, die die Eigenschaft haben, daß nur ein System mit Fähigkeiten, die über die einer Turing-Maschine hinausreichen, eine Liste aller in ihr enthaltenen Sätze erzeugen kann.

Aber: eine Turing-Maschine kann a) den ursprünglichen Unvollständigkeitssatz beweisen, b) die von mir vorgetragene etwas erweiterte Version des Unvollständigkeitssatzes beweisen und c) für jedes System, das den Anforderungen des von mir in meinem letzten Posting bewiesenen Satzes genügt, einen G-Satz konstruieren, dessen Wahrheit sie beweisen kann, das (möglicherweise unberechenbare!) System, für das der G-Satz konstruiert wurde, aber nicht.
> Kein Rechensystem kann schliesslich die semantische Wahrheit und gleichzeitig die Falschheit G's als logisch korrekten Output angeben. (...)
G ist nicht "falsch", sondern "nicht in der Theorie T enthalten" und wenn T konsistent ist, was man für den Beweis voraussetzen muss, dann kann eine Turing-Maschine den Satz sehr wohl beweisen, auch wenn sie zuverlässige Beweisverfahren benutzt - siehe mein Posting weiter oben.


>Die Mengenlehre ist nicht widerspruchsfrei:

>Sei M die "Menge aller Mengen"
Das System aller Mengen ist selbst keine Menge, sondern eine echte Klasse.



>Sei N "definiert" als N = {P ? M | P ? P}, also die Menge aller Mengen, die sich nicht selbst als Element enthalten.
Das ist auch keine Menge, sondern die Russel-Klasse.
>(...)
>Das entspricht Gödels Theorem-Beweismaschine.
Ja, aber mein Punkt ist hier eben, daß man für das Beweisbarkeitsprädikat auch einsetzen kann "ist für Penrose einsichtig", selbst falls Penrose Beweis-Fähigkeiten haben sollte, die deutlich über die einer Turingmaschine hinausgingen.

Also: entweder, Penroses Beweisfähigkeiten sind nicht zuverlässig in dem Sinne, daß er manchmal Falsches beweist. Oder es gibt einen Gu-Satz für Penrose, den Penrose nicht beweisen kann, den aber wir (und auch ich als komplexe Turingmaschine) beweisen können unter der Voraussetzung, daß Penrose keine Fehler macht.
> Hier mal die Standpunkte Turings sowie die Gödels:

>Turing:"Anders gesagt, eine Maschine kann dann, wenn erwartet wird, daß sie unfehlbar ist, nicht auch intelligent sein. Es gibt mehrere Sätze, die fast genau diese Aussage machen. Aber diese Sätze sagen nichts darüber, wieviel Intelligenz sich zeigen könnte, wenn eine Maschine nicht vorgibt, unfehlbar zu sein."
Das ist genau meine Haltung :)))).
>Gödel:"Andererseits bleibt es auf der Basis des bislang Bewiesenen unmöglich, daß es eine Theorem-Beweismaschine geben könnte (die möglicherweise sogar empirisch zu entdecken ist), welche tatsächlich der mathematischen Intuition gleichwertig ist. Das kann aber nicht bewiesen werden - ebensowenig wie bewiesen werden kann, daß diese Maschine in der Zahlentheorie nur korrekte Sätze liefert."
Gödel selbst gibt hier ja zu, daß er eine Privatmeinung ausdrückt...

Im Gegensatz übrigens zu Penrose, der seine lückenhafte Argumentation nicht als Privatmeinung verkauft.

Überdies sehe ich in der Tat nicht, was mich daran hinern sollte, einen Gödel-Satz zu konstruieren, der explizit darauf ausgerichtet ist, mit "mathematischer Intution" nicht beweisbar zu sein, falls diese nicht manchmal zu falschen Ergebnissen führt. Und das unabhängig davon, ob die "mathematische Intuition" auf berechenbaren Prozessen beruht oder nicht.
>Was G sicher aussagt ist, dass es unmöglich ist, mathmematische Einsicht in Form einer Berechnung zu codieren, die mit Sicherheit korrekt ist.
Aus dem Beweis in meinem letzten Posting folgt, daß es zu einem beliebigen unfehlbaren Theorembeweiser, egal ob sein Denkprozess algorithmisierbar ist oder nicht, einen Satz gibt, den der Theorembeweiser nicht beweisen kann, wir aber unter der Voraussetzung der Unfehlbarkeit des Theorembeweisers schon, wenn der Theorembeweiser zum Beweisen nur eine abzählbare Sprache benutzt und ein bisschen Arithmetik kennt.
> Das ist eigentlich die natürliche Folgerung aus G. Du vertrittst hier Turings Standpunkt, nachdem der menschliche Geist Algorithmen verwendet, aber diese nicht vollkommen sind - fehlerhaft.
Ja, aber diesen Standpunkt vertrete ich, weil Menschen wirklich Fehler machen und ich selbst als Mathematik-Student immer wieder die Erfahrung gemacht habe, daß ich bei Beweisversuchen manchmal in Schein-Widersprüche laufe. Das dürfte nicht passieren, wenn meinem mathematischen Denken ein perfektes (berechenbares oder nicht berechenbares) Beweissystem zugrunde läge.

Um zu erklären, wieso Menschen die Gödelschen Unvollständigkeitssätze beweisen können, brauche ich diese Erwägung gar nicht, siehe das Posting, in dem ich beschrieben habe, wie eine fehlerfreie Maschine sogar mit dem auf sie angepassten G-Satz umgehen könnte (wenn auch das natürlich ohne ihn zu beweisen).
>(...)

>Unabhängig dieser beiden privaten Meinungen sagt G trotzdem einfach aus: Wenn sich ein rechnerisches Verfahren (zum Beweis von G) als fehlerfrei erweist, kann man sofort etwas konsruieren, das jenseits der Grenze des Verfahrens liegt.
Ja, das kann man. Aber beim Beweis dieser Tatsache spielt die Algorithmisierbarkeit des Beweisverfahrens keine Rolle.
> (...) Nenne zweiters Lernalgorithmus; und dieser scheint mir in keiner TM implementiert zu sein, da seine Natur nicht-rechnerisch sein muss.
Von welchem Lernalgorithmus sprichst Du hier?

Und warum muss ein effizientes Lernverfahren nichtalgorithmisch sein?
Grüße,

Janosch.
















von Janosch - am 20.09.2000 15:19

Konsistenz? Semantik und die Sache mit Gödel

Geschrieben von Sam am 20. September 2000 19:09:10:
Als Antwort auf: Re: Endo, Exo und Gödel geschrieben von Janosch am 20. September 2000 17:19:37:
Hallo,
ich möchte mich hier kurz einschalten. Mir scheint, Janosch würde nur davon ausgehen, dass G nur dann bewiesen werden könne, wenn man Konsistenz annimmt.
Wenn S konsistent ist, dann ist G wahr.

G sagt aus er sei nicht wahr.

G ist wahr und ein Satz des Systems (hier Konsistenz-Annahme).

G sagt aus, er sei nicht wahr (hier setzt schon "Einsicht" ein - unabhängig der Konsistenz-Annahme)

Also ist G ein Satz woraus folgt daß er kein Satz ist (Unentscheidbarkeit)
Unentscheidbarkeit da zugleich Satz / nicht Satz (kein Rechenverfahren könnte dieses Paradox lösen -- also entscheiden, ob er ein Satz ist oder kein Satz. Hier sind die einfachen Grenzen der Berechenbarkeit. Aus der Konsistenz-Annahme folgt nur, daß G ein Satz des Systems sein muß und diese K-Annahme ist kein objektiver Beobachter, sondern Konsequenz der Definition formaler Systeme. Konsistenz ist ein logisches Naturgesetz formaler Systeme.
Die Tatsache aber, daß G wahr ist [Ich bin nicht beweisbar] (in natürlicher Sprache), hat nichts mit Konsistenz-Anahmen zu tun sondern ist definiert durch die Fähigkeit menschlicher Gehirne zu Semantischen Prozessen. Dies ist der Auslöser zur Ereknnung des Gödelschen Satzes, nicht aber objektive Konsistenz-Annahmen eines Logikers oder der einfachen Einspeisung in ein Programm "Ich bin konsistent".
Es mag zwar Algorithmen geben, die G konstruieren können, aber keine derzetig bekannten Algorithmen, die G beweisen könnten. Das ist der Punkt und eigentlich sehr einsichtig.
Somit muß ich Martin recht geben, auch wenn ich nicht seiner Meinung bin, daß die Fähigkeit zu "semantischer Einsicht" nicht-rechnerisch sein muß. Aber sie kann. Serales Chinesisches Zimmer (das unterschätzt wird) zeigt noch einfacher den Unterschied zwischen Syntax und Semantik.
Nicht zu vergessen sei, wie Martin ebenfalls schrieb, daß wir über arithmetische Relationen sprechen, die metamathematisch (somit schon semantisch) interpretiert werden.
Interessanter wäre, Janosch, wenn Du uns erklärst, wie man semantische Metasprachen in Deine T Maschine, die den G Beweis konstruieren soll, einführen sollte.
Liebe Grüße (Martin, kennst Du mich noch?) an alle,

Sam


















von Sam - am 20.09.2000 17:09

Re: Konsistenz? Semantik und die Sache mit Gödel

Geschrieben von Janosch am 20. September 2000 20:36:29:
Als Antwort auf: Konsistenz? Semantik und die Sache mit Gödel geschrieben von Sam am 20. September 2000 19:09:10:
Hallo,
>ich möchte mich hier kurz einschalten. Mir scheint, Janosch würde nur davon ausgehen, dass G nur dann bewiesen werden könne, wenn man Konsistenz annimmt.
Das ist richtig. G kann ohne die Konsistenz-Annahme (oder einen Konsistenz-Beweis für die betrachtete Theorie) nicht bewiesen werden, falls der, der den Beweis führt, ein konsistentes Weltbild hat.

Der Grund hierfür liegt darin, daß G in einer inkonsistenten Theorie falsch wird, weil in einer solchen alles beweisbar wird, wie man wiederum formal leicht zeigen kann.
>Wenn S konsistent ist, dann ist G wahr.

>G sagt aus er sei nicht wahr.
Nein. G sagt aus, er sei nicht im Sinne des Beweisbarkeitsprädikats der betrachteten Sprache beweisbar. Aus dem Unvollständigkeitssatz folgt dann, daß der Wahrheitsbegriff für eine hinreichend ausdrucksstarke Sprache schwächer ist als der Beweisbarkeitsbegriff für diese Sprache (es gibt Dinge, die wahr aber nicht beweisbar sind) und daß jeder Versuch, ein Wahrheitsprädikat für eine solche Sprache in der fraglichen Sprache selbst zu definieren, egal wie man das versucht (auch mit nichtalgorithmischen Entscheidungsverfahren) zu Inkonsistenzen führen muss.
>G ist wahr und ein Satz des Systems (hier Konsistenz-Annahme).
Also, ich gebe hier einfach noch einmal an, wie der Beweis des Unvollständigkeitssatzes aussieht, damit man mir erklären kann, wo da Schritte vorkommen sollen, für die man mehr können muss als berechenbare Funktionen zu berechnen:
Behauptung: Sei L eine Sprache, T Theorie, abgeschlossen unter formaler Beweisbarkeit, in L mit (nicht notwendigerweise mit dem formalen Beweisbarkeitsprädikat identischem) Beweisbarkeitsprädikat B, die konsistent ist und mindestens Arithmetik enthält. Dann gibt es einen Satz in L, der mit Hilfe der Konsistenzannahme bewiesen werden kann, aber nicht in T ist. Speziell folgt, daß keine Theorie mit den genannten Eigenschaften die eigene Konsistenz behauptet.

Beweis: Betrachte G':=non B(sub(x,x)) und setze n gleich der Gu-Nummer dieses Satzes. Setze G als die L-Formel, die man aus G' erhält, wenn alle freien Variablen in G' durch n ersetzt werden. Dann G=non B(sub(n,n)). Nun berechne die Gu-Nummer von G: Gu(G)=sub(Gu(G'),n)=sub(n,n). Angenommen nun, G ist in T. Dann B(sub(n,n)) nach Definition von B: X in T genau dann wenn B(Gu(X)). Aber auch non B(sub(n,n)) nach Annahme und es folgt Falsum in T, also T inkonsistent. Widerspruch zur Annahme der Konsistenz, damit fertig.

Bleibt zu zeigen, daß die Konsistenzaussage selbst nicht in T enthalten ist. Sei f die Gu- Nummer des Falsums und angenommen, non B(f) ist in T. Dann zeige exakt wie oben, daß G in T ist und man bekommt einen Widerspruch.
> Aus der Konsistenz-Annahme folgt nur, daß G ein Satz des Systems sein muß und diese K-Annahme ist kein objektiver Beobachter, sondern Konsequenz der Definition formaler Systeme. Konsistenz ist ein logisches Naturgesetz formaler Systeme.
Ich verstehe zwar nicht, was Du damit meinst, aber es gibt auch inkonsistente formale Systeme. Beispielsweise ein System, das in einer beliebigen Sprache formuliert wurde und als einziges Axiom das Falsum hat.
>Die Tatsache aber, daß G wahr ist [Ich bin nicht beweisbar] (in natürlicher Sprache), hat nichts mit Konsistenz-Anahmen zu tun sondern ist definiert durch die Fähigkeit menschlicher Gehirne zu Semantischen Prozessen.
Ich kann nur wiederholen, daß der Satz objektiv beweisbar wird, wenn er in einem inkonsistenten System formuliert wird. Das liegt daran, daß man leicht zeigen kann, daß sich mit dem Falsum alles beweisen läßt.
>Es mag zwar Algorithmen geben, die G konstruieren können, aber keine derzetig bekannten Algorithmen, die G beweisen könnten. Das ist der Punkt und eigentlich sehr einsichtig.
"G" ist nicht ein Satz, sondern abhängig von der jeweiligen Theorie, in der er formuliert wird. Richtig ist, daß es keinen Algorithmus geben kann, der nur korrekte formale Beweise produziert und den für ihn konstruierten Gödelschen Satz beweist.

Man kann aber auch für Menschen gödelsche Sätze konstruieren, beispielsweise den Satz "Die Mengenlehre ist widerspruchsfrei" (Äquivalent zum Gödelschen Satz für die Mengenlehre) und wir können den auch nicht beweisen.
>(...) Aber sie kann. Serales Chinesisches Zimmer (das unterschätzt wird) zeigt noch einfacher den Unterschied zwischen Syntax und Semantik.
Hast Du irgendein Argument gegen die These, daß das Gedankenexperiment vom chinesischen Zimmer etwas Anderes sei als ein einfacher Zirkelschluss?
>(...)

>Interessanter wäre, Janosch, wenn Du uns erklärst, wie man semantische Metasprachen in Deine T Maschine, die den G Beweis konstruieren soll, einführen sollte.
Ich weiss nicht, was Du hier unter einer "semantischen Metasprache" verstehen willst.
Grüße,

Janosch.
















von Janosch - am 20.09.2000 18:36

Aus "F widerspruchsfrei" folgt "G(F)"

Geschrieben von Martin V am 22. September 2000 19:58:20:
Als Antwort auf: Re: Konsistenz? Semantik und die Sache mit Gödel geschrieben von Janosch am 20. September 2000 20:36:29:
Hi Janosch (bist Du der Janosch aus dem Forum "Mathe macht Spass"?),





Aus "F widerspruchsfrei" folgt "G(F)"



Eigentlich ein sehr einfacher Satz, der (wie Du behauptest) sehr wohl algorithmisch zu entscheiden ist (Konsistenz - Annahme).
Wenn man von der Korrektheit von F überzeugt sind, können wir auf G(F) schliessen. Wenn man die Bedeutung der Symbole versteht, kann man tatsächlich von F auf G(F) schliessen.
Aber was, wenn wir versuchen, ohne Deutungen oder Annahmen, sozusagen "automatisch" (auch algorithmisch) von F auf G(F) übergehen? Wenn dies möglich wäre (und dafür plädierst Du), könnte man die allgemeine "Gödelisierung" automatisieren und eine Maschine bauen, die alles umfasst, was wir von G(F) erwarten.
Dies scheint mir einfach unmöglich, denn wenn man dieses algorithmische Verfahren zu dem ursprünglichen System F hinzufügt, erhält man lediglich ein neues System F$ und seine Gödelaussage G(F$) liegt ausserhalb der Reichweite von F$.
Es bleibt einfach immer ein Aspekt der von Gödel geleisteten Erkenntnis übrig, egal wieviel davon in ein formalisierstes oder algorithmisches Verfahren eingebaut wurde.
Die "Gödelsche Einsicht" erfordert einen Bezug auf die Symbolbedeutungen des Systems, auf das Gödels Verfahren angewendet wird.
Nochmals:
Aus "F widerspruchsfrei" folgt "G(F)"
Diese Feststellung bedeutet tatäschlich, dass somit "G(F)" ebenfalls bewiesen ist. Jede Feststellung, die F macht, hängt wie wir ja wissen, von der Annahme ab, dass F auf jeden Fall korrekt ist; Wenn F also etwas behauptet, dass ausdrücklich von seiner eigenen Korrektheit abhängt, könnte es das auch gleich direkt behaupten ("Wenn man mir glauben kann, ist x wahr" enthält die einfachere Behauptung "x ist wahr").
Ein korrektes formales System F kann jedoch nicht wirklich G(F) behaupten, denn damit kommt die Tatsache zum Ausdruck, dass es nicht seine eigene Korrektheit /Konistenz behaupten kann.



cheers,

MV

















von Martin V - am 22.09.2000 17:58

Re: Aus "F widerspruchsfrei" folgt "G(F)"

Geschrieben von Janosch am 23. September 2000 01:48:56:
Als Antwort auf: Aus geschrieben von Martin V am 22. September 2000 19:58:20:
Hallo,
> (bist Du der Janosch aus dem Forum "Mathe macht Spass"?),
Ja ;).
>Aus "F widerspruchsfrei" folgt "G(F)"
Das ist richtig.
>Eigentlich ein sehr einfacher Satz, der (wie Du behauptest) sehr wohl algorithmisch zu entscheiden ist (Konsistenz - Annahme).
In diesem Punkt bin ich mir inzwischen sogar absolut sicher, falls mein mathematisches Anschauungssystem konsistent ist, was ich sehr stark vermute *ggg*.
>Wenn man von der Korrektheit von F überzeugt sind, können wir auf G(F) schliessen.
Unter der Voraussetzung, daß F wirklich korrekt ist, können wir auf G(F) schliessen, ja. Wenn wir nur davon "überzeugt" sind, F sei konsistent, ohne einen mathematischen Beweis hierfür zu haben, gelangen wir nur zu einer begründeten Vermutung über G(F).
> Wenn man die Bedeutung der Symbole versteht, kann man tatsächlich von F auf G(F) schliessen.
Nicht ohne die Konsistenz-Annahme.
>Aber was, wenn wir versuchen, ohne Deutungen oder Annahmen, sozusagen "automatisch" (auch algorithmisch) von F auf G(F) übergehen? Wenn dies möglich wäre (und dafür plädierst Du), könnte man die allgemeine "Gödelisierung" automatisieren und eine Maschine bauen, die alles umfasst, was wir von G(F) erwarten.
Das geht auch. Ich sehe keinen Grund dafür, daß eine Maschine unter der Voraussetzung, daß ihr Anschauungssystem konsistent sei, nicht durch transfinite Induktion beweisen könnte, daß dann ihr Gödel-Satz und alle durch fortschreitende Gödelsierung konstruierbaren Sätze richtig sind - zumindest, wenn ihr Axiomensystem mindestens die Zermelo-Fraenckelsche Mengenlehre umfasst.

Aber: eine Maschine mit konsistentem Weltbild kann nicht mit absoluter Sicherheit davon überzeugt sein, daß ihr Weltbild konsistent ist. Nach dem Argument, das ich weiter oben in diesem Thread angegeben habe, sollte das auch auf Maschinen zutreffen, die unberechenbare Beweisoperationen durchführen können.

Also kann ein unfehlbarer Theorembeweiser den Gödel-Satz seiner eigenen Theorie nicht für "mit absoluter Sicherheit richtig" halten.
>Dies scheint mir einfach unmöglich, denn wenn man dieses algorithmische Verfahren zu dem ursprünglichen System F hinzufügt, erhält man lediglich ein neues System F$ und seine Gödelaussage G(F$) liegt ausserhalb der Reichweite von F$.
Du übersiehst hier die Tatsache, daß eine Maschine mit konsistentem Weltbild (im Gegensatz zu Penrose) ihr eigenes Weltbild nicht für mit absoluter Sicherheit konsistent halten kann.

Anders gesprochen: jedes Wesen (auch wenn es unberechenbare Prozesse benutzen kann, um Dinge zu beweisen), das behauptet, es wisse sicher, daß es unfehlbar sei, ist in Wahrheit fehlbar.



>(...)

>Diese Feststellung bedeutet tatäschlich, dass somit "G(F)" ebenfalls bewiesen ist. Jede Feststellung, die F macht, hängt wie wir ja wissen, von der Annahme ab, dass F auf jeden Fall korrekt ist; Wenn F also etwas behauptet, dass ausdrücklich von seiner eigenen Korrektheit abhängt, könnte es das auch gleich direkt behaupten ("Wenn man mir glauben kann, ist x wahr" enthält die einfachere Behauptung "x ist wahr").
Nein - die Aussage "Wenn ich unfehlbar bin, ist x wahr" ist eindeutig schwächer als die Aussage "X ist wahr" *g*. Der Gödelsche Satz sagt uns nun, daß ein hinreichend intelligentes Wesen gerade an der Tatsache, daß es meint, die eigene Unfehlbarkeit beweisen zu können, die eigene Fehlbarkeit feststellen kann. Demnach wäre das Scheitern bei dem Versuch, die eigene Unfehlbarkeit zu beweisen, für ein genügend intelligentes Wesen geradezu eine Bestätigung der These, daß es vielleicht hoffentlich tatsächlich unfehlbar ist *gg*.
>Ein korrektes formales System F kann jedoch nicht wirklich G(F) behaupten, denn damit kommt die Tatsache zum Ausdruck, dass es nicht seine eigene Korrektheit /Konistenz behaupten kann.
Ich folgere daraus, daß Penrose nicht korrekt ist, weil er in gewisser Weise ja behauptet, die eigene Unfehlbarkeit "jenseits allen Zweifels" einsehen zu können. Dabei wird gerade durch die Penrose-Debatte die Fehlbarkeit menschlicher Mathematiker bewiesen, da Penrose unter Mathematikern Kritiker hat und selbst ein Mathematiker ist und also zumindest manche Mathematiker über längere Zeit falsche mathematische Überzeugungen haben, was hinwiederum Penroses Überlegungen zur Zuverlässigkeit "nichtformaler" mathematischer Überlegungen widerlegen dürfte *grin*.
Grüße,

Janosch.
















von Janosch - am 22.09.2000 23:48

Re: Aus "F widerspruchsfrei" folgt "G(F)"

Geschrieben von Martin V am 13. Oktober 2000 23:37:24:
Als Antwort auf: Re: Aus geschrieben von Janosch am 23. September 2000 01:48:56:
Fortsetzung:
Hier
















von Martin V - am 13.10.2000 21:37
Zur Information:
MySnip.de hat keinen Einfluss auf die Inhalte der Beiträge. Bitte kontaktieren Sie den Administrator des Forums bei Problemen oder Löschforderungen über die Kontaktseite.
Falls die Kontaktaufnahme mit dem Administrator des Forums fehlschlägt, kontaktieren Sie uns bitte über die in unserem Impressum angegebenen Daten.