Mimesis Project- Fall für Konstruktivisten?

Startbeitrag von Martin V am 17.10.2000 14:40

Geschrieben von Martin V am 17. Oktober 2000 16:40:39:
Grüsse Kay,



Ich bin das Erste mal etwas happy (auch ich bin *konsenssüchtig*). Und zwar über Deine Interpretation des G-Satzes, der wenigstens ansatzweise mit meiner Interpretation des G-Satzes konform geht. Es ist wie (wieder einmal ein Prinzip) das Relativitätsprinzip aus dem Gebiet des Konstruktivismus. Es besagt, dass eine Hypothese, die für A und B richtig ist, nur dann akzeptabel sein kann, wenn sie für A und B auch zusammen gilt. Dieses Prinzip ist weder wahr noch falsch, sondern die Frage ist, ob man es akzeptiert oder nicht. Das ist eine Entscheidung, die jeder für sich treffen muss. A und B können sich entscheiden, ob G wenigstens nur, out-of-the-system wahr ist, oder nicht. Dieses Prinzip ist schon für sich an einen erkennenden Beobachter gebunden. Desweiteren, wie Du weiter unten formulierst, ist auch die Wahrheit G`s partiell an einen erkennenden Beobachter (der "aus" dem System springt, mit dem er sich befasst) gebunden oder gekoppelt.



Man kann das so sehen. Die Wahrheit von g ist das Ereignis, dass

genau dann eintritt, wenn wir uns bewusst werden, dass wir F verlassen

haben.



Und genau diese Formulierung ist es, die mir gefällt -- wunderbar. Nun musst Du auch zu dieser Formulierung stehen. Denn dann müsstest Du auch etwas anderes akzeptieren, dass ich erst nach diesen Deinen Gedanken schreibe:



Wenn wir über Gödels Satz reflektieren, so können wir

diese Reflexion ihrerseits wieder formalisieren. Dieser Vorgang spielt

sich zwar außerhalb des formalen Systems ab, für das g bewiesen

wird, trotzdem kann der Anschlussformalismus, wie Janosch richtig behauptet,

mit den sprachlichen Mitteln der Mengenlehre und der mathematischen

Logik generiert und dann von einer Turing-Maschine implementiert werden.



Wir reflektieren Gödels Satz, und im Moment des Systemaustritts und der Bewusstwerdung dieses Austritts, ensteht das Ergebnis "Wahr".
Die Reflexion, die uns dazu brachte, aus dem System zu springen, mit dem wir uns befassen, kann nach Deiner Ansicht formalisiert werden; wenn auch diese Formalisierung noch ausserhalb des Systems stattfindet. Das bedeutet wiederum, dass genau dieser Anschlussformalismus ausserhalb des Systems konstruiert wird und später wieder in das F -System gebracht wird.
Das trifft genau eine Argumentation, nämlich Gw

bis Gw ^ w

et cetera.
Bringt aber nicht viel, denn für jedes G1,2,3 in F1,2,3 lässt sich in jedem F-System die Wahrheit erst wieder durch einen Systemsprung nach draussen erkennen. Dann konstruieren wir wieder in Exo (mit Hilfe des Reflexionsprinzips) und führen in Endo ein. Der erwähnte Anschlussformalismus ist die systeminterne Wirkung, deren Ursache und Konstruktion immer ausserhalb dieses Systems zu finden ist. Und ausserhalb des Systems steht immer jemand, dem bewusst wird, dass er bei jedem G(F) dieses F verlässt. Ich kann da wirklich nur mit Lucas sprechen, denn es ist einfach wahr: In diesen Fall (Gw) hat derjenige, der mit dem System operiert und somit auch ausserhalb des Systems, mit dem er sich beschäftigt steht und gleichzeitig darüber nachdenkt, also zwei Perspektiven einzunehmen vermag, kurz, der Beobachter, immer das letzte Wort, während das F in Unentscheidbarkeiten schweigen muss. The mind wins.



Ich kann mir gut vorstellen, dass die Kooperation zwischen KI und Programmierer

enger ist, als in den meisten KI-Systemen.



Eine echte KI sollte von einem Programmierer nicht absolut abhängig sein. Sie sollte ihren Input aus der Umwelt erhalten.



Ich würde schon froh sein, wenn eine ELIZA-artige KI in der Lage

wäre dem Programmierer intelligente Fragen zu stellen, wenn

sie nicht weiter weiß, aus den Antworten des Programmierers auch

zu lernen verstünde. Die Schwierigkeit besteht im Augenblick

darin, dass der Programmierer nicht weiß, wie er seine KI durch

einen solchen Dialogprozess lernen lassen kann. Sie müsste ja

mit der Zeit ein verbessertes Antwortverhalten zeigen. Wie meine Erfahrung

mit A.L.I.C.E. gezeigt hat, kommt es aber nicht dazu.



Wie steht es da mit Janosches besten Freund CYC ?



Ah! Dir genügt wohl ein gut geschriebener Exceptionhandler nicht mehr!

Wie wäre es denn mit folgender Variante des Turing-Test:

Gegeben sei ein Blackboxsystem, dass eine Reihe von Problemen zur Verfügung

stellt, die sowohl von Menschen, als auch Maschinen gelöst werden können. Zur Verfügung steht nur eine Maus. Eine Maschine, die an dem Test teilnimmt hat keine direkte Verbindung zu der Blackbox, sondern kann, genauso wie der menschliche Benutzer, nur den Screen und die Maus als Interface benutzen.

Die Blackbox erklärt an einigen Beispielen, wie Aufgaben des betreffenden

Typs gelöst werden können. Sowohl der Mensch, als auch die Maschine können dieses beispielgebende Programm beliebig oft aufrufen. Es ist das einzige, was sie haben, um die Aufgabenstellung zu begreifen. Sowohl der Mensch, als auch die Maschine haben ein gewisses Kontingent an Rechenzeit. Wir können der Maschine einen Vorsprung geben, indem wir sagen, dass ein Problem, für das ein Mensch eine Minute Zeit für eine Überlegung hat, der Maschine ein Tag

(also das ca. Tausendfache) eingeräumt wird ( das für alle,

die Janoschs Argument befürworten, man müsse nur die Rechenpower

erhöhen, schon läuft das ganze wie am Schnürchen). Auf diese

Weise könnte man den IQ einer KI , mit dem eines Menschen vergleichen.

( Ich vermute, eine ausgereifte Form von Mimesis könnte

den Menschen bei diesem Intelligenztest übertreffen, auch auf heutigen

Rechnern, sofern die Bilder auf dem Bildschirm nicht zu komplex sind -

keine bewegten dreidimensionalen Szenen usw. )



Sozusagen eine Ausgleichsvariante des Turing-Tests zwischen Maschine und Gehirn, d.h. einigermassen gleiche Voraussetzungen zu schaffen. Für Gehirne wie für Maschinen. Aber dieser versuchte Ausgleich ist keiner mehr, wenn das Interface in Bezug zu den repräsentierten Bildern auf dem Bildschirm, von denen Mensch und Maschine u.a. ihre Protoinformation bekommen, asymmetrisch zu den Leistungen des Gehirns/ der KI - stehen (denn wir wissen bei diesen Test bereits, dass derzeit eine KI in Bezug zu visueller Repräsentation oder er-rechnung seiner Umwelt, oder Wahrnehmung seiner Umwelt, dem Gehirn unterlegen ist). Es genügt nicht, einer KI ne Kamera (wie Putnam behauptet) zuzufügen, die die Informationen auf dem Screen codiert und in sein Programm "aufnimmt". Bediene ich mich den derzeitigen Erkenntnissen der Neuropsychologie, dann ist diese Art von Wahrnehmung alles andere als menschliche Wahrnehmung. Somit wäre der Kay-Test ein Test, den man in näherer Zukunft anwenden könnte, falls die KI die genannten Anforderungen dann auch erfüllt. Derzeit aber haben wir in Bezug auf kognitive Leistungen zwischen KI /Gehirn klaffende Schächte, auch wenn ein CYC nach Janosch zwischen diesen Schächten schon eine Brücke gebaut hätte, ws ich nicht glaube.
Ansonsten ist der Kay-Test trotzdem um einiges "fairer", als der Turing-Test.



In obigem Falle könnte man der KI eine Reihe von Handlungsmustern

vorlegen, die sehr typisch sind für Systeme, die auf Algorithmen

beruhen. Dann sollte sie jene auswählen, in denen sie sich erkennen

kann und eine kurze Antwort geben, warum sie meint, dass sie das ist, was

sie da vor sich sieht. Hierbei können natürlich nur KI-Systeme

gegeneinander antreten und nicht KI gegen Mensch.



Dies erinnert mich tatsächlich an Prof. Metzingers "Rouge-Test". Den Hyperlink, so denke ich, hast wahrscheinlich schon angeklickt.



Das liefert ein sehr einfaches Beispielproblem für die Blackbox.

z.B. übereinanderliegende farbige Scheiben. Es gibt, sagen wir drei

Farben und das System soll herausfinden, aus einem Haufen zufällig

verteilter Scheiben, welcher Farbe die meisten Scheiben angehören.

Die Blackbox zeigt an einem Beispiel, wie sich das Problem lösen lässt.

Dann können die Systeme gegeneinander antreten.



Wunderbar. Ein Kleinkind z.b. gegen eine KI mit dieser Aufgabenstellung. Ich stelle mir diese Konstellation unheimlich interessant vor (ist sie sicherlich auch für Psychologen, Neuropsychologen, Kognitionswissenschaftler, Neuroinformatiker, Mathematiker -- in der Tat ein multidisziplinäres Projekt). Kay, bitte schreibe endlich Mimesis.



Es ist der Nexus zwischen Wahrnehmung und Denken der interessant ist:

wir empfangen Daten, erzeugen daraus Wahrnehmungen und

schaffen dann Algorithmen (oder Handlungsmuster) . Jedes System, dass

am "Kay-Test" teilnimmt muss diese Sequenz durchlaufen können.



Ja, die Wahrnehmung. Es gibt einen Reiz oder eine Störung. Das ist alles, was eine Nervenzelle mitteilt. Aber die Ursache dieser Störung ist unklar, sie wird nicht spezifisch codiert. Man könnte z.b. die Faser eines Sehnnervs mit Essigsäure reizen - und würde womöglich einen farbigen Lichtfleck wahrnehmen.

Oder man reize eine Geschmackspapille mit ein paar Volt über eine Elektrode; dann könnten wir den Geschmack von Essig empfinden.
In diesen Kontext ist es grotesk, von einer Abbildung der Aussenwelt in der Innenwelt zu sprechen: Essig wird ein Farbklecks, Elektrizität zu Essig!
Wir wissen nicht, ob es "dort draussen" Farben oder Gerüche gibt. Es ist nicht der Reiz, der die Zelle erregt (der Input, zu dem wir keinen Zugang haben können; Kants Welt per se), der unseren Reichtum an Wahrnehmungen bildet, sondern jegliche menschliche Wahrnehmung ist Ergebnis einer internen Weltsimulation; Simulation und Welt per se (Wirklichkeit) haben sich im Laufe der evolutionären Entwicklung des Gehirns einander ausgeglichen, wobei dieser Ausgleich nur notwendigerweise auf das Überleben eines Organismus ausgerichtet ist. Es gibt also sehr wohl noch Welten zwischen Simulation und Wirklichkeit, zu der wir leider keinen Zugang haben können.
Die Qualitäten der Sinneseindrücke werden nicht im Empfangsapparat codiert, sondern im Zentralnervensystem. Dort werden sie erst irgendwie er-rechnet.
Die konstruktivistische Konsequenz für wahrnehmende KI muss sein, dass eine solche KI eine Welt simulieren muss. Und dieser Welt muss sie etwas "aus sich selbst zufügen". Beispiel:
A: Da draussen ist ein rotes Objekt!

B: Woher wissen sie, dass dieses Objekt rot ist?

A: Weil ich es sehe!
Dass bedeutet, man schliesst von dem was man sieht, auf das, wasdraussen sein soll. Die Farbe rot ist nicht dort draussen. Sie ist das Ergebnis einer wie-auch-immer er-rechnung. Es muss schwer sein, einer KI, damit wir uns mit ihr unterhalten können (z.b. Kay-Test, Janosch-Test, Turing-Test), solche

Qualitäten zu geben. Der Algorithmus für diese Art von Wahrnehmung muss ungeheuer kompliziert sein, denn wir, die wir uns das Gehirn ansehen, können immer noch nicht sagen, wie Wahrnehmung vor alllem in diesen konstruktivistischen Kontext zustande kommt. Mit einer Kamera + Maschine like Putnam ist es wahrlich nicht getan.
Es gibt unendlich viele solcher Probleme, die ich nicht alle in diesem Posting jedenfalls, anreissen kann. U.a. kämen wir aus den von mir dargelegten Ansatz sofort auf eine Ebene, die "Cybernetics order²" genannt wird, und von dort wiederum auf eine Disziplin, die Endophysik genannt wird, die sich u.a. mit dem Interface Gehirn / Welt befasst (Subjekt - Objekt; der Weltknoten) ect.
Ich habe deshalb meine Zweifel, ob der interessante Kay-Test in naher Zukunft (obwohl ich oben schrieb, "in naher Zukunft möglich"; habe es an dieser Stelle revidiert) überhaupt auf ungefähr gleichwertiger Basis KI / Gehirn anwendbar sein wird.



Apfelstrudel? Hmmm... lecker!



*g* Mahlzeit,

MV

















Antworten:

Zur Information:
MySnip.de hat keinen Einfluss auf die Inhalte der Beiträge. Bitte kontaktieren Sie den Administrator des Forums bei Problemen oder Löschforderungen über die Kontaktseite.
Falls die Kontaktaufnahme mit dem Administrator des Forums fehlschlägt, kontaktieren Sie uns bitte über die in unserem Impressum angegebenen Daten.