Diese Seite mit anderen teilen ...

Informationen zum Thema:
Forum:
Das Weltknotenforum
Beiträge im Thema:
19
Erster Beitrag:
vor 17 Jahren, 6 Monaten
Letzter Beitrag:
vor 17 Jahren, 6 Monaten
Beteiligte Autoren:
Zettel, Martin V, Sven, karaya, Irrläufer, sascha

Non Serviam

Startbeitrag von Martin V am 12.01.2000 20:51

Geschrieben von Martin V am 12. Januar 2000 21:51:02:
Weiterführung des Irrläufer Threads:




Für mich stellen sich nun folgende neue Fragen.

1. Wie definiert man Organismus?

2. Wie läßt sich das mit sich das mit der KI - Forschung in einklang bringen?

(Oder braucht KI keine phänomenalen Zustände?)


Hi Irrläufer!
"Wie ist es, x zu sein?"
Diese Frage sei eine Abwandlung der 1. Definition, und stammt von Thomas Nagel (What is it like to be a bat?)
Die Kritik daran: Man kann x durch alles substituieren, wie z.b. in der Frage:
Wie ist es, ein Stein zu sein
Deshalb sollte x nur durch "Organismus" ersetzt werden- Lebewesen, selbstorganisierende, Duplizierende oder abstrakte autopoetische Systeme wie es auch ein KI- Programm sein kann.
Damit die KI wirklich "bewusste" Programme zu erzeugen vermag, muss man wissen, wie es für dieses Programm ist, dieses zu sein- dahinter steckt eine gewisse Logik, und es könnte sein, dass in diesem Selbstbezug die Lösung steckt- wobei man immer beachten muss, das jedes umfassende Programm->formale System Grenzen unterworfen ist, die Alan Turing und Kurt Gödel formalisierten. Ich kann mittels eines Algorithmus nicht prüfen, ob ein bestimmter Algorithmus entweder zu einer Lösung führt, oder nicht.
Etwas poetischer hat dies Stanislaw Lem in Non Serviam ausgedrückt.

Hier geht es um künstliche intelligente Wesen (Personoiden) in einer künstlich- programmierten Welt in einem Kasten. Die Personoiden sind sich natürlich nicht darüber bewusst, dass ihre Welt nur ein Experiment in einem Labor ist.
"Indem die Personoiden ihre Umgebung wahrnehmen, fügen sie "von sich aus" jene Erlebnisqualitäten hinzu, die genau dem entsprechen, was für uns Schönheiten der angeschauten Landschaften sind, nur dass man ihnen eine rein mathematische Landschaft eingegeben hat. Über das,"wie sie sehen", können wir im Sinne der "subjektiven Qualität ihres Empfindens" nichts aussagen, denn die einzige Methode für die Erfahrung der Qualität ihrer Erlebnisse wäre, die menschliche Haut abzuwerfen und ein Personoid zu werden.[..] Der Vergleich, die Personoiden seien im Vergleich zu uns "krüppelhaft", da sie nicht wie wir sehen und hören können, wäre völlig absurd, weil man mit demselben Recht sagen könnte, wir hätten ihnen gegenüber die Fähigkeit eingebüsst, die mathematische Phänomenalistik sinnlich wahrzunehmen. [..] So sind also die Personoiden "gefangen", in der Maschine eingeschlossen- aber nur aus unserem Blickwinkel; wie sie nicht zu uns, in die Menschenwelt gelangen können, so ist es auch umgekehrt und symmetrisch, der Mensch kann auf keine Weise in das Innere ihrer Welt eindringen, um darin zu existieren, und sie direkt wahrzunehmen".



Soweit Lem- ich denke, das sagt einiges.
Kurz noch: Die Zustände innerhalb eines Systems, sind immer völlig anderer art, als ausserhalb dieses Systems (siehe wieder Gödel)
MV



















Antworten:

Geschrieben von Zettel am 14. Januar 2000 20:22:35:
Als Antwort auf: Non Serviam geschrieben von Martin V am 12. Januar 2000 21:51:02:
Der Vergleich, die Personoiden seien im Vergleich zu uns "krüppelhaft", da sie nicht wie wir sehen und hören können, wäre völlig absurd, weil man mit demselben Recht sagen könnte, wir hätten ihnen gegenüber die Fähigkeit eingebüsst, die mathematische Phänomenalistik sinnlich wahrzunehmen.
Wenn wir das nicht als den Spaß des intelligenten Romanciers Lem nehmen, der es wohl ist, sondern als philosophische These, dann will es mir überhaupt nicht einleuchten. Der kleine Unterschied ist, daß wir von uns wissen, daß wir etwas erleben, und von den Personoiden nicht. Warum sollten sie? Sie sind Objekte und keine Subjekte.
Zettel
















von Zettel - am 14.01.2000 19:22

Non Serviam

Geschrieben von karaya am 14. Januar 2000 21:08:34:
Als Antwort auf: Re: Non Serviam geschrieben von Zettel am 14. Januar 2000 20:22:35:
Wenn wir das nicht als den Spaß des intelligenten Romanciers Lem nehmen, der es wohl ist, sondern als philosophische These, dann will es mir überhaupt nicht einleuchten. Der kleine Unterschied ist, daß wir von uns wissen, daß wir etwas erleben, und von den Personoiden nicht. Warum sollten sie? Sie sind Objekte und keine Subjekte.
Lieber Zettel,
Ob das das Stanislaw Lem ernst gemeint hat oder nicht, spielt m. E. nur eine

untergeordnete Rolle; entscheident ist ob man den Text nach seinem objektiven

Sinngehalt ernst n e h m e n kann und das glaube ich schon.

Zum kleinen Unterschied meine ich, daß nicht wir wissen, daß

wir etwas erleben, sondern, daß ich weiß, daß

ich etwas erlebe.

Von Dir nehme ich das bloß an, weil Du mit mir kommunizierst wie ein Mensch und

ich daher -sicher mit einem gewissen Recht- davon ausgehe, daß Du meine Erleb-

niswelt bis zu einem gewissen Grade teilst.
Wenn nun jemand ein Programm entwickelt, mit dem ich wie mit Dir kommunizieren

kann, habe ich wenig Recht, dieser Entität Erleben abzusprechen.

Das ist ja wohl das Argument aus dem berühmten Turing-Test.
Warum sollten die Personoiden also nichts erleben?
Im übrigen habe ich bei einer Durchsicht alter Beiträge mit Erschrecken fest-

gestellt, daß ich noch etwas schuldig bin: Stichwort HTML und Griechisch.

Also schreib in spitzen Klammern [FONT FACE=SYMBOL] (dein Text) [/FONT].

Ich tu's jetzt mal: abcdefghiklmnopqrstuvwxyz

Bevor Du mich aber jetzt mit der Sprache der klassischen Philosophie traktierst,

sollte ich wohl gestehen, daß ich es (mit Mühe) nur zum Latinum gebracht habe.
karaya

















von karaya - am 14.01.2000 20:08
Geschrieben von Martin V am 14. Januar 2000 21:38:11:
Als Antwort auf: Non Serviam geschrieben von karaya am 14. Januar 2000 21:08:34:

Wenn wir das nicht als den Spaß des intelligenten Romanciers Lem nehmen, der es wohl ist, sondern als philosophische These, dann will es mir überhaupt nicht einleuchten. Der kleine Unterschied ist, daß wir von uns wissen, daß wir etwas erleben, und von den Personoiden nicht. Warum sollten sie? Sie sind Objekte und keine Subjekte.

Lieber Zettel,

Ob das das Stanislaw Lem ernst gemeint hat oder nicht, spielt m. E. nur eine

untergeordnete Rolle; entscheident ist ob man den Text nach seinem objektiven

Sinngehalt ernst n e h m e n kann und das glaube ich schon.

Zum kleinen Unterschied meine ich, daß nicht wir wissen, daß

wir etwas erleben, sondern, daß ich weiß, daß

ich etwas erlebe.

Von Dir nehme ich das bloß an, weil Du mit mir kommunizierst wie ein Mensch und

ich daher -sicher mit einem gewissen Recht- davon ausgehe, daß Du meine Erleb-

niswelt bis zu einem gewissen Grade teilst.

Wenn nun jemand ein Programm entwickelt, mit dem ich wie mit Dir kommunizieren

kann, habe ich wenig Recht, dieser Entität Erleben abzusprechen.

Das ist ja wohl das Argument aus dem berühmten Turing-Test.

Warum sollten die Personoiden also nichts erleben?

Im übrigen habe ich bei einer Durchsicht alter Beiträge mit Erschrecken fest-

gestellt, daß ich noch etwas schuldig bin: Stichwort HTML und Griechisch.

Also schreib in spitzen Klammern [FONT FACE=SYMBOL] (dein Text) [/FONT].

Ich tu's jetzt mal: abcdefghiklmnopqrstuvwxyz

Bevor Du mich aber jetzt mit der Sprache der klassischen Philosophie traktierst,

sollte ich wohl gestehen, daß ich es (mit Mühe) nur zum Latinum gebracht habe.

karaya



Schliesse mich karaya an.



Sie sind Objekte und keine Subjekte.



Auch Zettel oder karaya sind für mich nur Objekte.

Ich schliesse nur aus Eurem Verhalten darauf, dass ich es mit "Subjekten", wie ich es bin zu tun habe. Beweisen kann ich das nicht, weil ich ausserhalb Eures Neurosystems stehe. Deshalb könnt Ihr auch Zombies sein.



Ich bin blind für die mathematische Phänomenologie Eures neuralen Netzes- ebenso wie Dobb, dem Entwickler der Personoiden- die Blindheit und das Handicap, des unmöglichen Systemsprungs aus meinem System, ist Euer grosser Vorteil mir gegenüber, wie der Vorteil der Personoiden gegenüber Dobb.

MV

















von Martin V - am 14.01.2000 20:38
Geschrieben von Zettel am 14. Januar 2000 22:54:12:
Als Antwort auf: Non Serviam geschrieben von karaya am 14. Januar 2000 21:08:34:
Ganz schnell, bevor ich zu meiner Lammkeule eile:
>Zum kleinen Unterschied meine ich, daß nicht wir wissen, daß

>wir etwas erleben, sondern, daß ich weiß, daß

>ich etwas erlebe.

>Von Dir nehme ich das bloß an, weil Du mit mir kommunizierst wie ein Mensch und

>ich daher -sicher mit einem gewissen Recht- davon ausgehe, daß Du meine Erleb-

>niswelt bis zu einem gewissen Grade teilst.
Das ist lieb; ich hatte schon erwogen, mich statt mit Dir ab jetzt mit Martins - übrigens sehr gelungener - Adaptation von ELIZA zu unterhalten. Aber im Ernst: Meinst Du das ernst?
>Das ist ja wohl das Argument aus dem berühmten Turing-Test.
Turings Aufsatz hiess "Can machines think?" Um Bw ging es nicht.
>Warum sollten die Personoiden also nichts erleben?
Warum solten sie?
Ganz herzlichen Dank für die Ermöglichung von:


Zettel
















von Zettel - am 14.01.2000 21:54

Challenge to karaya & MartinV

Geschrieben von Zettel am 15. Januar 2000 01:50:51:
Als Antwort auf: Re: Non Serviam geschrieben von Martin V am 14. Januar 2000 21:38:11:
Nehmen wir einmal an, es gäbe eine Instanz, die mit vollkommener Sicherheit weiss, ob ich (Zettel) über Bw verfüge (ein Normalo bin) oder ein Zombie bin. Diese Instanz - nennen wir sie einmal Big Daddy - macht Euch beiden das folgende Angebot: Jeder von Euch soll entscheiden, ob ich (Zettel) ein Normalo oder ein Zombie bin. Wenn er recht hat, erhält er von Big Daddy den Geldbetrag, den die CDU Hessen im Augenblick auf illegalen Auslandskonten hat (ich glaube, 17 Mio DM) oder den Gegenwert in österreichischen Schilling, und zwar garantiert steuerfrei und legal. Wenn er sich irrt, wird er unter den entsetzlichsten Qualen hingerichtet.
Hand aufs Herz: Wie würdet Ihr entscheiden? Nochmals Hand aufs Herz: Was folgt daraus für die Ehrlichkeit Eures Zweifels daran, daß ich ein Normalo bin?
Ich habe das Argument, das Ihr hier beide vertretet, so oft gehört und mich so oft darüber geärgert, daß ich regelrecht traurig bin, es jetzt auch hier vorgesetzt zu bekommen, noch dazu von zwei mir so sympathischen Normalos wie karaya und MartinV.
Deshalb würde ich mich freuen, wenn Ihr nur Spaß gemacht hättet.
Zettel

















von Zettel - am 15.01.2000 00:50

No Problem

Geschrieben von karaya am 15. Januar 2000 03:48:55:
Als Antwort auf: Challenge to karaya & MartinV geschrieben von Zettel am 15. Januar 2000 01:50:51:
Klar würde ich darauf setzen, daß Du ein Normalo bist und kein Programm oder

Zombie oder was weiß ich, ganz abgesehen davon, daß es eine solche Big-Daddy-

Instanz, die im Zweifel entscheidet, eben schlicht nicht gibt.
Weil ich eben weiß, daß es z.Zt. keine Programme gibt, die eine solche Unter-

haltung zustandebringen. Auch MV's Zombie hat ja nur (ist jetzt nicht böse ge-

meint!), naja, anekdotischen Wert. Jeder Grundschüler checkt doch innerhalb

einer Minute, daß kein Mensch die Antworten gibt.
Fraglich ist doch bloß, ob das immer so bleiben wird, wobei ein Problem an

der KI-Forschung halt einfach ist, daß sie schon seit Jahrzehnten Versprechungen

macht, die sie nicht einhält; man nimmt den Mund dort einfach zu voll.
Wüßte ich aber, daß es Programme gibt, die eine solche Unterhaltung, wie ich

sie mit Dir führen kann, zuwege bringen, würde ich keinen Pfennig darauf setzen,

daß Du ein Normalo bist, schon gar nicht bei dem Abstraktionsgrad, den eine

Diskussion via Internet nunmal aufweist.
Meine Antwort - Zettel ist weder Programm noch Zombie - sagt also lediglich, daß

ich den Stand der technischen Entwicklung einschätzen und Denkfiguren von der

Realität unterscheiden kann. Daraus folgt weiter gar nichts.
Andererseits bin ich überzeugt davon, daß es irgendwann - und uns Philosophen

interessiert doch nicht ob in 100 oder 100 000 Jahren - Maschinen geben wird,

mit denen ich kommunizieren kann, wie mit Dir; und dann stellt sich die Frage,

ob ich denen Bw, Intelligenz, Erleben zubillige. Und meine diesbezüglichen

Schlüsse kann ich nur aus ihrem Verhalten ziehen, so wie ich sie bei Dir eben

auch ziehe. Woraus denn bitte sonst? Die biologische Ähnlichkeit oder Unähnlich-

keit ist in diesem Zusammenhang ein schwaches Argument.
Oder anders herum: Nachdem Du öfters die Aufforderung aussprichst, Dir doch mal

einen Gedanken zu zeigen, der nicht auf einem neurologischen Prozeß beruht,

fordere ich Dich auf, mir doch mal mit dem ganzen Instrumentarium, das Du weiter

unten mal so bered beschrieben hast (EEG etc. pp.) einen Gedanken zu zeigen.
Na?
Und jetzt erklär bitte mal, was Dich an den oben geäußerten Auffassungen eigent-

lich so aufregt.
;-))
karaya.


















von karaya - am 15.01.2000 02:48

Maschinenbewußtsein, Lammkeule

Geschrieben von Zettel am 15. Januar 2000 11:59:57:
Als Antwort auf: No Problem geschrieben von karaya am 15. Januar 2000 03:48:55:
Andererseits bin ich überzeugt davon, daß es irgendwann - und uns Philosophen

interessiert doch nicht ob in 100 oder 100 000 Jahren - Maschinen geben wird,

mit denen ich kommunizieren kann, wie mit Dir; und dann stellt sich die Frage,

ob ich denen Bw, Intelligenz, Erleben zubillige.
Wir reden auch heutzutage schon von (und gelegentlich mit) unseren Rechnern in einer mentalistischen Sprache - er erwartet eine Eingabe, versteht einen Befehl nicht usw. Das ist so praktisch und sinnvoll wie wenn ein Kind sagt: Du böser böser Stein, warum bist Du mir auf den Fuß gefallen? Wer gegen Deep Thought spielt, wird seinem Gegenüber (ob er wohl zwischen der Hard- und der Software unterscheidet?) vermutlich Gefühle wie Achtung, Triumph oder Wut entgegenbringen. Mit den von Dir imaginierten Programmen in 100 oder 100 000 Jahren wird es vermutlich nicht anders sein; außer daß vermutlich Achtung und Wut größer und Momente des Triumphs seltener sein werden.
So what? Diese ganze Chinese-Room-Diskussion ist nach meinem Eindruck heute nur noch von nostalgischem Wert. Sie widerspiegelt die Forschungssituation zwischen den sechziger und achtziger Jahren, als man einerseits die von Dir beschriebenen euphorischen Erwartungen an die KI hatte und andererseits sich nicht vorstellen konnte, hirnphysiologische Korrelate von Bw zu messen. Natürlich war auch viel Forschungspolitik dabei; es ging ja um erhebliche Drittmittel.
Heute scheint mir die Einsicht zu wachsen, daß man von der Simulation mentaler Prozesse exakt dasselbe erwarten kann wie von jeder beliebigen anderen Simulation. Wenn wir das Wetter in London simulieren, dann wird der Rechner nicht naß. Wenn wir kognitive Leistungen simulieren, dann implantieren wir ihm keine Qualia. Wer behauptet, daß wir das doch tun, ist beweispflichtig. Er muß erklären, warum der Computer, der eine Eingabe erwartet, dies nur in einem metaphorischen Sinn tut, während der Rechner, der sich in einem intelligenten Dialog eine Antwort ausdenkt, dies in einem wörtlichen Sinn tun soll.
Und meine diesbezüglichen Schlüsse kann ich nur aus ihrem Verhalten ziehen, so wie ich sie bei Dir eben auch ziehe. Woraus denn bitte sonst? Die biologische Ähnlichkeit oder Unähnlichkeit ist in diesem Zusammenhang ein schwaches Argument.
Das Argument lautet, daß Bw so an Hirnprozesse gebunden ist, wie z.B. die kristalline Struktur an die Anordnung von Molekülen und die Bindungskräfte zwischen ihnen. Man kann auch aus irgendeinem Platikmaterial einen Gegenstand formen, der wie ein Kristall aussieht; so wie man gewisse mentale Prozess auf dem Rechner simulieren kann. Wenn man wissen will, ob es wirklich ein Kristall ist, muß man den Gegenstand chemisch analysieren oder - ich glaube, das geht heute schon - das Kristallgitter unter dem Elektronenmikroskop sichtbar machen. Um zu wissen, ob jemand Bw hat, muß man sich die Gehirnprozesse angucken, von den wir wissen (dh zu wissen beginnen), daß sie mit Bw verbunden sind. Negativ ist das inzwischen Routine: Transplantiert wird nur, wenn das EEG über eine bestimmte Zeitspanne eine Null-Linie zeigt. Positiv machen wir riesige Fortschritte. Wenn jemand z.B. den Entschluß faßt, mit der Hand eine Taste zu drücken, ist das im Bereitschaftspotential zu sehen. Ob er mit der linken oder der rechten Hand drücken will, kann ich an der Lateralisierung des BP erkennen. Wenn er sich über den Sinn eines Satzes wundert, sieht man das an der N400, wenn ihm ein Reiz neu erscheint, an der P300. Zwischen depressiven und nichtdepressiven Personen bestehen Aktivitätsunterschiede im limbischen und präfrontalen Bereich, die man z.B. im PET-Scan sieht. Etc. pp.

Und jetzt erklär bitte mal, was Dich an den oben geäußerten Auffassungen eigentlich so aufregt.
Ach Gott, es ist nicht besonders ersprießlich, immer wieder gegen dieselben Irrtümer argumentieren zu müssen. Wir wissen wenig genug über Bw. Aber daß man es einer Maschine implantiert hat, wenn sie Denken simuliert, ist ungefähr so plausibel wie die Erwartung, daß in der HiFi-Box, aus der eine menschliche Stimme erklingt, eine Lunge, Stimmbänder, Gaumen und Lippen zu finden sind. Weil das so offensichtlich ist, ärgert es mich, es immer wieder sagen zu müssen.
Aufregen tut es mich nicht. Aufregend finde ich z.B. den Geschmack einer Lammkeule, die sieben Stunden bei 150 Grad geschmort wurde, dazu glacierte Karotten und ein Rioja.
Zettel



















von Zettel - am 15.01.2000 10:59

Das Drinnen und Draussen eines Systems

Geschrieben von Martin V am 15. Januar 2000 17:40:00:
Als Antwort auf: Maschinenbewußtsein, Lammkeule geschrieben von Zettel am 15. Januar 2000 11:59:57:


Andererseits bin ich überzeugt davon, daß es irgendwann - und uns Philosophen

interessiert doch nicht ob in 100 oder 100 000 Jahren - Maschinen geben wird,

mit denen ich kommunizieren kann, wie mit Dir; und dann stellt sich die Frage,

ob ich denen Bw, Intelligenz, Erleben zubillige.

Wir reden auch heutzutage schon von (und gelegentlich mit) unseren Rechnern in einer mentalistischen Sprache - er erwartet eine Eingabe, versteht einen Befehl nicht usw. Das ist so praktisch und sinnvoll wie wenn ein Kind sagt: Du böser böser Stein, warum bist Du mir auf den Fuß gefallen? Wer gegen Deep Thought spielt, wird seinem Gegenüber (ob er wohl zwischen der Hard- und der Software unterscheidet?) vermutlich Gefühle wie Achtung, Triumph oder Wut entgegenbringen. Mit den von Dir imaginierten Programmen in 100 oder 100 000 Jahren wird es vermutlich nicht anders sein; außer daß vermutlich Achtung und Wut größer und Momente des Triumphs seltener sein werden.

So what? Diese ganze Chinese-Room-Diskussion ist nach meinem Eindruck heute nur noch von nostalgischem Wert. Sie widerspiegelt die Forschungssituation zwischen den sechziger und achtziger Jahren, als man einerseits die von Dir beschriebenen euphorischen Erwartungen an die KI hatte und andererseits sich nicht vorstellen konnte, hirnphysiologische Korrelate von Bw zu messen. Natürlich war auch viel Forschungspolitik dabei; es ging ja um erhebliche Drittmittel.

Heute scheint mir die Einsicht zu wachsen, daß man von der Simulation mentaler Prozesse exakt dasselbe erwarten kann wie von jeder beliebigen anderen Simulation. Wenn wir das Wetter in London simulieren, dann wird der Rechner nicht naß. Wenn wir kognitive Leistungen simulieren, dann implantieren wir ihm keine Qualia. Wer behauptet, daß wir das doch tun, ist beweispflichtig. Er muß erklären, warum der Computer, der eine Eingabe erwartet, dies nur in einem metaphorischen Sinn tut, während der Rechner, der sich in einem intelligenten Dialog eine Antwort ausdenkt, dies in einem wörtlichen Sinn tun soll.

Und meine diesbezüglichen Schlüsse kann ich nur aus ihrem Verhalten ziehen, so wie ich sie bei Dir eben auch ziehe. Woraus denn bitte sonst? Die biologische Ähnlichkeit oder Unähnlichkeit ist in diesem Zusammenhang ein schwaches Argument.

Das Argument lautet, daß Bw so an Hirnprozesse gebunden ist, wie z.B. die kristalline Struktur an die Anordnung von Molekülen und die Bindungskräfte zwischen ihnen. Man kann auch aus irgendeinem Platikmaterial einen Gegenstand formen, der wie ein Kristall aussieht; so wie man gewisse mentale Prozess auf dem Rechner simulieren kann. Wenn man wissen will, ob es wirklich ein Kristall ist, muß man den Gegenstand chemisch analysieren oder - ich glaube, das geht heute schon - das Kristallgitter unter dem Elektronenmikroskop sichtbar machen. Um zu wissen, ob jemand Bw hat, muß man sich die Gehirnprozesse angucken, von den wir wissen (dh zu wissen beginnen), daß sie mit Bw verbunden sind. Negativ ist das inzwischen Routine: Transplantiert wird nur, wenn das EEG über eine bestimmte Zeitspanne eine Null-Linie zeigt. Positiv machen wir riesige Fortschritte. Wenn jemand z.B. den Entschluß faßt, mit der Hand eine Taste zu drücken, ist das im Bereitschaftspotential zu sehen. Ob er mit der linken oder der rechten Hand drücken will, kann ich an der Lateralisierung des BP erkennen. Wenn er sich über den Sinn eines Satzes wundert, sieht man das an der N400, wenn ihm ein Reiz neu erscheint, an der P300. Zwischen depressiven und nichtdepressiven Personen bestehen Aktivitätsunterschiede im limbischen und präfrontalen Bereich, die man z.B. im PET-Scan sieht. Etc. pp.

Und jetzt erklär bitte mal, was Dich an den oben geäußerten Auffassungen eigentlich so aufregt.

Ach Gott, es ist nicht besonders ersprießlich, immer wieder gegen dieselben Irrtümer argumentieren zu müssen. Wir wissen wenig genug über Bw. Aber daß man es einer Maschine implantiert hat, wenn sie Denken simuliert, ist ungefähr so plausibel wie die Erwartung, daß in der HiFi-Box, aus der eine menschliche Stimme erklingt, eine Lunge, Stimmbänder, Gaumen und Lippen zu finden sind. Weil das so offensichtlich ist, ärgert es mich, es immer wieder sagen zu müssen.

Aufregen tut es mich nicht. Aufregend finde ich z.B. den Geschmack einer Lammkeule, die sieben Stunden bei 150 Grad geschmort wurde, dazu glacierte Karotten und ein Rioja.

Zettel



Grüsse Ihr beide!
1.Zum Zombie "Programm".
Zettel schrieb es schon: Zombie ist eine veränderte Version von Weizenbaums Eliza. Zu der Zeit, als Eliza populär wurde, dachten tatsächlich viele Psychologen, dass Eliza den Psychologen ersetzen könne. Natürlich völliger nonsens, der aus heutiger Sicht nur noch spassig ist (die typische Projektion- schlägt mich mein Schachcomputer, was er sehr oft tut, möchte ich "ihn (!) ebenfalls am liebsten schlagen; ja, ich schimpfe mit ihm; eigentlich ist dies aber eine Unterhaltung, die ich mit mir führe). So auch Zombie: Zombie ist und bleibt ein dummes syntaktisches System; auch hier war der Spassfaktor meinerseits primär anzusehen.
2.Chinese Room und 2 Systemische Seiten
In diesem Gedankenexperiment geht es einfach um die triviale Frage, ob ein syntaktisch- formales System etwas zu "verstehen" vermag, oder sich nur so verhält, als würde es etwas verstehen (Frage: Welches Ableitungssytem ausser dem Turing- Test gibt es, das mir diesen Unterschied, wenn es einer ist, aufzeigt?). Ich bekomme einen Output, bekomme sogar eine Antwort, aber was geschieht in der Black Box zwischen Input und Output?

In dieser Black Box arbeiten Algoritmische Prozesse, die wiederum rein syntaktischer Natur sind.
Ich kann mir als halber Mathematiker nicht vorstellen, wie man Semantische Prozesse rechnerisch darstellen sollte.

Jeder weiss, welche Position ich vertrete- Bedeutung ist nicht- rechnerischer Natur, wenn man diese ausserhalb eines Systems, indem man Semantik vermutet, arbeitet und forscht. Die Gesetze innerhalb eines Systems sind anderer Art als ausserhalb dieses Systems. Man stecke mich in einen Kubus, der völlig verzerrt wird. Ich, der ich in diesem Kubus stecke, werde nicht mitbekommen, dass sich dieser Kubus krümmt- obwohl ich mich mitkrümme. Für mich, der ich mich in diesem System befinde, ist die Welt innerhalb dieses Systems anders, als für einen Betrachter ausserhalb des Kubus. Er kann die Krümmung wahrnehmen, und wenn er den Kubus "röngt", wird er auch meine Verzerrung wahrnehmen.
Ähnliches gilt für Gödel:In einem System können unentscheidbare Sätze auftreten, die nicht zu lösen sind- es ensteht ein klassischer Flip-Flop Mechanismus. Ein ausserhalb des Systems stehender Beobachter aber, kann im Gegensatz zum Endo- system, einen Satz, der innerhalb unentscheidbar ist, ausserhalb diskret mit Wahrheitswerten belegen. Gerade in diesem Beispiel wissen wir, wie es für das System ist, dieses System zu sein. Wir wissen dies, indem wir Metasprachen entwickeln, die uns erlauben, einen Exo- Spiegel anzufertigen, der eine 1:1 Abbildung des formalen Systems liefert.
Wie genau dies alles funktioniert, sei bis spätestens 20.1 auf meinen Seiten nachzulesen.
Was will ich damit sagen? Mein von Lem geklautes "Personoid" Beispiel sollte nur aufzeigen, dass die Personoiden, die sich in ihrem System befinden, anderen Gesetzen folgen können, als Dobb der Entwickler, der sich ausserhalb des Systems der Personoiden befindet. Krümmt Dobb den mathematischen Raum, indem sich die P befinden, werden dies die P kaum spüren.

Treten in der Welt der Personoiden Paradoxon auf, die findige Personoid- Logiker entdeckten (z.b. die Unvollständigkeit ihres Universums), dann muss dieses P- Paradoxon nicht unbedingt ein Paradoxon für Dobb sein.
Meister Dobb befindet sich natürlich im Vorteil- und in einem so kleinen Personoiden Universum vermag es sogar Dobbs Gehirn, eine Gödelisierung des P- Universums zu entwickeln- wie oben beschrieben, sich einen Spiegel herzustellen, der sich 1:1 in einer anderen Sprache abbilden lässt. Aus den Beziehungen dieser "neuen" Sprache kann Dobb die Verhältnisse im System als aussenstehender erfassen; was Dobb aber nicht kann, wäre, ohne die neue künstliche Abbildungssprache in das Endosystem "einzudringen". Dies unterscheidet Dobb von den Personoiden; ausserdem bleibt Dobb immer noch verborgen, wie die P ihre Umgebung wahrnehmen- Dobb kann nur "sehen", welche allgemeinen Gesetze im P- Universum möglich, oder unmöglich sind, die wiederum in Dobbs (also unserem Universum) möglich sein können. Daraus kann Dobb etwas über die Struktur der Endo- welt der Personoiden harausfinden.
Na, das ist ja schon was- wenn auch nur eingeschränkt, aber durchaus möglich.

Dobb aber, liest in unserer (seiner) Welt diesen Anti-Lucas- Gödel Satz:
[Dobb kann diesen Satz nicht widerspruchsfrei aussagen]
Wir alle können diesen Satz ohne ein schlechtes logisches Gewissen aussagen- der liebe Dobb aber nicht. System für System für System- ein infiniter Prozess enstehend, wenn man sich die Frage stellt, wer nun im Vorteil sei- Dobb oder die Personoiden- Turing Maschinen oder Gehirne.
Ob die KI irgendwann Bew. erzeugt, weiss ich nicht, weil ich nicht weiss, was Bew. ist- das weiss auch kein KI- scientist. Was wir wissen, und das erscheint mir als das Wichtigste, ist die Unterscheidung von Endo-Exo; Gesetze innerhalb eines Systems contra Gesetze ausserhalb eines Systems. Und damit sind wir wieder dort angelangt, wo meine Probleme lauern- das vermeindliche drinnen und draussen, der grausame Prozess der Unterscheidung, der wiederum formalisiert werden kann.
Woher weiss ich, ob karaya oder Zettel Subjekte sind?

Ich weiss es nicht; dazu müsste ich Euer Neurosystem gödelisieren, eine Sprache der 1:1 Abbildung finden.
Mahlzeit *g*
eiligst,

MV

















von Martin V - am 15.01.2000 16:40

Re: Maschinenbewußtsein

Geschrieben von Sven am 17. Januar 2000 16:06:11:
Als Antwort auf: Maschinenbewußtsein, Lammkeule geschrieben von Zettel am 15. Januar 2000 11:59:57:
[...] Wenn wir das Wetter in London simulieren, dann wird der Rechner nicht naß. Wenn wir kognitive Leistungen simulieren, dann implantieren wir ihm keine Qualia. Wer behauptet, daß wir das doch tun, ist beweispflichtig. Er muß erklären, warum der Computer, der eine Eingabe erwartet, dies nur in einem metaphorischen Sinn tut, während der Rechner, der sich in einem intelligenten Dialog eine Antwort ausdenkt, dies in einem wörtlichen Sinn tun soll.
Nun hat sich meines Wissens nach die KI aber schon weiter entwickelt als eine Simulation - dahingehend, daß nicht mehr Aktio - Reaktio, sondern Prinzipien programmiert werden. Und sich die Aktion - Reaktion daraus dann ergibt. So sind bereits mehrere Insekten-ähnliche Roboter entwickelt, deren "Verhalten" auf ganz simplen Regeln beruht ("weiche dem Hindernis aus indem du das und das machst; balanciere immer mit zwei beinen auf dem Boden"). Interessanterweise gleicht das entstehende Bewegungsmuster dann frapant dem Bewegungsmuster von Insekten.
Anders gesagt: es wurde nicht programmiert, welchen Weg sie nehmen sollen, sondern wie sie ihren Weg wählen sollen.
Solch ein Programm entspricht aller Wahrscheinlichkeit nach sehr einem genetischen Programm, in welchem schließlich auch sehr viele Bewegungsmuster genauestens vorgelegt werden. Wiederum basierend auf einfachen Regeln, nicht durch exaktes vorschreiben [Vögel fliegen nicht exakt nach Karte, sondern "suchen" vorgegebene Muster in ihrer Umwelt. So kann ein Vogel schon mal ganz wo falsches landen, weil dieser fehlerhafte Zielort gewisse Muster des eigentlichen Zielortes aufweist (Papageie die sich verirren)].
Und hier kommt wieder mal das Turner-Prinzip zu tragen:

Inwiefern können wir solche Roboter als Tiere betrachten, bzw. ab wann wird ein Tier ein Lebewesen, kein biochemischer Apparat.
Die Fortpflanzung als Kriterium ist immer ein heißer Tipp - schließlich kann keine Maschine seine eigene Art erbauen.

Noch nicht.
Außerdem ist Fortpflanzung halt völlig unabhängig von jeder Art Bewußtsein und Denken. Sie fängt mit zwei "halben" Zellen an, und wenn es zur Ausbildung eines noch so primitiven Nervensystem kommt, ist das spannendste eigentlich schon längst passiert (nämlich die Gastrulation und die Entwicklung der verschiedenen Keimblätter).
Also:

Wir haben Maschinen, deren Verhalten nicht simuliert wird, sondern bedingt durch Regeln.

Wir haben Tiere, deren Verhalten so simpel ist, daß es dem der Maschinen komplett gleicht (Bakterien zum Beispiel, gewisse Verhaltens-Unterprogramme höherer Tiere).
Wie können wir die beiden unterscheiden?

Kämen wir auf einen neuen Planeten, auf dem nur solche Maschinen herumliefen - wie können wir sie nicht als Lebewesen betrachten (von der Fortpflanzung mal abgesehen).

Wie kann man dann also sicher sagen, daß ein Qualia-Unterschied besteht?

Wie kann man sagen, daß unser Verhalten nicht auch nur aufgrund von einfachen Regeln mit modulartiger Verbindung besteht (auch der denkende, bewußte Neocortex ist nur den nicht-denkenden, nicht-bewußtem Stammhirn aufgesetzt)?


Und wenn denn einmal eine Maschine aufrecht gehen kann (dazu braucht´s nur ein gutes "Innenohr" = Meßgerät der Lage im 3D Raum sowie ein "Kleinhirn" = Microcomputer ohne Bewußtsein, welches ungefähr 200 Knochen und ein paar tausen Muskeln koordiniert), einen Hauptcomputer hat dessen Prozessor direkt mit allen Eingabensensoren verdrahtet ist (= Neocortex und Nerven), dessen vorgegebenen Prozessorbefehle unserem genetischem Verhalten entspricht - nun, dann haben wir ja schon mal einen primitiven Noch-nicht-ganz-Menschen, oder? Oder fehlt hier nun doch noch eine Vis-vitalis? Und wie weit ist dann noch der Schritt zur selbst-organisierenden Festplatte? Und zu dynamischen Speicherverwaltung? Und wo ist dann der Unterschied zum Menschen. Und wo ist dann eine "Simulation"?
Die KI ist noch lange nicht tot.
Grüße, Sven
















von Sven - am 17.01.2000 15:06

Re: Maschinenbewußtsein

Geschrieben von Zettel am 18. Januar 2000 01:29:14:
Als Antwort auf: Re: Maschinenbewußtsein geschrieben von Sven am 17. Januar 2000 16:06:11:
Nun hat sich meines Wissens nach die KI aber schon weiter entwickelt als eine Simulation - dahingehend, daß nicht mehr Aktio - Reaktio, sondern Prinzipien programmiert werden. Und sich die Aktion - Reaktion daraus dann ergibt. So sind bereits mehrere Insekten-ähnliche Roboter entwickelt, deren "Verhalten" auf ganz simplen Regeln beruht ("weiche dem Hindernis aus indem du das und das machst; balanciere immer mit zwei beinen auf dem Boden"). Interessanterweise gleicht das entstehende Bewegungsmuster dann frapant dem Bewegungsmuster von Insekten.
In zumindest einem solchen Projekt, das ich ein bisschen verfolge, ist die Ähnlichkeit allerdings nicht so verwunderlich, weil die Gehmaschine mit genau solchen neuronalen Netzen ausgestattet wurde, wie sie bei der Analyse eines realen Insekts (englisch stick insect, ist das die deutsche Stabheuschrecke?) entdeckt worden waren. Aber ich gebe Dir völlig recht: Komplexe Sensomotorik entsteht aus vergleichsweise simplen Schaltprinzipien. Beim stick insect gibt es keine zentrale Instanz, die die motorischen Programme errechnet und dann an die Beine schickt, sondern das koordinierte Verhalten kommt durch bahnende und hemmende Interaktionen zwischen den einzelnen Neuronen zustande, die jeweils für ein Bein "zuständig" sind. Es muß z.B. (ich vereinfache jetzt) verhindert werden, daß alle drei Beine auf derselben Seite zugleich in der Luft schweben. Das wird dadurch erreicht, daß die Neurone innerhalb einer Seite inhibitorisch verschaltet sind, während es bestimmte, den Rhythmus bestimmende aktivierende Verschaltungen zur contralateralen Seite gibt.
Ich stimme auch zu, daß der Trend sicher in Richtung auf relativ abstrakte verhaltenssteuernde Algorithmen geht, anstelle simpler S-R-Assoziationen. Ich glaube, ich habe das unten in dem Emergenz-Thread schon einmal angesprochen.


Inwiefern können wir solche Roboter als Tiere betrachten, bzw. ab wann wird ein Tier ein Lebewesen, kein biochemischer Apparat.
Ich bin nicht sicher, ob das eine beantwortbare Frage ist. Sie erscheint mir aber im jetzigen Kontext auch nicht so sehr wichtig. Wir diskutieren ja, ob man in Maschinen Bewußtsein vermuten sollte, nicht ob sie, gewissermaßen nomenklatorisch, als Tiere zu klassifizieren sind.


Kämen wir auf einen neuen Planeten, auf dem nur solche Maschinen herumliefen - wie können wir sie nicht als Lebewesen betrachten (von der Fortpflanzung mal abgesehen)(...) Wie kann man dann also sicher sagen, daß ein Qualia-Unterschied besteht?
Wir können es nicht sicher sagen. Mein Argument ist nur, daß nicht schon allein bestimmtes Verhalten den Schluß auf Qualia erlaubt. Um das Beispiel des Schachcomputers zu erweitern: Wenn man ihn, wie jenen legendären "Türken" aus dem achtzehnten Jahrhundert, mit einer menschenähnlichen Oberfläche ausstatten würde, also dem armen menschlichen Schachspieler ein Wesen gegenübersäße, das ihn nicht nur ständig schlägt, sondern das auch noch in jeder Hinsicht wie ein Mensch ausschaut - dann wäre es immer noch eine Maschine ohne Qualia. Nach allem, was wir gegenwärtig sagen können, sind Qualia an bestimmte Vorgänge in einem komplexen System gebunden, in dem es sensorische Systeme, ein ARAS (aktivierendes System), vermutlich bestimmte Arten von Neuronen und Synapsen usw. gibt. Ob es irgendetwas in irgendeiner Hinsicht (in welcher?) Vergleichbares auch in Systemen gibt, die aus Silikonchips oder irgendwelchen anderen Elementen mit FlipFlop-Eigenschaften bestehen oder die auf irgendeiner anderen, uns jetzt noch nicht vorstellbaren Weise intelligentes Verhalten zeigen - wir wissen es nicht und haben bisher keinen Anlass, es anzunehmen.
Die KI ist noch lange nicht tot.
Davon bin ich auch überzeugt. Aber, wie gesagt, beim Turing-Test geht es um Intelligenz, nicht Qualia. Die KI wird sicher noch riesige Fortschritte machen; ob sie es bis zur KB bringt, bezweifle ich.
Zettel


















von Zettel - am 18.01.2000 00:29

Re: Maschinenbewußtsein

Geschrieben von Sven am 18. Januar 2000 09:53:32:
Als Antwort auf: Re: Maschinenbewußtsein geschrieben von Zettel am 18. Januar 2000 01:29:14:
Inwiefern können wir solche Roboter als Tiere betrachten, bzw. ab wann wird ein Tier ein Lebewesen, kein biochemischer Apparat.

Ich bin nicht sicher, ob das eine beantwortbare Frage ist. Sie erscheint mir aber im jetzigen Kontext auch nicht so sehr wichtig. Wir diskutieren ja, ob man in Maschinen Bewußtsein vermuten sollte, nicht ob sie, gewissermaßen nomenklatorisch, als Tiere zu klassifizieren sind.
Die KI ist noch lange nicht tot.

Davon bin ich auch überzeugt. Aber, wie gesagt, beim Turing-Test geht es um Intelligenz, nicht Qualia. Die KI wird sicher noch riesige Fortschritte machen; ob sie es bis zur KB bringt, bezweifle ich.
Und hier kann ich deinen Gedankengängen einfach nicht folgen.
Nehmen wir an, wir haben ein simples Tier, welches auf die dir beschriebene Art sein Leben fristet - mit direkt verschalteten Neuronen, welche ohne "übergeordnete Instanz" miteinander reagieren und so das Verhalten des Tieres steuern. Gibts es ja genügend in unserer Welt.

Dann setzen wir eine Maschine daneben, die das gleiche tut.
Der Unterschied kann dann nur noch auf die Zusammensetzung der beiden definiert werden, nicht mehr durch ihr Verhalten.
Also kann man ihnen doch wohl die gleiche "Art" des Denkens unterstellen, oder? [Zumindest verläuft die mir bekannte Wissenschaft so - es werden Experimente durchgeführt, die der Natur so gut als möglich gleichen. Ist der Aufbau des Experimentes gleich der Natur, die Andwendung gleich der Natur und das Ergebnis gleich der Natur, so IST das experiment GLEICH der Natur. Dieses Prinzip der Gleichstellung ist unsere einzige Möglichkeit, irgendwas über die Welt herauszufinden. Was gleich aussieht und sich gleich verhält ist gleich.]
Wenn man also einer ganz simplen Maschine ein gleiches "Denken" wie einem ganz simplen Tier unterstellen kann, wieso dann nicht einer komplexeren Maschine gleiches Denken wie einem komplexen Tier?
Wo ist die Grenze gezogen? Wer definiert die Grenze?

Ab wann hat ein Tier ein Bewußtsein? Ab wann empfindet ein Tier ein Quale?
Wenn man nach dem Prinzip der Analogie arbeitet, liegt die Beweißlast eher bei dem, der meint, es gäbe kein Empfinden eines Quale. Woher weißt du, welches Tier ein Quale empfindet und welches nicht? Wie kannst du diese Grenze definieren?
In der Phylogenie haben die Verschaltungen der Neuronen immer komplexere Grade angenommen. "Irgendwann" entstanden dabei Qualia und Bewußtsein. Wenn Maschinen in ihren Verschaltungen bereits den niederen Lebewesen gleich sind, weshalb nicht einmal den höheren?

Woher die prinzipielle Unmöglichkeit?
Grüße, Sven

















von Sven - am 18.01.2000 08:53

Was sich gleich verhält, muss nicht gleich funktionieren

Geschrieben von Zettel am 18. Januar 2000 10:32:40:
Als Antwort auf: Re: Maschinenbewußtsein geschrieben von Sven am 18. Januar 2000 09:53:32:
Nehmen wir an, wir haben ein simples Tier, welches auf die dir beschriebene Art sein Leben fristet - mit direkt verschalteten Neuronen, welche ohne "übergeordnete Instanz" miteinander reagieren und so das Verhalten des Tieres steuern. Gibts es ja genügend in unserer Welt. Dann setzen wir eine Maschine daneben, die das gleiche tut. Der Unterschied kann dann nur noch auf die Zusammensetzung der beiden definiert werden, nicht mehr durch ihr Verhalten.

Also kann man ihnen doch wohl die gleiche "Art" des Denkens unterstellen, oder?
Lieber Sven, was ich meine, habe ich schon in einem Beispiel auszudrücken versucht: Eine gute Hifi-Anlage kann sich akustisch genauso verhalten wie ein sprechender Mensch, also Schallwellen erzeugen. Man kann ihr dennoch nicht dieselbe "Art" der Schallproduktion unterstellen. Was wir objektiv über Bw wissen, beschränkt sich sowenig auf das Verhalten, wie wir die Art der Schallerzeugung beim Menschen und in der Hifi-Box nur durch Messung der Schallwellen erschließen können. Wir können vielmehr die Black Box aufmachen - die also keine mehr ist - und entdecken dann im einen Fall Spulen und Membranen und im anderen Lunge, Stimmlippen und Gaumen. Keinerlei Gemeinsamkeit, außer eben in Bezug auf das Resultat.
Die funktionelle Vorstellung von Bw - Bewußtsein liegt vor, wenn bestimmte Verhaltensmerkmale erfüllt sind - ist ironischerweise ein Nachklapp des Behaviorismus. Man konnte sie als operationale Definition durchgehen lassen, solange man nichts über die zugrundeliegenden Gehirnvorgänge wusste (solange man die Hifi-Box nicht öffnen und die funktionelle Anatomie der Schallproduktion beim Menschen nicht untersuchen konnte).
Zettel
















von Zettel - am 18.01.2000 09:32

Re: Was sich gleich verhält, muss nicht gleich funktionieren

Geschrieben von Sven am 18. Januar 2000 11:08:22:
Als Antwort auf: Was sich gleich verhält, muss nicht gleich funktionieren geschrieben von Zettel am 18. Januar 2000 10:32:40:
Lieber Sven, was ich meine, habe ich schon in einem Beispiel auszudrücken versucht: Eine gute Hifi-Anlage kann sich akustisch genauso verhalten wie ein sprechender Mensch, also Schallwellen erzeugen. Man kann ihr dennoch nicht dieselbe "Art" der Schallproduktion unterstellen. Was wir objektiv über Bw wissen, beschränkt sich sowenig auf das Verhalten, wie wir die Art der Schallerzeugung beim Menschen und in der Hifi-Box nur durch Messung der Schallwellen erschließen können. Wir können vielmehr die Black Box aufmachen - die also keine mehr ist - und entdecken dann im einen Fall Spulen und Membranen und im anderen Lunge, Stimmlippen und Gaumen. Keinerlei Gemeinsamkeit, außer eben in Bezug auf das Resultat.

Die funktionelle Vorstellung von Bw - Bewußtsein liegt vor, wenn bestimmte Verhaltensmerkmale erfüllt sind - ist ironischerweise ein Nachklapp des Behaviorismus. Man konnte sie als operationale Definition durchgehen lassen, solange man nichts über die zugrundeliegenden Gehirnvorgänge wusste (solange man die Hifi-Box nicht öffnen und die funktionelle Anatomie der Schallproduktion beim Menschen nicht untersuchen konnte).

Zettel
So mache ich denn eine Maschine, deren Drähte so liegen wie unsere Nerven-axone. Und deren Transistoren unseren Synapsen entspricht.

Dann messe ich sein EEG und kann Areale der Transistorenaktivität ausmachen.

Dann messe ich sein Verhalten und kann menschliches Verhalten sehen.
Ist sie sich ihrer selbst bewußt?
Erkläre mir bitte, was für dich Bw definiert - wirklich die Biologie? Sie nachzubauen ist nicht so schwierig. Für ein menschliches Gehirn fehlen uns noch die Möglichkeiten. Aber für ein niederes Wesen funktioniert es ja schon ganz gut, nicht wahr?

Und ab wann hat nun ein Tier Bw? Ab welchem Verschaltungsgrad?
Sollte mein Verständnis des Bw noch aus früheren Zeiten herrühren, wäre ich dir für eine zeitgerechtere Definition dankbar.
Daß gleiches Verhalten nicht gleiches Funktionieren bedeuten muß, ist mir verständlich. Aber wenn gleiches Funktionieren das gleiche Verhalten erwirkt (verschalten von Drähten bewirkt Gang der Stabheuschrecke), dann sieht die Sache anders aus. Denn dann fehlt nämlich der Unterschied, der das Bw ausmacht. Mag sein, wir haben den Unterschied bisher nicht gesehen. Oder aber, das niedere Tier hat kein Bw (wofür uns der Beweis fehlt), und wir werden erst bei höheren Tieren feststellen, daß ein Verdrahten nicht ausreicht. Aber das wissen wir noch nicht. Die Möglichkeit, Lebewesen als Roboter nachzubauen (nicht zu simulieren - nachzubauen!) wurde bisher nicht generell falsifiziert.
Grüße, Sven

















von Sven - am 18.01.2000 10:08

Re: Was sich gleich verhält, muss nicht gleich funktionieren

Geschrieben von Martin V am 18. Januar 2000 16:31:16:
Als Antwort auf: Re: Was sich gleich verhält, muss nicht gleich funktionieren geschrieben von Sven am 18. Januar 2000 11:08:22:
Lieber Sven, was ich meine, habe ich schon in einem Beispiel auszudrücken versucht: Eine gute Hifi-Anlage kann sich akustisch genauso verhalten wie ein sprechender Mensch, also Schallwellen erzeugen. Man kann ihr dennoch nicht dieselbe "Art" der Schallproduktion unterstellen. Was wir objektiv über Bw wissen, beschränkt sich sowenig auf das Verhalten, wie wir die Art der Schallerzeugung beim Menschen und in der Hifi-Box nur durch Messung der Schallwellen erschließen können. Wir können vielmehr die Black Box aufmachen - die also keine mehr ist - und entdecken dann im einen Fall Spulen und Membranen und im anderen Lunge, Stimmlippen und Gaumen. Keinerlei Gemeinsamkeit, außer eben in Bezug auf das Resultat.

>Die funktionelle Vorstellung von Bw - Bewußtsein liegt vor, wenn bestimmte Verhaltensmerkmale erfüllt sind - ist ironischerweise ein Nachklapp des Behaviorismus. Man konnte sie als operationale Definition durchgehen lassen, solange man nichts über die zugrundeliegenden Gehirnvorgänge wusste (solange man die Hifi-Box nicht öffnen und die funktionelle Anatomie der Schallproduktion beim Menschen nicht untersuchen konnte).

Zettel

So mache ich denn eine Maschine, deren Drähte so liegen wie unsere Nerven-axone. Und deren Transistoren unseren Synapsen entspricht.

Dann messe ich sein EEG und kann Areale der Transistorenaktivität ausmachen.

Dann messe ich sein Verhalten und kann menschliches Verhalten sehen.

Ist sie sich ihrer selbst bewußt?

Erkläre mir bitte, was für dich Bw definiert - wirklich die Biologie? Sie nachzubauen ist nicht so schwierig. Für ein menschliches Gehirn fehlen uns noch die Möglichkeiten. Aber für ein niederes Wesen funktioniert es ja schon ganz gut, nicht wahr?

Und ab wann hat nun ein Tier Bw? Ab welchem Verschaltungsgrad?

Sollte mein Verständnis des Bw noch aus früheren Zeiten herrühren, wäre ich dir für eine zeitgerechtere Definition dankbar.

Daß gleiches Verhalten nicht gleiches Funktionieren bedeuten muß, ist mir verständlich. Aber wenn gleiches Funktionieren das gleiche Verhalten erwirkt (verschalten von Drähten bewirkt Gang der Stabheuschrecke), dann sieht die Sache anders aus. Denn dann fehlt nämlich der Unterschied, der das Bw ausmacht. Mag sein, wir haben den Unterschied bisher nicht gesehen. Oder aber, das niedere Tier hat kein Bw (wofür uns der Beweis fehlt), und wir werden erst bei höheren Tieren feststellen, daß ein Verdrahten nicht ausreicht. Aber das wissen wir noch nicht. Die Möglichkeit, Lebewesen als Roboter nachzubauen (nicht zu simulieren - nachzubauen!) wurde bisher nicht generell falsifiziert.

Grüße, Sven


Gruss Euch beiden!

Leider habe ich es heute eilig. Was ich beisteuren möchte, sei mein Mathematisches Gewissen, denn niemand hat das Thema der "Grenzen Algorithmischer Systeme" angesprochen. Die Frage, ob die AI Zukunft hat, ist eng verbunden mit der Frage, was rechnerisch möglich ist- und wir alle wissen, dass es Grenzen der Berechenbarkeit gibt; wir sprechen alle von Maschinen, ohne eine Definition dieses Konstrukts. Alles (das Newtonsche Universum jedenfalls) ist eine universelle Turing- Maschine (rechnerisch, algorithmisch), und diese ist unbstreitbaren Grenzen unterworfen. Die Zukunft der AI liegt in folgenden Fragen, die erst gelöst werden müssen:
Was ist Information?

Was ist ein System?

Wie sprengt man die Gödel- Turing Grenze?

Wie wird sich Quantencomputation von klassischer Computation unterscheiden?

Sind unvorhersagbare Zustände rechnerisch (zellulare Automaten, Dynamik, Chaos)?

Ist das Gehirn eine Turing- Maschine?

Emmulation oder Simmulation?
et cetera. So viele Fragen sind noch undefiniert, und wenn uns die KI bisher etwas gebracht hat, dann das Aufwerfen von Fragen, die früher als "einfache Fragen mit einfachen Antworten" definiert wurden. Seit der KI entbrannte der Streit, ob Information durch Shannon vollständig definiert wurde, seit der KI fragt man sich, ob rechnerische Vorgänge gleichzusetzen seien, mit physikalischen Vorgängen u.v.a.
Mit diesem Brainstorming, bis heute Abend verweilend,

MV

;o)



















von Martin V - am 18.01.2000 15:31

Re: Was sich gleich verhält, muss nicht gleich funktionieren

Geschrieben von Sven am 18. Januar 2000 17:19:45:
Als Antwort auf: Re: Was sich gleich verhält, muss nicht gleich funktionieren geschrieben von Martin V am 18. Januar 2000 16:31:16:
Gruss Euch beiden!

Leider habe ich es heute eilig. Was ich beisteuren möchte, sei mein Mathematisches Gewissen, denn niemand hat das Thema der "Grenzen Algorithmischer Systeme" angesprochen. Die Frage, ob die AI Zukunft hat, ist eng verbunden mit der Frage, was rechnerisch möglich ist- und wir alle wissen, dass es Grenzen der Berechenbarkeit gibt; wir sprechen alle von Maschinen, ohne eine Definition dieses Konstrukts. Alles (das Newtonsche Universum jedenfalls) ist eine universelle Turing- Maschine (rechnerisch, algorithmisch), und diese ist unbstreitbaren Grenzen unterworfen. Die Zukunft der AI liegt in folgenden Fragen, die erst gelöst werden müssen: [..]
All deiner angesprochenen Fragen bin ich mir voll und ganz bewußt. Wir haben ja auch schon oft und lange darüber geredet.
Ich bin mit meinen postings absichtlich auf eine einfacherere Ebene gegangen, um die prinzipielle Idee des "Simulation ist nicht Bw" zu bearbeiten.

Denn meine Argumentation ist dahingehend gleichbedeutend, daß auch nicht-algorithmische Prozesse im Prinzip nachgestellt werden können, solange man ihre Ursachen definieren kann (Synapsen-Verschaltung, Mikrotubuli-Quantenfelder oder was-weiß-ich). Die Betonung liegt hier wieder auf Nachstellen, nicht auf Nach-Berechnen.

Meiner Meinung nach ist die einzige Möglichkeit für ein Nicht-Nachbauen-Können, wenn das Bw eben nicht durch das Gehirn hervorgerufen wird, sondern sich des Gehirnes als Träger bedient. Und sich aus internen Gründen entschließt, halt nur ein Gehirn zu wollen, keine Drähte.
Grüße, Sven

















von Sven - am 18.01.2000 16:19

Re: Das Drinnen und Draussen eines Systems

Geschrieben von sascha am 18. Januar 2000 17:22:44:
Als Antwort auf: Das Drinnen und Draussen eines Systems geschrieben von Martin V am 15. Januar 2000 17:40:00:
Was ist ein System?
















von sascha - am 18.01.2000 16:22

Der Anfang

Geschrieben von Irrläufer am 18. Januar 2000 19:30:27:
Als Antwort auf: Re: Das Drinnen und Draussen eines Systems geschrieben von sascha am 18. Januar 2000 17:22:44:
Ich hätte da mal ne Frage!

Kann man etwas (wenn ja, was) über die Grundbedingungen für phänomenale Zustände aussagen?
War meine Frage, die das hier zum rollen gebracht hat, und wenn ich alles richtig verstanden habe, gibt es solche nicht, da man nur bei sich selbst 100%ig sicher sein kann Qualia zu haben.
Aber ich bin gespannt, wer (wenn überhaupt jemand) diese Diskussion, mit welchem Argument für sich entscheidet.
Gruß

ein aufmerksamer Leser

















von Irrläufer - am 18.01.2000 18:30

Re: Der Anfang

Geschrieben von Martin V am 19. Januar 2000 14:52:37:
Als Antwort auf: Der Anfang geschrieben von Irrläufer am 18. Januar 2000 19:30:27:


Ich hätte da mal ne Frage!

Kann man etwas (wenn ja, was) über die Grundbedingungen für phänomenale Zustände aussagen?

War meine Frage, die das hier zum rollen gebracht hat, und wenn ich alles richtig verstanden habe, gibt es solche nicht, da man nur bei sich selbst 100%ig sicher sein kann Qualia zu haben.

Aber ich bin gespannt, wer (wenn überhaupt jemand) diese Diskussion, mit welchem Argument für sich entscheidet.

Gruß

ein aufmerksamer Leser
Und ein www- Frager *g*. Ich denke, dass niemand diese Frage für sich entscheidet- darum geht's ja auch nicht. Würde z.b. ein Husserl seinen Beitrag hier leisten, so könnte auch dieser nichts endgültiges zu diesem Thema beisteuern. Aber, Deine Frage hat, wie es eigentlich immer ist, noch mehr Fragen aufgeworfen und gezeigt, dass eine präzise Antwort in weiter Ferne steht- und dies ist doch Sinn und Zweck der Irrläufer, oder ;o)
Bruder Sascha (einfach göttlich):

Leider fehlt immer noch die Definition dessen, was System genannt.

Wenn ich in Beiträgen über "Systeme" schreibe, dann über formale Systeme, denn diese sind definiert. Elementarzeichen, Ableitungsregeln, Axiome- ähnlich meinem noch im wahrsten Sinne unvollständigen Gödel- System S1. Auch Hofstadter gibt mit seinem MU- System in Gödel, Escher, Bach ein gutes Beispiel.

Ein System (es gibt ja viele Arten) sollte in sich operational geschlossen sein- dies sei eine Grundbedingung. Ein Beipiel anderer Art sei Conways "Game of Live", das Du sicher kennst.
eiligst, weil heute wieder Klausur,
MV

















von Martin V - am 19.01.2000 13:52
Zur Information:
MySnip.de hat keinen Einfluss auf die Inhalte der Beiträge. Bitte kontaktieren Sie den Administrator des Forums bei Problemen oder Löschforderungen über die Kontaktseite.
Falls die Kontaktaufnahme mit dem Administrator des Forums fehlschlägt, kontaktieren Sie uns bitte über die in unserem Impressum angegebenen Daten.