Das Wissen der Algorithmen
von phorkyas
Seit der Mensch Automaten baut scheint er davon fasziniert sich mit diesen zu messen; am besten noch in geistigen Dingen. 1769 erregte so eine Schachmaschine Aufsehen, die scheinbar selbsttätig Schach spielte. Auch wenn dabei noch ein Mensch im Inneren saß, um die Züge zu machen, gab es bald mechanische Apparaturen, die schon ein Turmendspiel bewerkstelligen konnten – bis zu der Entwicklung heute, nach der auch die weltbesten Spieler chancenlos sind gegen den Computer.
(Ganz hübsch finde ich auch noch die Schachroboter, die wie die Apparatur von 1769 selbst noch einen Arm haben, um die Figuren zu bewegen – z.B. hier.)
Was mich dabei interessiert: Das menschliche Erkennen scheint mir gekennzeichnet durch Begriffsbildungen und das Spiel mit diesen Begriffen. Beim Schach hat es so seine Jahrhunderte gedauert bis man Dinge wie Freibauern, offene Linien, Gambit usw. entdeckte und beschrieb. Wie nun ist diese vom Menschen entwickelte Schachtheorie im Computerprogramm abgebildet? Wenn man in das Programm hineinschreibt, was ein Freibauer ist, so könnte man wohl davon sprechen, dass der Rechner es „weiß“. Wie aber, wenn man es nicht codiert, sondern die Zugfolgensuche so weit betreibt, bis das Programm die Umwandlung selbst „sieht“? Wenn das Programm in beiden Fällen sich so verhält, dass es den Gegner daran hindert einen möglichen Freibauern zu schaffen, sollte man dann davon sprechen, dass es weiß, was ein solcher ist? Oder begeht man dann den berüchtigten Kategorienfehler (so wie ihn die Überschrift ankündigt)?
Beim Schachprogramm tendiere ich zu einem: Ja. Es scheint doch absurd zu sagen ein solches Computerprogramm verstehe nicht, was es da spiele, wenn es mittlerweile in der Lage ist in Positionen, die Menschen für verloren halten würden, noch Widerstand zu leisten oder gar zu gewinnen, wo gerade also unser Verstehen schon an Grenzen gerät. In diesem Zusammenhang schwirrt mir aber noch eine griffige Formulierung des Funktionalismus von Dennett im Kopf herum: Wer sich schlau verhalte, dem müsse man auch Schlauheit zu gestehen (genaues Zitat muss ich noch nachliefern). Oder bezogen auf das Bewusstsein: egal was im Inneren für Prozesse ablaufen, was auch immer die ‚Hardware‘ sei, wenn sich etwas so komplex verhält, als habe es Bewusstsein, mit welcher Berechtigung sollte man es ihm dann absprechen?
Gegenfrage: Ein Taschenrechner löst Rechnungen, die ich nicht lösen kann. Versteht er deswegen was er tut? Darauf kann man getrost mit „nein“ antworten. Das Kriterium muss demnach ein anderes sein.
Du beziehst dich doch jetzt aber auf einfache arithmetische Operationen, also auf eine Rechnung, die du nicht im Kopf machen könntest, sehr wohl aber mit Papier und Bleistift? Dann gäbe es doch kein Problem, oder? Ich meine, welche Erkenntnis steckt denn schon hinter 21973462 * 6749321 = ? – was gibt es denn da schon zu verstehen, außer die Befolgung gewisser arithmetischer Regeln.
Falls du Taschenrechner meintest, die schon mit komplizierteren Algorithmen versehen sind, z.B. ne Bisektion oder was durchführen können, sollte man dann nicht auch diese gewisse Fertigkeit dem Ding zugestehen. Deswegen ist das Schach-Beispiel vielleicht auch treffend: um uns zu retten sagen wir dann gerne, ja aber Intelligenz die hat doch der Programmierer da hineingesteckt, der den Algorithmus oder das Programm ersann – schon, aber wir können doch gerade nicht sagen, dass der Programmierer von Deep Blue besser Schach spielt als Kasparov.
Ich meinte schon kompliziertere Rechenoperationen. Im Prinzip tut der Schachcomputer ja nichts anderes, oder? Er rechnet. Und gewinnt, weil er das schneller und fehlerfreier kann als wir (und wahrscheinlich auch, weil er über einen riesigen Datenspeicher von Schachpartien verfügt). Richtig?
Die Folgerung wäre, dass es nicht um Schlauheit oder Intelligenz, sondern um Rechenleistung geht.
Und Verstehen setzt Bewusstsein voraus, davon kann bei Taschenrechnern oder Schachcomputern keine Rede sein (oder anders: man müsste zeigen können, dass sie über welches verfügen).
Richtig? Ich wollte ja gerade den Punkt machen, dass er wenn er tief genug rechnet sozusagen über Schachwissen verfügt. Es war auch schon lange nicht mehr so, dass die Schachprogramme rein taktisch gut sind, sondern auch positionell sehr gut spielen können. Natürlich sind die Fortschritte in Computer-Schach und -Go stark mit der wachsenden Rechnerleistung korreliert,.. aber ich wollte das gerade mal als Beispiel nehmen, wo es nicht mehr so einfach ist von der dummen Maschine zu sprechen – natürlich kann man das immer noch tun. Das Schachprogramm kann jetzt nicht Stricken oder Autofahren – die variablen Leistungen biologischer Gehirne wird man so flott nicht erreichen können… aber unser Überlegenheitsgefühl ist in solchen Einzeldisziplinen doch nicht mehr gerechtfertigt.
Dass Verstehen Bewusstsein vorraussetze finde ich insofern problematisch, als dass es da viele Schattierungen gibt. Rudimentäre Formen des Verstehens gibt es sicherlich auch bei vielen Tieren – und: inwiefern ist unser Verstehen gerade bei Go oder Schach wirklich bewusst. Ich habe die Begriffe angesprochen, das was als Wissen verbal weitergegeben werden kann, aber einige sehr gute Spieler werden vielleicht gerade ihrer Intuition folgen, also vielleicht gar nicht verbalisieren können, warum sie ihren Zug gut finden – er fühlt sich eben so an. Müsste man denen, dann nicht auch sagen, dass sie ihren eigenen Zug gar nicht verstünden?
(Startet Descartes bei seinen Reflexionen nicht von einem Solipsismus aus – wenn man ganz konsequent ist, muss man das meiner Meinung nach, denn nur von unserem eigenen Bewusstsein wissen wir mit Sicherheit, dass es existiert, zumindest bleut es das uns sein. Dass von anderen Menschen anzunehmen, ist schon eine Extrapolation, sinnvolle Arbeitshypothese, aber beweisen kann das keiner – nicht dass ich diese intersubjektive Klammer sprengen wollte, im Gegenteil ich halte sie für essentiell, vielleicht ist das sogar einer der großen Probleme, dass im europäischen Kulturkreis das Bewusstsein sich so groß tut, als existierte es völlig losgelöst während es ohne seine Umgebung nie zu diesem Zustand der Reflexion hätte kommen können… Aber einen Beweis, letzte Sicherheit gibt es nicht.)
Hmm.. Vielleicht hast du auch recht: mit Verstehen meinen wir eigentlich immer schon mehr, einen bewussten Akt (nur wenn man unser Bewusstsein auch wiederum „nur“ als Datenverarbeitungsprozesse im Hirn versteht, könnte man anders herum sagen, dass der Rechner da ja auch nicht viel anderes mache)
Ich verstehe leider viel zu wenig von Programmierung, Algorithmen und Schachcomputern.
Zum Verstehen: Irgendeine implizite Bewusstheit (Einsicht) spielt mindestens eine Rolle: Ein Schriftsteller kann intuitiv die richtige Formulierung finden, aber er weiß, wenn es so weit ist, er muss aber nicht (analytisch) verstehen was er tut, ein guter Fußball- oder Badmintonspieler, z.B, sind vermutlich nur dann richtig gut, wenn sie intuitiv handeln und beim Schachspieler ist es vermutlich ähnlich, auch wenn er sicher immer wieder reflektierend bestimmte Züge durchgeht. Aber sie alle können im Nachhinein zumindest erklären, warum sie so und so gehandelt haben, auch wenn das nicht in letzter Hinsicht vollständig sein muss oder kann.
Dass hinreichend komplexe, von Menschen geschaffene Systeme, Eigenschaften aufweisen können, die man nicht voraussehen konnte, möchte ich nicht abstreiten.
Von den Algorithmen weiß ich auch nicht viel –
Es ist hier ja auch fast probeweise, dass ich einmal die funktionalistische Perspektive einnehme (ich hätte gerne etwas anderes!). Mein Hirn möchte auch gerne mehr sein als eine Turingmaschine -mit Köppnick hatten wir einmal die Schnittstellenproblematik als möglichen Angriffspunkt des Funktionalismus ausgemacht. Immerhin wäre es dann noch eine sehr komplexe parallele Architektur, die wir so einfach nicht nachbilden können und wenn, dann brauchen unsere Rechner noch eine Million mal soviel Energie nicht sparsame 30 Watt.
Bei der „impliziten Bewusstheit“ könnte der Funktionalist noch weiterbohren – das fordert doch etwas heraus: wenn Erkennen, das Bewusstwerden über die Klarheit, Richtigkeit eines Gegenstandes ist, wie soll dan intuitive (un/außerbewusste?!) Erkenntnis vonstatten gehen? – Bei den Intuitionisten hörte sich das manchmal auch so merkwürdig an: da sollte etwas wahr sein, wenn man es eben intuitiv als wahr und klar erkennt. (Für Mathematiker mag das noch angehen, wenn deren Wahrheiten letztlich sowieso Tautologien sind?-) Geraten wir dann in ähnliche Zwänge, tautologische Zirkelbegründungen? Ähnliches scheint auch bei den Qualia in manchen Formulierungen vorzuliegen. Was der Maschine oder dem philosophischen Zombie abgehe, sei das Gefühl, was es ist dieser eine Mensch zu sein… Was aber sagt, ein Dennett dann, wenn es gelänge die Maschine dann so zu konzipieren, dass sie dieses Gefühl sich auch einredet. Bei Dennett ist das dann immer schon etwas ambivalent: Das klingt dann fast so als wollte er behaupten, der Mensch sei genau so eine Maschine, die sich diese Selbstillusion permanent einrede – aber sagen tut er’s nicht, und vielleicht glaubt er’s auch nicht und will nur provozieren, bzw. herausfinden, wie weit man das mit der Maschine treiben kann.. um so auch etwas über unser Bewusstsein herauszufinden?
In der Times gab’s mal nen längeren Artikel über Go: http://www.nytimes.com/2002/08/01/technology/circuits/01GONE.html (Leider schon was älter)
Ich glaube die Diskussion mit Köppnick habe ich damals gelesen.
Ich meinte, dass jemand, der eine Sache trainiert, ausübt, darüber bescheid weiß, auch dann etwas davon versteht oder erkennt, wenn er im Zuge seiner Tätigkeit intuitiv handelt (zumindest dann, wenn er es im Nachhinein erläutern kann). Es wäre sinnlos einem Schachspieler Verständnislosigkeit nachzusagen, wenn er dann und wann automatisch oder intuitiv zieht.
Ich wollte auch keineswegs den Schachspielern Verständnislosigkeit vorwerfen. Ich finde es in der Analogie/Gegenüberstellung nur interessant, wie sehr wir geneigt sind den Programmen das Verstehen abzusprechen.