Könnte die künstliche Intelligenz zum Problem werden ?

Sakura Doppelgewinn - Aktion im April 2024 - alles weitere im Gewinnspiel - Thread.
Das nächste Treffen: MAD auf der Retro-Classics 2024 in Stuttgart
Alle Infos auf der Webseite der RETRO CLASSICS in Stuttgart vom 25. - 28. April 2024
Am Sonntag, den 28.04.2024 gegen 14 Uhr geht das Forum in den Wartungsmodus.
Einige Sicherheitsupdates bzw. Fehlerkorrekturen müssen installiert werden.
Alle Änderungen können für die Version 5.5 hier nachgelesen werden.
  • depositphotos_212732896-stock-illustration-humanoid-robot-listening-music-cybernetic.jpg

    Probleme mit der Künstlichen Intelligenz


    Der Linguist Noam Chomsky erkennt einen grundlegenden Unterschied zwischen maschinellem Lernen und menschlichen Denken.

    In einer Zeit großer Gefahren und großer Verheißungen zu leben, kann durchaus inspirierend sein. Man existiere dabei zwischen den Möglichkeiten der Komödie und Tragödie, sagte der Schriftsteller Jorge Luis Borges. In unserer Zeit sorgen Programme wie ChatGPT für Verheißungen und das Gefühl, einer unbekannten Gefahr ausgesetzt zu sein, glaubt der Linguist Noam Chomsky: Ist das Programm eine echte künstliche Intelligenz (KI)? Können diese dann denken wie Menschen, begrifflich und mit logischen Schlüssen? Und kommen solchen KI-Maschinen ähnliche Rechte wie Menschen zu, wenn sie ein Bewusstsein aufweisen?

    Doch die Debatte ist nicht neu, wie auch Chomsky betont. Die universale Rechenmaschine des Kybernetikers Alan Turing sorgte bereits in den 1940er Jahren für einen Aufschrei. Die Differenz zwischen Maschinen und menschlichen Rechnern war von ihm mit einem Schlag aufgehoben worden. Turing fragte sich daher, wie man einen Beweis führen könne, dass Maschinen eine künstliche Intelligenz besitzen. 1948 lieferte er die Antwort: Ein Mensch sitzt einer Turing-Maschine gegenüber, die intellektuelle Fähigkeiten simuliert. Sobald der Mensch keinen Unterschied zwischen sich und der Maschine feststellen kann, ist der Test bestanden und der Beweis angetreten, dass auch die Maschine denken kann.

    Dieses Experiment steht auch in dem Film „Ex Machina“ im Mittelpunkt der Handlung. Ein von dem Chef des Technologie-Unternehmens „Bluebook“ ausgesuchter Programmierer versucht festzustellen, ob ein in einem weiblichem Roboter befindliches KI-System Wahrnehmungserlebnisse, Gefühle und Stimmungen hat oder sie nur vorspiegelt. Der junge Computerfreak attestiert der Maschine KI. Die Maschine hat ihn jedoch ausgetrickst. Sie türmt. Mit ihrem Ausbruch kündigt sie das Zeitalter der Herrschaft von Maschinen über den Menschen an.


    Die Macher des Films „Ex Machina“ haben das Technologie-Unternehmen nicht aus Zufall „Bluebook“ genannt. Der Philosoph Ludwig Wittgenstein hatte seine gedanklichen Entwürfe in einem blauen Karton binden lassen. Er nannte es „Das blaue Buch“. Darin erörterte er zentrale Fragen wie „Was ist Schmerz?“, „Was ist Denken?“, „Was ist Meinen?“ Wittgenstein macht uns darauf aufmerksam, dass wir diese Fragen nicht so beantworten können, indem wir auf Gegenstände wie Bäume oder Häuser zeigen. Es ist keine Dingwelt, die uns helfen würde, eine Antwort darauf zu finden, ob jemand Schmerzen hat. „Wir spüren, dass wir auf nichts zeigen können, um sie zu beantworten, und dass wir gleichwohl auf etwas zeigen sollten. (Wir haben es hier mit einer der großen Quellen philosophischer Verwirrung zu tun: ein Substantiv lässt uns nach einem Ding suchen, das ihm entspricht.)“, heißt es im blauen Buch. Die Antwort sei in dem gesellschaftlichen und sprachlichen Umgang der Menschen allein zu finden: „Nur von dem, was sich benimmt wie ein Mensch, kann man sagen, dass es Schmerzen hat.“


    Werden wir dann bei Maschinen jemals erkennen können, ob sie über Bewusstsein verfügen? Eher nicht, sagt David Chalmers in einem Interview mit der „FAZ“. Der australische Philosoph und Mathematiker ist einer der weltweit führenden Experten auf dem Gebiet der Philosophie des Geistes, das sich mit der Relation von Bewusstseinszuständen und den ihnen zugrundeliegenden physiologischen Prozessen beschäftigt. Dahinter steckt das klassische Hardware-Software-Problem, wie Gehirn und Geist zusammenspielen. Chalmers weist für den Fall eines möglichen Bewusstseins von maschineller Intelligenz darauf hin, dass wir ja auch bei Menschen nicht eigentlich wissen, dass sie ein Bewusstsein haben. Wir nehmen es lediglich an, dass ihre inneren Zustände den unsrigen gleichen.

    Für ausgeschlossen hält Chalmers es nicht, dass sie eines Tages Bewusstsein haben könnten. ChatGPT und ähnliche Programme sind von ihrer Konzeption her unbegrenzt in dem, was sie „lernen“ können, „warum sollte in dem Prozess nicht auch ein Bewusstsein entstehen können?“


    Dennoch gibt es einen gravierenden Unterschied zwischen menschlicher und künstlicher Intelligenz, der beinahe essenziell ist. Zwar seien ChatGPT von OpenAI, Bard von Google und Sydney von Microsoft Wunderwerke des maschinellen Lernens. Sie nehmen riesige Datenmengen auf, suchen darin nach Mustern und werden immer besser darin, statistisch wahrscheinliche Ergebnisse zu erzeugen – wie zum Beispiel scheinbar menschenähnliche Sprache und Gedanken. Das scheint jenen lange prophezeiten Moment, in dem maschinelle Gehirne menschliche Gehirne nicht nur quantitativ in Bezug auf Verarbeitungsgeschwindigkeit und Speichergröße übertreffen, sondern auch qualitativ in Bezug auf intellektuelle Einsicht, künstlerische Kreativität und jede andere eindeutig menschliche Fähigkeit übertrumpfen, näher herbeizurücken. „Dass dieser Tag kommen mag, ist denkbar“, erklärt der Linguist und Anarchist Noam Chomsky in einem Beitrag für die „New York Times“, „aber seine Dämmerung ist noch nicht angebrochen“, behauptet Chomsky.


    „Wie nützlich diese Programme auch immer in einigen engen Bereichen sein mögen, so wissen wir doch aus der Wissenschaft der Linguistik und der Wissensphilosophie, dass sie sich grundlegend von der Art und Weise unterscheiden, wie Menschen denken und Sprache verwenden. Diese Unterschiede schränken die Möglichkeiten dieser Programme erheblich ein, da sie mit unauslöschlichen Mängeln behaftet sind“, so der US-amerikanische Sprachwissenschaftler.

    Chomsky erklärt den menschlichen Geist in den Worten Wilhelm von Humboldts, der mit Hilfe der Sprache, „unendlichen Gebrauch von endlichen Mitteln“ machen und Ideen und Theorien mit universeller Reichweite schaffen kann. Für den mittlerweile 94-Jährigen ist der menschliche Verstand vollkommen unterschiedlich im Vergleich zu bisherigen Entwicklungen auf dem Feld der KI. Denn der Geist des Menschen sei keine schwerfällige statistische Maschine für den Musterabgleich, „die Hunderte von Terabyte an Daten verschlingt und die wahrscheinlichste Gesprächsantwort oder die wahrscheinlichste Antwort auf eine wissenschaftliche Frage extrapoliert“. Für Chomsky ist das genaue Gegenteil der Fall: „Der menschliche Verstand ist ein überraschend effizientes und sogar elegantes System, das mit kleinen Informationsmengen arbeitet; es versucht nicht, grobe Korrelationen zwischen Datenpunkten abzuleiten, sondern Erklärungen zu schaffen.“

    Das Kernstück von Maschinen sind Beschreibungen und Vorhersagen, während es im menschlichen Denken Erklärungen sind. Chomsky illustriert den Unterschied an einem klassischen Beispiel: „Angenommen, Sie halten einen Apfel in der Hand. Nun lassen Sie den Apfel fallen. Sie beobachten das Ergebnis und sagen: ,Der Apfel fällt.‘ Das ist eine Beschreibung. Eine Vorhersage wäre die Aussage ,Der Apfel wird fallen, wenn ich meine Hand öffne‘.“


    Eine Erklärung liefere etwas mehr als Beschreibung und Vorhersage. Natürlich sei jede Erklärung nach menschlichem Vorbild nicht unbedingt richtig; „wir sind fehlbar. Aber das ist ein Teil dessen, was Denken bedeutet: Um richtig zu sein, muss es möglich sein, falsch zu liegen. Intelligenz besteht nicht nur aus kreativen Mutmaßungen, sondern auch aus kreativer Kritik“.

    Das menschliche Denken basiere auf möglichen Erklärungen und Fehlerkorrekturen, ein Prozess, der die Möglichkeiten, die rational in Betracht gezogen werden können, allmählich einschränkt. „Ein kleines Kind, das eine Sprache lernt, entwickelt beispielsweise – unbewusst, automatisch und schnell aus winzigen Daten – eine Grammatik, ein erstaunlich ausgeklügeltes System logischer Prinzipien und Parameter.“ Diese Grammatik könne als Ausdruck des angeborenen, genetisch installierten „Betriebssystems“ verstanden werden, so Chomsky, das den Menschen mit der Fähigkeit ausstatte, komplexe Sätze und lange Gedankengänge zu bilden. Das „Betriebssystem“ des Kindes sei aber völlig anders als das eines maschinellen Lernprogramms. Auch das scheinbar beste Ergebnis der KI beruhe, so Chomsky, auf einer „schwerfälligen statistischen Maschine für Mustererkennung. Sie füge nur das zusammen, was ihr wahrscheinlich erscheine. Künstliche Intelligenzen seien zum Halluzinieren verdammt, so Chomsky. Daran ändere auch eine höhere Leistungsfähigkeit nichts.

    Dennoch bestehe die Gefahr, die KI zu überschätzen und über das menschliche Denken zu stellen. Das hätte schlimme Folgen für Wissenschaft und Ethik, so Chomsky. Die Zeit der Verheißungen ende dann in einer Tragödie.




    Philosophen über Künstliche Intelligenz: Was denken die sich?
    Der Linguist Noam Chomsky erkennt einen grundlegenden Unterschied zwischen maschinellem Lernen und menschlichen Denken.
    www.fr.de

    mfg - M4ik


    Lass dich nicht auf Diskussionen mit Idioten oder Dummköpfen ein !
    Sie ziehn dich nur auf ihr Niveau runter und schlagen dich dann mit ihrer Erfahrung !
    ;) :D