m.fuchs hat geschrieben: Sa 1. Feb 2025, 15:30
Das halte ich für falsch. Mir gefällt die
einleitende Erklärung auf WIkipedia zum Verstehen eigentlich ganz gut:
Verstehen (auch Verständnis genannt) ist das inhaltliche Begreifen eines Sachverhalts mit dem Verstand, das nicht nur in der bloßen Kenntnisnahme besteht, sondern auch und vor allem in der intellektuellen Erfassung des Zusammenhangs, in dem der Sachverhalt steht.
Das ist unmöglich für eine Textanalyse zu erfüllen - da müssten andere Ansätze wie
Semantic Web ausprobiert werden.
Das klingt zwar wunderbar, aber was ist und wie funktioniert denn unser "Verstand"? Unser Gehirn bildet ein riesiges neuronales Netz, und um zu ergründen, was genau in dem Netz vorgeht, werden wir noch eine hübsche Weile brauchen. Meine Vermutung, die ich allerdings nicht belegen kann, ist, dass das Gehirn im Wesentlichen nichts anderes macht, als irgendwie Muster aller Art zu erkennnen und zueinander in Beziehungen zu setzen. Was wir als Verstand bezeichnen, spielt sich auf einer ganz anderen Ebene ab, die von den konkreten Abläufen schon komplett abstrahiert. wenn man nicht gar religiöse Vorstellungen von "Seele" und dgl. ins Spiel bringen will (die in Wirklichkeit genau gar nichts erklären).
vor allem in der intellektuellen Erfassung des Zusammenhangs,
Und genau da hakt es. Was muss denn im Gehirn passieren, damit ein Zusammenhang "intellektuell erfasst" wird? Die neuen Informationen müssen irgendwie mit bereits bekanntem und im Gehirn Gespeichertem verknüpft werden. Nichts anderes tut eine AI, allerdings natürlich noch um viele Größenordnungen rudimentärer als unser hochentwickeltes Gehirn.
Und wer sortiert bei den Ergüssen der Chatbots aus?
Langfristig werden die Entwickler der AI die Funktion einer selektierenden Instanz ausfüllen, indem die Algorithmen verbessert und ebentuell auch Fehlantworten klassifiziert und dann gezielt angegangen werden. Aber bei der meisten Fragen, die man gerade im Zusammenhang mit Programmierung stellen kann, kann man den von der AI vorgeschlagen Lösungsweg ganz einfach ausprobieren. Mir hat ChatGPT bis jetzt auf meine Fragen meistens richtige Antworten geliefert, und wenn einmal ein falsche dabei war, dann habe ich schnell bemerkt, dass es so nicht geht. Insgesamt gegenüber einer normalen Internetrecherche eine gewaltige Ersparnis an Zeit und Aufwand.
Also sofern er den Fehler erkennt. Ich sehe da keinerlei Vorteile oder Arbeitserleichterungen.
Ob ein bestimmter Code funktioniert oder nicht, um eine einfache Funktion zu erfüllen, ist nicht schwer zu erkennen. Und wenn 9 von 10 Antworten richtig sind, ergibt das eine gewaltige Erleichterung der Arbeit.
dann kommt halt Unfug bei raus.
Dass die aktuellen Sprachmodelle mit logischen Aufgabenstellungen, Logikrätseln und dgl. leicht überfordert sein können, wurde in diesem Thread schon mehrfach festgestellt. Das ist aber nicht der Aufgabenbereich, für den sie entwickelt worden sind.
Aber wenn ich dieses Wissen habe, warum sollte ich dann den Chatbot nach etwas fragen was ich sowieso schon weiß?
Wenn ich weiß, was ich will, heißt das eben leider nicht, dass ich weiß, wie es geht. EInen Lösungsweg auf Richtigkeit überprüfen ist in aller Regel ungleich weniger aufwändig, als einen zu finden. Das gilt übrigens auch für Programmieranfänger. Wenn jemand gerade Pascal neu lernt, heißt das ja nicht, dass er das Denken erst lernen muss. Natürlich darf man den Output von ChatGPT nicht als göttliche Wahrheit betrachten. Aber die Fragen, die ein Programmier-Anfänger hat, wird eine AI wohl meistens richtig (und mit Engelsgeduld) beantworten.
six1 hat geschrieben: Sa 1. Feb 2025, 15:56
Allein, das der Darwinismus
Ehrlich gesagt, wenn jemand das Wort "Darwinismus" in den Mund bzw. in die Tastatur nimmt, fehlt mir schon ziemlich die Lust, weiter zu diskutieren...