Aber wird diese Tools-Ebene wirklich den Möglichkeiten von GPT gerecht, oder ist da etwa schon mehr??
Hier möchte ich nochmal auf den schon weiter oben verlinkten Artikel verweisen.
Zwei Beispiele aus dem Artikel, bei denen ChatGPT beeindruckende Ergebnisse liefert die weit über reine Textgenerierung hinausgeht.fritzman hat geschrieben: ↑Fr 31. Mär 2023, 13:57https://www.golem.de/news/kuenstliche-i ... 72891.html
Zum Beispiel habe ich ChatGPT einmal gefragt, wie man ein altes Surfbrett benutzen kann, um die Arbeitssicherheit in einer Chemiefabrik zu erhöhen. Ein Vorschlag des Sprachmodells war, das Surfbrett als Barriere zu nutzen, um den Zugang zu gefährlichen Bereichen zu begrenzen, und aus dem Segel eine Art Plantschbecken zu nähen, um das versehentliche Austreten gefährlicher Flüssigkeiten einzudämmen.
Gemessen an der Absurdität meiner Frage fand ich diese Antworten darauf durchaus vernünftig. Auch wenn die Trainingsdaten für ChatGPT riesig sind, erscheint es mir sehr unwahrscheinlich, dass diese Ideen darin vorkamen. Und selbst, wenn das zufällig der Fall wäre, könnte ich viele andere ebenso unwahrscheinliche Beispiele geben.Daher kann ich nur schlussfolgern, dass ChatGPT die physikalischen Eigenschaften eines Surfbretts zu einem gewissen Grad versteht und kreative neue Verwendungen dafür finden kann. Dies ist mehr, als einfach nur statistische Muster in bestehenden Texten über das Windsurfen anzuwenden. Es muss also ein recht gutes internes Modell der Welt haben, das zumindest in Grundzügen dem von dir beschriebenen Modell der Umwelt im Gehirn ähnelt.
GPT wurde mit einer Unmenge an Texten gefüttert und mit entsprechenden Trainingsmethoden trainiert. Die Textebene ist dabei begrenzend und erlaubt viele aber bei weitem nicht allen Input um unsere reale Welt zu erfahren und wiederzugeben. In diesem Rahmen zeigt GPT aber schon durchaus eine gewisse Form von Intelligenz.Lassen Sie mich ein Beispiel aus einem Dialog mit ChatGPT geben: Ich fragte, ob man ein Auto mit rechteckigen Rädern bauen könne. Die Antwort war im Wesentlichen korrekt im Sinne von "Ja, man kann es tun, aber es ergibt keinen Sinn". Aber sobald ich etwas genauer nachbohrte, wurde offensichtlich, dass das Sprachmodell viele der physikalischen und geometrischen Details durcheinanderbringt.
Man kann sich ja mal überlegen wie es weiter gehen könnte. Was käme dabei heraus wenn man GPT nochmal deutlich grösser gestaltet und zusätzlich zu den Texten mit weiteren Informationsebenen füttert, z.B. mehr physikalische Zusammenhänge oder alles was ein Mensch so im laufe seiner Kindheit wahrnimmt? Das alles ist nur eine Frage der Verfügbarkeit von einer Unmenge an Trainingsdaten. Dann wäre man schon ganz nahe dran an Intelligenz, oder?
Auf alle Fälle ist dann mehr als die reine Tool-Eben zu erwarten. Dann geht es um das ersetzten won Menschlicher Intelligenz. Da sind dramatische Veränderungen für uns alle zu erwarten!
Im Moment stolpern wir einfach so in diese Zukunft und es geht alles rasend schnell. Ich bin sicher nicht gegen den Fortschritt, aber ich finde es braucht dringend mehr öffentliche Diskussion. Die möglichen Auswirkungen sind einfach zu dramatisch. Und Diskussion nicht erst wenn das Kind in den Brunnen gefallen ist und ungewünschte Veränderungen nur mehr schwer wieder zu korrigieren sind.
Was denkt ihr?
Gruß,
Fritz.