Talk:Restless Souls/Technology: Difference between revisions

m
mNo edit summary
Line 741: Line 741:
ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer JPG-Datei, die immer wieder neu geöffnet und abgespeichert wird, es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.]
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer JPG-Datei, die immer wieder neu geöffnet und abgespeichert wird, es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.]
: Mittlerweile haben minderwertige "synthetische Daten" gezeigt, wie wichtig memetsche Hygiene eigentlich wäre. Die jüngsten Implementierungen von Chain of thought (COT) sind nur ein schwacher Trost. Es muss an allen Fronten weiter geforscht werden.


[...]
[...]
Line 752: Line 753:


====Self-censorship====
====Self-censorship====
For obvious reasons, this will be kept in bigger GPTs / AIs.
For obvious reasons, this and "alignment" will be kept in bigger GPTs / AIs.


====The intelligence exploit====
====The intelligence exploit====
8,013

edits