Talk:Restless Souls/Technology: Difference between revisions

m
mNo edit summary
Line 810: Line 810:


ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer [[commons:File:JPEG Generation Loss rotating 90 (stitch of 0,100,200,500,900,2000 times).png|JPG-Datei, die immer wieder neu geöffnet und mit einem verlustreichen Komprimierungsalgorithmus abgespeichert wird]], es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.] Mittlerweile haben minderwertige "synthetische Daten" gezeigt, wie wichtig memetsche Hygiene ist. Der massenhafte Einsatz generativer AIs verseucht den globalen Informationspool, sodass, wenn ein neues Modell aus diesem Pool lernt, quasi im Vergleich zu seinen Vorgängern unter (Neuro-)[https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html Degeneration] leidet. -- 2024: Die jüngsten Implementierungen von Chain of thought (COT) oder "reasoning" sind nur ein schwacher Trost. Es muss an allen Fronten weiter geforscht werden.
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer [[commons:File:JPEG Generation Loss rotating 90 (stitch of 0,100,200,500,900,2000 times).png|JPG-Datei, die immer wieder neu geöffnet und mit einem verlustreichen Komprimierungsalgorithmus abgespeichert wird]], es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.] Mittlerweile haben minderwertige "synthetische Daten" gezeigt, wie wichtig memetsche Hygiene ist. Der massenhafte Einsatz generativer AIs verseucht den globalen Informationspool, sodass, wenn ein neues Modell aus diesem Pool lernt, quasi im Vergleich zu seinen Vorgängern unter (Neuro-)[https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html Degeneration] leidet. -- 2024: <!--''Let's not jump (too far) to conclusion...''-->Die jüngsten Implementierungen von '''Chain of thought (COT)''' oder "reasoning" sind nur ein schwacher Trost. Es muss an allen Fronten weiter geforscht werden.
:: DeepSeek. Das Gehirn verfügt über spezialisierte Bereiche. In Software kann die [https://www.zdfheute.de/wirtschaft/unternehmen/nvidia-kurssturz-ki-deepseek-wallstreet-100.html Effizienzsteigerung] durch verschiedene [https://the-decoder.de/deepseek-v2-ist-das-neue-mixture-of-experts-spitzenmodell/ kooperierende Expertensysteme] (Mixture-of-Experts (MoE)) nachgeahmt werden.
:: DeepSeek. Das Gehirn verfügt über spezialisierte Bereiche. In Software kann die [https://www.zdfheute.de/wirtschaft/unternehmen/nvidia-kurssturz-ki-deepseek-wallstreet-100.html Effizienzsteigerung] durch verschiedene [https://the-decoder.de/deepseek-v2-ist-das-neue-mixture-of-experts-spitzenmodell/ kooperierende Expertensysteme] '''(Mixture-of-Experts (MoE))''' nachgeahmt werden. Des Weiteren: Art des Trainings, Inference, Distilled Reasoning
:: Answer refinement: TRM (Samsung) (Ergo: Sowieso große AIs sollten nicht nur über MoE, sondern auch über mehrere Architekturen verfügen, deren Einsatz sie selbst bestimmen, um die Verarbeitung effizienter zu machen.) (Das erinnert irgendwie auch daran, dass Rechenoperationen für sie optimierte Hardware nutzen sollte. Auf modernen Computerchips findet man immer mehr spezialisierte Bereich: CPU, GPU, NPU, etc.)
::: https://www.forbes.com/sites/ronschmelzer/2025/10/09/samsung-ai-research-team-builds-a-tiny-model-with-big-powe/
::: https://the-decoder.de/winziges-ki-modell-schlaegt-o3-mini-und-gemini-2-5-pro-im-arc-agi-benchmark/
:: Baby Dragon Hatchling


[...]
[...]
Food for thought:
* https://www.zeit.de/wissen/2025-09/richard-socher-ki-nur-eine-frage-interview-podcast
====Memetische Hygiene====
* Data Poisoning: [https://www.anthropic.com/research/small-samples-poison A small number of samples can poison LLMs of any size]
* <!--Datenverwässerung über "Raum" (1) und "Zeit" (2) vermeiden--><!--(1)-->Verwässerung: minderwertige synthetische Daten vermeiden, zu starke Verallgemeinerung durch nicht per se falsche aber ''unspezifische'' Daten vermeiden ("[https://www.datasciencecentral.com/avoid-genai-model-collapse-and-death-by-averages/ Death by Average]")
** <!--(2)-->Modelle müssen eine Form von ''neuronale Plastizität'' verfügen, die es für sie leichter macht eigene Änderungen zu überleben. Beispiel: Baby Dragon Hatchling
*** https://www.golem.de/news/neue-ki-architektur-was-ist-baby-dragon-hatchling-2510-201047.html
*** https://www.mind-verse.de/news/neuronale-netzwerke-inspirationsquellen-ki-forschung
* Adaptives "Immunsystem": Aus Effizienzgründen sollte das Kernmodell auch vor Desinformation geschützt werden. Unwahrheiten (von gesellschaftlicher Relevanz) sollten in einem anderen Datenpool gespeichert werden. Ebenso sollte es einen Pool für "(noch) nicht bewertet" und "umstritten" geben, die je nach Query eingerechnet werden können.


====Censorship====
====Censorship====
8,480

edits