Jump to content

Talk:Restless Souls/Technology: Difference between revisions

m
no edit summary
mNo edit summary
mNo edit summary
Line 562: Line 562:
** The actual data-holding model, including its parameters and weights. Most often, this is a Large Language Model (LLM) or a Large Multimodal Model (LMM). The learned data consist of statistical patterns about text, images, or other media. Very most of the original raw data cannot be reconstructed from the model.
** The actual data-holding model, including its parameters and weights. Most often, this is a Large Language Model (LLM) or a Large Multimodal Model (LMM). The learned data consist of statistical patterns about text, images, or other media. Very most of the original raw data cannot be reconstructed from the model.
** Reinforcement learning from human feedback (RLHF) and (its successor RLAIF) can be named as another important feature that added a reward model for higher quality and alignment.
** Reinforcement learning from human feedback (RLHF) and (its successor RLAIF) can be named as another important feature that added a reward model for higher quality and alignment.
** Other features or milestones like COT, MoE, context expansion and the use of external tools via MCP to compensate own shortcomings are better described as incremental improvements in the evolution of GenAI.<!--
** Other features or milestones like chain of thought (reasoning), mixture of experts (MoE), context expansion and the use of external tools via MCP to compensate own shortcomings are better described as incremental improvements in the evolution of GenAI.<!--
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement learning from human feedback (RLHF), in best case GPTs have a ''transplanted base intelligence'' but they lack the important feature to really learn for themselves. Low quality "synthetic data" can even worsen the models.
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement learning from human feedback (RLHF), in best case GPTs have a ''transplanted base intelligence'' but they lack the important feature to really learn for themselves. Low quality "synthetic data" can even worsen the models.
:: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].)
:: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].)
Line 914: Line 914:


  Aktives Lernen, Selbstverbesserung, Räumliches Denken, Fehlertoleranz durch ''Weisheit'' um Unsicherheiten (ungenaue Vorgaben) richtig zu handeln, Weltmodelle.-->
  Aktives Lernen, Selbstverbesserung, Räumliches Denken, Fehlertoleranz durch ''Weisheit'' um Unsicherheiten (ungenaue Vorgaben) richtig zu handeln, Weltmodelle.-->
'''Wie kann man den stark menschlich gefärbten Begriff Weisheit technisch beschreiben?'''
Weisheit
* Weisheit wird oft mit '''Lebenserfahrung (''getestetem Wissen'')''' umschrieben.
* '''''Demut''''' gehört zum Teil auch dazu. Weise Menschen wissen, wann sie über etwas nicht genug wissen. Ergo, sie verfügen auch über ein gutes '''Risikomanagement'''.
<!--Zum allgemeinem Risikomanagement würde bei AI das Alignment in besonderer Weise hinzukommen. Es ist eine indirekte Voraussetzung. Priorität: Schutz menschlichen Lebens. Weil Menschen sonst kein echte AGI zulassen würden.--><!--
* Guardian models (Recht, Ethik, technische Sicherheit)-->
<!--Für eine (Denk)Aufgabe notwendige Tools instant selbst bauen können. (Umliegendes Entwicklungs- und Toolingsystem)-->
Demut und Risikomanagement:
* Demut bedeutet unter anderem, dass abweichende oder komplett unbekannte (ungetestete) Szenarien Gefahren darstellen können.
* Fehlertoleranz (unsauberen Input erkennen können, nachfragen, verschiedene Szenarien planen und die sicheren davon ausführen)
* Risikoerkennung (Gegenwart, direkte Erkennung - sowie Vergangenheit, Musterabgleich mit Gedächtnis) und Risikoabschätzung (Zukunft, Vorab-Simulation) -- Human-Level Planung: intelligente (spontan erstellte, aber womöglich nur vermeintlich beste Lösungswege) werden von Weisheit (Erfahrung) gegengecheckt (Akzeptable Lösungen = Whitelist - Blacklist (verworfenen Lösung, wann anders erneut überprüfen können, wenn sich Bedingungen geändert haben)) Blacklist könnte durch Guardian model erstellt werden.
** Vorab-Simulation
*** Globales Denken auch für lokale Ziele: globales, langfristiges Denken. (Bewusstsein für die zusätzlichen Konsequenzen, die zeitlich, räumlich und thematisch außerhalb des Zielbereichs liegen können.)
* Vorsicht:
** Kosten-Nutzen-Analyse
** Risikominimierung (bei wenig getesteten Methoden, diese langsamer, in kleineren Schritten testen), ergo Gedächtnisspeicher der mit Erfahrungen gefüllt wird
<!--Bei einer echten AGI wird die Intelligenz eines erwachsene Menschen als Vergleich genommen. Kinder sind risikofreudiger, weniger bedacht auf Dinge, die außerhalb ihres Zielradius liegen. Das grenzt an den Aspekt Self-awareness und Demut.-->
* Self-awareness:
** Bewusstsein für die eigene Fitness (Intelligenz; Erfahrung; andere, eigene verfügbare Ressourcen (z. B. Kontextfenster, "Ehrlichkeit" über verfügbares Wissen bzw. die Kapazität Wissen zu richtig verarbeiten zu können, damit es nicht zu Halluzinationen kommt)


[...]
[...]
8,727

edits