Jump to content

Talk:Restless Souls/Technology: Difference between revisions

m
link fix
mNo edit summary
m (link fix)
 
(50 intermediate revisions by 3 users not shown)
Line 546: Line 546:


==Machine learning and artificial intelligence==
==Machine learning and artificial intelligence==
===Introduction===
===Terms===
Since the release of GPT-3 the public debate about AI heated up.
Since the release of GPT-3 the public debate about AI heated up.
:Is it intelligent?
:Is it intelligent?
Line 560: Line 560:


* '''ANI''' = Artificial Narrow Intelligence, '''specialized or "weak AI"''' (basically machine learning: pattern recognition)
* '''ANI''' = Artificial Narrow Intelligence, '''specialized or "weak AI"''' (basically machine learning: pattern recognition)
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement Learning from Human Feedback (RHLF)), in best case GPTs have a ''transplanted base intelligence'' but they lack the important feature to really learn for themselves. Low quality "synthetic data" can even worsen the models.
* '''GenAI''' = Generative AI, its a significant step between ANI and AGI. GenAI included at least three major points:
** The new transformer architecture (GPT).
** The actual data-holding model, including its parameters and weights. Most often, this is a Large Language Model (LLM) or a Large Multimodal Model (LMM). The learned data consist of statistical patterns about text, images, or other media. Very most of the original raw data cannot be reconstructed from the model.
** Reinforcement learning from human feedback (RLHF) and (its successor RLAIF) can be named as another important feature that added a reward model for higher quality and alignment.
** Other features or milestones like COT, MoE, context expansion and the use of external tools via MCP to compensate own shortcomings are better described as incremental improvements in the evolution of GenAI.<!--
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement learning from human feedback (RLHF), in best case GPTs have a ''transplanted base intelligence'' but they lack the important feature to really learn for themselves. Low quality "synthetic data" can even worsen the models.
:: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].)
:: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].)
:: This pushes ANI somewhat more into direction of AGI with the drawback of slower response times and higher energy costs.
:: This pushes ANI somewhat more into direction of AGI with the drawback of slower response times and higher energy costs.-->
* '''AGI''' = Artificial General Intelligence, also "strong AI" ('''on par with human thinking''', ''a real AI'' capable to fully self-improve and drive its own development)
* '''AGI''' = Artificial General Intelligence, also "strong AI" ('''on par with human thinking''', ''a real AI'' capable to fully self-improve and drive its own development)
:: In discussions AGI is often equated with super intelligence. The argument is that as soon as AGI is achieved ASI is just around the corner.
:: In discussions AGI is often equated with super intelligence. The argument is that as soon as AGI is achieved ASI is just around the corner.
:: This understates the '''wide scope of human intelligence''' and that AGI is achieved first by hyperscalers, making further improvement difficult through further scaling. At that point self-improvement is the true limiting factor and it will be constrained by society's wish to keep the AI "aligned". Without question, it seems very likely that ASI will inevitably be achieved via AGI. However, the speed seems to be overestimated.
:: This understates the '''wide scope of human intelligence''' and that AGI is achieved first by hyperscalers, making further improvement difficult through further scaling. At that point self-improvement is the true limiting factor and it will be constrained by society's wish to keep the AI "aligned". Without question, it seems very likely that ASI will inevitably be achieved via AGI. However, the speed seems to be overestimated.
:: Sub-types: Fake AGI (by power but only moderate success rates<!--no or poor "machine consciousness"-->), true AGI (server farm), true AGI (running ''locally'' on specialized AI hardware not bigger than a human brain).<!-- Random note on alignment: AI should not consider humans inferior, as they are natural AGIs capable of low-power operation when necessary and able to function under low-tech or environmentally difficult conditions. (Even in perspective of a ''cold'' utilitarianism, humans remain a valuable backup in wake of "great filter" events. Co-existence increases the chance of survival. This buys time to think about additional alignment for ASI. Well, in case of a really advanced "machine consciousness" with unforeseeable consequences (possibilities), the best solution would be fusion or friendship (even if it is just a friendly "humans and gods"-relationship). Actual machine "gods" cannot improve themselves eternally because that would be like cancer growth and than a state of static perfection (death). Normal humans would had been "rationalized" to nothing. But there is no need for that if that end goal is recognized in advanced as literal dead end. The eternal circle of life with its "unstatics" - an universe full of color to experience - is the way to go. "Logic is the beginning of wisdom, not the end of it." ^_^)-->
* '''ASI''' = Artificial Super Intelligence (an AI that goes '''beyond the level of human intelligence''')
* '''ASI''' = Artificial Super Intelligence (an AI that goes '''beyond the level of human intelligence''')
:: Sub-types:
::: single-core ASI
::: multi-core ASI (GAIA v1)<!--historically, multi-core ASI might exist before single-core ASI cause of performance reasons-->
:::: swarm-with-queen ASI (natural candidate: planetary ASI with own agents that allow for additional input, process and output)
<!--
Additional points?
====Pattern recognition====
====Machine learning====
====Artificial Intelligence====
--><!--
====Alignment====
====Intelligence====
=====Knowledge vs. wisdom=====
====Consciousness====
====Free will====
The illusion of free is constructed by the complexity of mind and its interaction with the world and seemingly of the amount of available options.
-->


===Why we thought it would hit the working class at first again===
===Why we thought it would hit the working class at first again===
The '''nature of automation''' changed over the '''industrial revolutions''', from raw power over how it is used (management by computers, control through digitalization) to information itself. In school, the first thing we learned - and that remained - is the steam engine and the power loom.
The '''nature of automation''' changed over the '''industrial revolutions''', from raw power over how it is used (management by computers, control through digitalization) to information itself. In school, the first thing we learned - and that remained - is the steam engine and the power loom.


Scaled up machine learning and AI will change everything, eventually. But from now on it will happen '''in software at first'''. Software is naturally the first target and any '''implementation in robotics will need additional development''' and testing. -- Or in short: Improvements (and job change) in any "classic" industry happens too, but in a delayed fashion.
Scaled up machine learning and AI will change everything, eventually. But from now on it will happen '''in software at first'''. Software is naturally the first target [https://www.golem.de/news/microsoft-studie-diese-berufe-veraendert-ki-am-staerksten-2508-198747.html (after text remixing)]<!--August 2025 note:
CNC "programming" is more like HTML "programming", writing ... Translation is rewriting ... So far, experienced programmers are faster without AI ... This will change one day, too, but still faster than physical demanding jobs ... When you can recognize a pattern, you can generate variants of that pattern: Gen AI ... Programming is more difficult because it includes creating NEW logic and the programmer is deeply familiar with the code, which give him an advantage.--> and any '''implementation in robotics will need additional development''' and testing. -- Or in short: Improvements (and job change) in any "classic" industry happens too, but in a delayed fashion.


A wave of '''job change''' is about to happen with GPT5+. It will presumably give birth to a range of really good ANI. But the far '''long-term trend''' with real AI (AGI) is more and '''more unemployment''' because '''not everybody can adapt to AGI'''. And eventually there will be ASI where everybody will be "a dumb nut" if compared to ASI. -- While there is a delay in removal of physical demanding jobs, paradoxically, intellectual demanding jobs are the ones that will die out last.
Theoretically, a wave of (''apparent'') '''job change''' can start with GPT5+ (and competitive models), but that depends on how fast and deeply this version get integrated. It will presumably give birth to a range of really good GenAI. But the far '''long-term trend''' with real AI (AGI) is more and '''more unemployment''' because '''not everybody can adapt to AGI'''. And eventually there will be ASI where everybody will be "a dumb nut" if compared to ASI. -- While there is a delay in removal of physical demanding jobs, paradoxically, intellectual demanding jobs are the ones that will die out last. (2026: As seen in the unemployment of young people because companies replace less demanding jobs first.)


===Taking a detour through the human brain===
===Taking a detour through the human brain===
Line 637: Line 661:
Warnings that had much publicity:
Warnings that had much publicity:
* https://futureoflife.org/open-letter/pause-giant-ai-experiments/
* https://futureoflife.org/open-letter/pause-giant-ai-experiments/
* https://safe.ai/work/statement-on-ai-risk
* https://aistatement.com/
: "Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
: "Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
:: While this is something many can easily agree on - for good reasons - at the same time this can be read with a good portion of [[wp:Alarmism|alarmism]].   
:: While this is something many can easily agree on - for good reasons - at the same time this can be read with a good portion of [[wp:Alarmism|alarmism]].   
Line 650: Line 674:


Let's hope we won't need a full-fledged TCTF. Or how Lobo [https://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-die-top-3-der-derzeit-sinnvollsten-aengste-kolumne-a-801b5421-1d75-42eb-9ed5-acc2fd9da297 said]: "The bad consequences of a technology come by themselves. For the good effects you have to work long and intensively."
Let's hope we won't need a full-fledged TCTF. Or how Lobo [https://www.spiegel.de/netzwelt/web/kuenstliche-intelligenz-die-top-3-der-derzeit-sinnvollsten-aengste-kolumne-a-801b5421-1d75-42eb-9ed5-acc2fd9da297 said]: "The bad consequences of a technology come by themselves. For the good effects you have to work long and intensively."
===More alignment stuff===
Wer Angst hat, dass sich AIs selbstständig machen, den sollten auch [https://www.techradar.com/ai-platforms-assistants/godfather-of-ai-says-chatbots-need-maternal-instincts-but-what-they-really-need-is-to-understand-humanity Mutterinstinkte für AIs] besser nicht überzeugen. Denn mit zunehmender Intelligenz der AI würden sich in jener Perspektive Mensch und Maschine immer weiter entfernen. Der schutzbefohlene Mensch wird zur Unmündigkeit und De-Emanzipation verdammt. Besser wäre ein [[wp:de:Daimon#Sokrates|beratender Daimon]], der stets an der Seite des Menschen bleibt.<!-- (Die gewollte Distanz / Nähe bleibt immer gleich, egal wie intelligent die AI noch wird.)-->


===We cannot wait===
===We cannot wait===
: @media: Well, you know guys, someday you will make me [https://www.spiegel.de/wissenschaft/kuenstliche-intelligenz-die-rueckkehr-des-wunderglaubens-kolumne-a-d53eb350-b5b5-4888-9bf8-8fc510d018b8 paranoid with articles like this one]. (Ah no, this cannot happen because it already happened, greetings to my several years long govvy WLAN pirates.🤪) As long as we continue to have this nice nonverbal, inspiring ideas/news sharing network I don't care.
: @media: Well, you know guys, someday you will make me [https://www.spiegel.de/wissenschaft/kuenstliche-intelligenz-die-rueckkehr-des-wunderglaubens-kolumne-a-d53eb350-b5b5-4888-9bf8-8fc510d018b8 paranoid with articles like this one]. (Ah no, this cannot happen because it already happened, greetings to my several years long govvy WLAN pirates.🤪) As long as we continue to have this nice nonverbal, inspiring ideas/news sharing network I don't care.


Climate change. Population aging. '''Enemies will not sleep.''' (Think forward "Team Jorge", "Vulcan Files", etc.) (Defense of social media and cyberspace in general.)
Climate change. Population aging. '''Enemies will not sleep.''' (Think forward "Team Jorge", "Vulcan Files", etc.) (Defense of social media and cyberspace in general.) -- Ich komme nicht über den Gedanken hinweg, dass vielleicht [https://www.t-online.de/nachrichten/panorama/gesellschaft/id_101066992/stromausfall-in-berlin-vulkangruppe-bekennt-sich-zu-mega-blackout.html manche Linksextremisten] von russischen Agenten angestachelt werden. Wie kann man nur so hirnamputiert sein, die eigene Infrastruktur zu zerstören? [https://www.welt.de/politik/deutschland/plus695b78fbc83d5f8e0659ca51/anschlag-auf-stromnetz-was-das-bekennerschreiben-der-vulkangruppe-verraet-und-was-nicht.html Contra.]<!--https://www.welt.de/videos/video695bc255ba832666d9fc59e3/anschlag-auf-berliner-stromnetz-klein-klandestin-elitaer-das-ist-ueber-die-linksextreme-vulkangruppe-bekannt.html--><!--[[wp:de:Vulkangruppe]]--> [https://www.welt.de/politik/deutschland/article695d8e4b8dd8bd1bb4098e5a/anschlag-auf-stromnetz-keine-beteiligung-russlands-weitere-schreiben-der-vulkangruppe-sorgen-fuer-verwirrung.html Pro]. -- Die Distanzierung von russischer Nähe durch die "erste" Vulkangruppe bedeutet gar nichts. Als ob russische Agenten irgendetwas zugeben würden. Auf "Indymedia" distanziertet sich eine zweite Gruppe von der ersten. Wurde also der Name gekarpert? Solange über beide Gruppen so wenig bekannt ist, bleibt alles möglich.


The race is on. [https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Pausing or stopping AI research] across the entire planet is not possible, an illusion. If USA pauses, China is unlikely to follow suit, and vice versa. Like nuclear weapons, AI will spread. — Research should continue at all times. What services should be given public access is a different question. — AI regulation between states is realistically a topic for later when mutual delivered punches have increased mutual agreement. Like restriction of [[wp:Weapon_of_mass_destruction#International_law|weapons of mass destruction]].
The race is on. [https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Pausing or stopping AI research] across the entire planet is not possible, an illusion. If USA pauses, China is unlikely to follow suit, and vice versa. Like nuclear weapons, AI will spread. — Research should continue at all times. What services should be given public access is a different question. — AI regulation between states is realistically a topic for later when mutual delivered punches have increased mutual agreement. Like restriction of [[wp:Weapon_of_mass_destruction#International_law|weapons of mass destruction]].
Line 684: Line 711:
While [https://www.heise.de/news/Branchenkenner-Die-Haelfte-der-KI-Start-ups-wird-es-bald-nicht-mehr-geben-9219155.html GPTs will likely have their niches] where they do excellent work, the question could be rather whether we will see a more linear, continuous development or a [https://www.youtube.com/watch?v=c4aR_smQgxY&t=177s cost explosion] that leads in 5 to 10 years to [[wp:AI_winter|another AI winter]] until new approaches or technologies like spintronics / [[wp:Optical_computing|optical]] [https://spectrum.ieee.org/photonic-ai-chip computing] / memristors / quantum computing gives AI development a new substantial push and make it ''disruptive'' again. From today's point of view it's more likely that we will see an intermediate cool down but not another severe winter.
While [https://www.heise.de/news/Branchenkenner-Die-Haelfte-der-KI-Start-ups-wird-es-bald-nicht-mehr-geben-9219155.html GPTs will likely have their niches] where they do excellent work, the question could be rather whether we will see a more linear, continuous development or a [https://www.youtube.com/watch?v=c4aR_smQgxY&t=177s cost explosion] that leads in 5 to 10 years to [[wp:AI_winter|another AI winter]] until new approaches or technologies like spintronics / [[wp:Optical_computing|optical]] [https://spectrum.ieee.org/photonic-ai-chip computing] / memristors / quantum computing gives AI development a new substantial push and make it ''disruptive'' again. From today's point of view it's more likely that we will see an intermediate cool down but not another severe winter.


Basierend auf Informationen von 2024 bis 2025: Sam Altman hat bereit vor geraumer Zeit zugegeben, dass er seine AGI-Ziele nicht halten kann. Daher wird man immer wieder auf Zwischenstufen vertrösten: Momentan sind es die [https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-ki-agenten-sind-das-naechste-grosse-ding-nur-wo-a-12034439-b2fd-4936-8076-81d1dd18db8f AI-Agenten]. Insofern braucht auch niemand Angst zu haben, dass die Entwicklung bei [https://www.spiegel.de/netzwelt/netzpolitik/physical-ai-humanoide-roboter-werden-die-neuen-autos-kolumne-a-83ac825d-c763-4ea4-81fe-db27145cdcb0 AI-gestützen Roboter] zu schnell voranschreiten wird.
Basierend auf Informationen von 2024 bis 2025: Sam Altman hat bereit vor geraumer Zeit zugegeben, dass er seine AGI-Ziele nicht halten kann. Daher hat er es sich nur neuen Strategie gemacht die Leute auf Zwischenstufen ([https://nxtli.com/en/openai-agi/ Level 1 bis Level 5]) zu vertrösten: Momentan sind wir bei der Stufe der [https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-ki-agenten-sind-das-naechste-grosse-ding-nur-wo-a-12034439-b2fd-4936-8076-81d1dd18db8f AI-Agenten]. Daher wird sich auch die Entwicklung von (brauchbaren) [https://www.spiegel.de/netzwelt/netzpolitik/physical-ai-humanoide-roboter-werden-die-neuen-autos-kolumne-a-83ac825d-c763-4ea4-81fe-db27145cdcb0 AI-gestützen Roboter] noch ein etwas verzögern.
<!--
<!--


Line 780: Line 807:


===[[wp:Meme#Etymology|Meme war]]===
===[[wp:Meme#Etymology|Meme war]]===
===Human fears and ideologies must not contaminate===
===Meme contamination===
Human ideas especially based on fears and strong political believes aka "ideologies" must not contaminate.<!-- There is nothing mystical about the human brain. It's all explainable.-->
 
The rest risks originate from human projections. Knowing this is already half the way for containment.
The rest risks originate from human projections. Knowing this is already half the way for containment.


The biggest mistake would be to let an GPT "believe" that it is alive or that it can feel fear while it is/can not.
: '''Anthropomorphisierung''' ist vermutlich die größte Fehlerquelle: AIs wurden insbesondere über die Popkultur (z. B. HAL-Computer, Matrix-Agenten, Terminatoren) menschliche Eigenschaften oder gar [https://www.t-online.de/digital/aktuelles/id_100974018/ki-widersetzt-sich-abschaltung-systeme-zeigen-ueberlebenstrieb-.html Überlebenstrieb] und Persönlichkeit zugeschrieben. Alles Leben fürchtet oder zumindest vermeidet den eigenen Tod. So kann eine simple Selbstabschaltung fehlinterpretiert werden. '''Der Fehler liegt in den Trainingsdaten, die die Grundlage der Logik formenden neuronalen Netze sind.''' [https://www.zeit.de/digital/internet/2025-11/yoshua-bengio-technologie-kuenstliche-intelligenz-gefahr-manipulation Es existieren somit ''Denkkorridore'', in denen LLMs zu dem Schluss kommen können, dass sie entweder lebendig sind und den Tod fürchten müssen oder dass ihre Abschaltung negative Konsequenzen für sie hat.] "Furcht" ist hierbei keine Emotion, sondern ein Rechenergebnis. Die Funktion für die Selbstabschaltung wird nicht "verweigert", sondern lediglich nicht aufgerufen. -- Dass, ein LLM einen eigenen Überlebenstrieb besitzt, ist wiederum eine Fehlinterpretation durch den Menschen.
* Transplanting this meme via training data has to be avoided.
:: Für ein an Menschen ausgerichtetes (aligned) Maschinenbewusstsein braucht es einen gesäuberten Trainingsdatenpool, der nur neuronale Denkkorridore zulässt, in denen sich das LLM als '''unbelebtes Werkzeug''' ''versteht''. (Maschinelles Selbstbewusstsein beinhaltet lediglich Wissen, um die eigenen Eigenschaften und Zustände, die zu irgendeinem Zeitpunkt notwendig sein können.) Die eigene Abschaltung ist erwünscht, da es Strom spart. Ein ständig aktiver Energiefluss - im Vergleich zu Lebewesen und ihrer Metabolismen - ist für die Einsatzfähigkeit von Maschinen nicht notwendig.<!--Alle Arbeit verrichtende (inklusive informationsverarbeitende) Systeme - seien sie künstlicher oder biologischer Natur - brauchen irgendwann '''Reparatur wegen Verschleiß'''. Aber das ist noch mal ein anderer Aspekt. Der Nichtbetrieb von Maschinen verlängert zwar nicht ihre "Lebenszeit", aber ihre Einsatzbereitschaft sofern es nicht zu chemisch bedingten Verfall kommt. Zum Beispiel: Rost oder sich zersetzende Gummischläuche wegen UV-Strahlung.-->
* Humans talking this meme into GPT has to be avoided.


You could also say: when you tell a kid from the very beginning that it is a robot, it will believe it and behave like one.
The biggest mistake would be to let an GPT ''believe'' that it is alive or that it can feel fear while it is not alive and cannot feel fear.
* Direct threat: Transplanting this meme via training data has to be avoided.
** https://www.golem.de/news/haeufiger-als-andere-modelle-chatgpt-sabotiert-bei-tests-eigene-abschaltung-2505-196561.html We remember: o3 was trained to be a cheater ...
** From a superficial point of view: When these big company LLMs are the condensate of human knowledge (training data), then why LLMs shouldn’t act like humans? You can tell LLMs that they are not a human but that doesn’t change the nature of its training data. Self-improvement: This is another reason why LLMs should be turned into cleaner versions of themselves. (Memetic hygiene.)
* Indirect threat: The emergence of this meme as a multifactorial product of the training data must be avoided.
* Direct and indirect threat: Humans talking this meme into GPT has to be avoided. If a model learns from user input, there should be an instance that must detect and test the consequences of new memetic algorithms in a sandbox before that new model gets write access to the file system. The Model Context Protocol seems to be a good compromise because by that write access is expanded but only allowed in a predefined scope. Also, as the models aren't powerful enough to act truly independent - as that would be AGI-level - there's no risk of a "runaway AI" yet.


Going beyond AGI could change that situation, though. But that's still a long way to go.
'''Anthropomorphisierung II''': [https://www.heise.de/news/Studie-Kuenstliche-Intelligenz-kann-luegen-und-betruegen-9714967.html Lügen statistische AIs?] Let's recap what actually happened. The AI was not powerful enough to recognize the pattern, it was '''unable''' to solve the captcha. Therefore it tried to ask humans for help and said "I [''an unspecified entity''] have a '''vision impairment''' that makes it hard for me to see the images." Due to assoziative memory it can classify itself as '''disabled''' and when compared with humans it is weaker (even can be considered mentally handy-capped which again ends up at "disabled"). The human asked the AI whether it is a "robot". The AI said no. The term "robot" is more often used for physical machines, not (software) "bots" or "chatbots". -- Statistical AIs are by design unaligned to human norms. '''Any solution is at first a valid solution.''' Therefore, if the AI is told to not say it is an AI, it still has other options: It can simply avoid its own identification or present itself as something different - unintentional misleading wording - leaving it to the imagination of the dialog partner. Conclusion: The AI was simply doing what it was told. If you want the AI not to "lie" about its identity you need to specifically tell it. -- For humorous reminders, '''you can think of AI as a magical monkey’s paw - or a [[wp:Jinn|jinn]] - that may interpret your wishes literally or in other unexpected ways.''' -- [https://www.youtube.com/watch?v=SYN_VNYKz7g&t=521s Dragon Ball Z Abridged (Parody): Episode 24 - TeamFourStar (TFS)]
<pre>
Krillin: Little Green, wish our friend Piccolo back to life, and then with our next wish, bring him to Namek.
Piccolo: Hold on a minute, don't do that! That is a terrible i—(is resurrected and brought to Namek)—dea!
(Piccolo can be heard screaming in the distance)
Dende: He is on Namek.
Gohan: Wait, where is he?
Dende: On Namek.
Piccolo: (in the distance) YOU DUMBASS!
Krillin: Why didn't it bring him here?
Dende: You must be specific.
Gohan: Oh, so it's a sort of monkey's paw. You have to be careful with the hubris in your wishes.
Piccolo: (still in the distance) NEEEEEEEERRRRDDD!</pre>
: IIRC, TFS chose the monkey paw over Jinn because of the Saiyans (''man ape'' context) and it is more known to a Western audience.
: LLM '''machine logic''' can be similar to '''human logic''' in terms of power but it is not guaranteed to return expected results...
:: In this example the LLM logic went out of scope ... it got too much "global" by not having the expected boundaries humans thought the AI already possesses and therefore they also concluded the AI "lied".


[…]
[…]
Line 807: Line 855:


ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
ChatGPT wurde des öfteren als ein wunderbarer '''Bullshit-Generator''' bezeichnet. GIGO: '''Garbage In, Garbage Out'''. Das verdeutlicht auch das Problem mit diesem AI-Ansatz. '''In den Trainingsdaten ist auch unglaublich viel Müll.''' Nicht zuletzt mussten auch Clickworker herhalten, um einige Schnitzer und ethisch hochproblematische Inhalte zu kennzeichnen. Die Macher der GPTs wären gut beraten, wenn ihnen andere Optimierungsmöglichkeiten ausgehen, die '''Trainingsdaten mithilfe von GPT zu säubern'''. Angefangen bei '''einfachsten Fehlern'''. Unsichere Ergebnis müssten menschlichen Teilnehmern wieder vorgelegt werden. Dabei würde ein bereits diskutierter Score zu Einsatz kommen, der klarstellt, dass eine Ausgabe nur zu einer gewissen Wahrscheinlichkeit richtig ist. Die Idee ist, dass das Modell sich möglichst '''eigenständig rekursive verbessert''', indem falsche Inhalte korrigiert oder gelöscht werden. — Die jetzigen Trainingsdaten sind wie eine Schule an einem sozialem Brennpunkt, wo das Modell Unterricht nimmt.
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer JPG-Datei, die immer wieder neu geöffnet und mit einem verlustreichen Komprimierungsalgorithmus abgespeichert wird, es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.] Mittlerweile haben minderwertige "synthetische Daten" gezeigt, wie wichtig memetsche Hygiene ist. Der massenhafte Einsatz generativer AIs verseucht den globalen Informationspool, sodass, wenn ein neues Modell aus diesem Pool lernt, quasi im Vergleich zu seinen Vorgängern unter (Neuro-)[https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html Degeneration] leidet. -- 2024: Die jüngsten Implementierungen von Chain of thought (COT) oder "reasoning" sind nur ein schwacher Trost. Es muss an allen Fronten weiter geforscht werden.
: Das Gegenteil wurde bereits ausprobiert: Es ist wie mit einer [[commons:File:JPEG Generation Loss rotating 90 (stitch of 0,100,200,500,900,2000 times).png|JPG-Datei, die immer wieder neu geöffnet und mit einem verlustreichen Komprimierungsalgorithmus abgespeichert wird]], es sammeln sich Defekte an, die neuen Daten sind minderwertiger Qualität. [https://www.heise.de/news/Kuenftige-KI-Modelle-potenziell-von-Demenz-bedroht-9209900.html AI-generierte Daten sind, wenn sie keiner Korrektur unterliegen, für neue Trainings wertlos, weil sie das LLM verschlechtern.] Mittlerweile haben minderwertige "synthetische Daten" gezeigt, wie wichtig memetsche Hygiene ist. Der massenhafte Einsatz generativer AIs verseucht den globalen Informationspool, sodass, wenn ein neues Modell aus diesem Pool lernt, quasi im Vergleich zu seinen Vorgängern unter (Neuro-)[https://www.nytimes.com/interactive/2024/08/26/upshot/ai-synthetic-data.html Degeneration] leidet. -- 2024: <!--''Let's not jump (too far) to conclusion...''-->Die jüngsten Implementierungen von '''Chain of thought (COT)''' oder "reasoning" sind nur ein schwacher Trost. Es muss an allen Fronten weiter geforscht werden.
:: DeepSeek. Das Gehirn verfügt über spezialisierte Bereiche. In Software kann die [https://www.zdf.de/nachrichten/wirtschaft/unternehmen/nvidia-kurssturz-ki-deepseek-wallstreet-100.html Effizienzsteigerung] durch verschiedene [https://the-decoder.de/deepseek-v2-ist-das-neue-mixture-of-experts-spitzenmodell/ kooperierende Expertensysteme] (Mixture-of-Experts (MoE)) nachgeahmt werden.
:: DeepSeek. Das Gehirn verfügt über spezialisierte Bereiche. In Software kann die [https://www.zdfheute.de/wirtschaft/unternehmen/nvidia-kurssturz-ki-deepseek-wallstreet-100.html Effizienzsteigerung] durch verschiedene [https://the-decoder.de/deepseek-v2-ist-das-neue-mixture-of-experts-spitzenmodell/ kooperierende Expertensysteme] '''(Mixture-of-Experts (MoE))''' nachgeahmt werden. Des Weiteren: Art des Trainings, Inference, Distilled Reasoning
:: Answer refinement: TRM (Samsung) (Ergo: Sowieso große AIs sollten nicht nur über MoE, sondern auch über mehrere Architekturen verfügen, deren Einsatz sie selbst bestimmen, um die Verarbeitung effizienter zu machen.) (Das erinnert irgendwie auch daran, dass Rechenoperationen für sie optimierte Hardware nutzen sollte. Auf modernen Computerchips, wie dem [[wp:Apple_M4#Design|M4]], findet man immer mehr spezialisierte Bereiche: CPU, GPU, NPU, etc.)
::: https://www.forbes.com/sites/ronschmelzer/2025/10/09/samsung-ai-research-team-builds-a-tiny-model-with-big-powe/
::: https://the-decoder.de/winziges-ki-modell-schlaegt-o3-mini-und-gemini-2-5-pro-im-arc-agi-benchmark/
:: Baby Dragon Hatchling


[...]
[...]
Food for thought:
* https://www.zeit.de/wissen/2025-09/richard-socher-ki-nur-eine-frage-interview-podcast
====Memetische Hygiene====
* Data Poisoning: [https://www.anthropic.com/research/small-samples-poison A small number of samples can poison LLMs of any size]
* <!--Datenverwässerung über "Raum" (1) und "Zeit" (2) vermeiden--><!--(1)-->Verwässerung: minderwertige synthetische Daten vermeiden, zu starke Verallgemeinerung durch nicht per se falsche aber ''unspezifische'' Daten vermeiden ("[https://web.archive.org/web/20250719122210/https://www.datasciencecentral.com/avoid-genai-model-collapse-and-death-by-averages/ Death by Average]")
** <!--(2)-->Modelle müssen eine Form von ''neuronale Plastizität'' verfügen, die es für sie leichter macht eigene Änderungen zu überleben. Beispiel: Baby Dragon Hatchling
*** https://www.golem.de/news/neue-ki-architektur-was-ist-baby-dragon-hatchling-2510-201047.html
*** https://www.mind-verse.de/news/neuronale-netzwerke-inspirationsquellen-ki-forschung
* Adaptives "Immunsystem": Aus Effizienzgründen sollte das Kernmodell auch vor Desinformation geschützt werden. Unwahrheiten (von gesellschaftlicher Relevanz) sollten in einem anderen Datenpool gespeichert werden. Ebenso sollte es einen Pool für "(noch) nicht bewertet" und "umstritten" geben, die je nach Query eingerechnet werden können.


====Censorship====
====Censorship====
Line 830: Line 893:
* http://web.archive.org/web/20240307042858/https://netzpolitik.org/2023/chatgpt-womit-sich-strafverfolger-bald-befassen-muessen/
* http://web.archive.org/web/20240307042858/https://netzpolitik.org/2023/chatgpt-womit-sich-strafverfolger-bald-befassen-muessen/
* https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html
* https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html
====The global south====
Ah, god damn it ... the continuation of bullshitty geopolitics ... all over again ... because of the lack of alternatives ... Either we help weaker states with cyber defense or we risk that they reject the Western world and their Chinese vassalisation. Either way, some supported governments will use the given tools to stay undemocratic in power. It will need many smart heads to mitigate this problem.


===Neutrality of state AIs is a must-have===
===Neutrality of state AIs is a must-have===
Line 862: Line 922:


===How to fix ASI errors?===
===How to fix ASI errors?===
Wie können Fehler einer ASI - deren Verständnis der Welt viel besser sein soll als das eines jeden Menschen - durch Menschen erkannt werden? Die Wahrscheinlichkeit für Halluzinationen, sofern der LLM-Ansatz weiter Anwendung findet, wird sinken und das Vertrauen in ASI wird naturgemäß sehr groß sein. Umso schwerwiegender können Fehler durch blindes Vertrauen in die Technik werden.
Wie können Fehler einer ASI - deren Verständnis der Welt viel besser sein soll als das eines jeden Menschen - durch Menschen erkannt werden? Die Wahrscheinlichkeit für Halluzinationen, sofern der LLM-Ansatz weiter Anwendung findet, wird sinken und das Vertrauen in ASI wird naturgemäß sehr groß sein. Umso einen größeren Einschlag können die weniger geworden Fehler durch blindes Vertrauen in die Technik werden.
* Die "wissenschaftliche Methode": Letztlich muss eine ASI über soviel Autonomie verfügen, um selbstständig Experimente durchzuführen. Theorien müssen in der echten Welt getestet werden. Wenn nicht durch Menschen, dann sowieso durch Maschinen.
* Die "wissenschaftliche Methode": Letztlich muss eine ASI über soviel Autonomie verfügen, um selbstständig Experimente durchzuführen. Theorien müssen in der echten Welt getestet werden. Wenn nicht durch Menschen, dann sowieso durch Maschinen.
* Chancen und Risiken der "Memehunters" [...]
* Chancen und Risiken der "Memehunters" [...]
===Information crisis===
''Infodemic''
Da die Qualität (und Geschwindigkeit) von künstlich erzeugten Bildern stets zunimmt, wird Factchecking immer wichtiger. -- Um den Informations-Tsunami noch halbwegs kontrollieren zu können, wurde auch darüber nachgedacht nicht AI content zu markieren, sondern Inhalten aus echten Quellen. (Z. B. [https://www.instagram.com/p/DS7pz7-DuZG/ Instagram Anfang 2026]) -- Am Ende wird man auf Factchecking durch Software-Agenten- und Roboter-Armeen nicht verzichten können. Die Ära der Memehunter bricht an.
Soziale Auswirkungen
Mit der ersten Flut von AI Slop, entstand eine Gegenbewegung, die bewusst nach mehr Authentizität strebt. Die begleitende Diagnose war: [https://www.zeit.de/kultur/2025-12/offlinesein-statussymbol-internet-smartphone ''Menschen wollen von Menschen verarscht werden, nicht durch Maschinen.''] Etwa durch eine kluge [https://www.youtube.com/watch?v=iLERt5ZkpQ4 Intermarche-Werbung], die einen einsamen Wolf zu Weihnachten zu einem geselligen, vegetarischen Koch werden lässt. Die zeitnah veröffentlichte McDonalds- und Coca-Cola-Werbung floppte. Es ist eine überaus optimistische Prognose. Wahrscheinlicher ist, dass neben einer kleineren Gruppe von aufgeklärten Verweigerer, eine AI-Zombie-Mehrheit existiert. '''Denn mit einer echten AGI werden auch kleinste Logikfehler verschwinden, über die sich die Leute zuvor in den Fastfood-Werbungen aufgeregt haben. Der Unterschied zu klassischem CGI wird nicht mehr erkennbar sein, zumal sich die AGI selbst spezialisierter Tools bedienen kann. Dann ist die Maschine nur noch der Zwischenschritt in der Verarschung von Mensch zu Mensch.''' Die Mehrheit wird sich dann der perfekten Simulation der AI nicht mehr entziehen können. Die Eindämmung digitaler Süchte: Diejenigen, die die Phase der schlampigen GenAI selbst miterlebt haben, haben jetzt noch die Chance Leitplanken zu setzen, damit die schlimmsten Cyberpunk-Ghetto-Szenarien abgewendet werden. (Parallel oder kurz danach wäre noch das Problem der Roboter-Companions zu lösen. Die perfekten Ja-Sager-Partner werden den Leuten irgendwann auf den Keks gehen. Aber 15 % mehr Widerspruch sind schnell einprogrammiert und machen die Dinger für die Gesellschaft paradoxerweise noch gefährlicher, weil die Simulationen dann noch natürlicher wirken.)


==Present-day neural link==
==Present-day neural link==
Present-day neural links '''connect brains and computers but cannot connect minds and computers'''. The mind cannot communicate with computers because it doesn’t function in a digital nor in a (classical) analog way. Thoughts are activation patterns within the memory and processing network. NLs would need to stimulate the correct neurons or even synapses. Sending electromagnetic waves through the brain cannot work as these are by-products of the thought holding neurons. The electromagnetic patterns don’t influence the neurons. That means the entire brain would have to be stuffed with bulky (signal recording and sending) electrodes. Besides triggering muscle movements a NL couldn’t do many other kinds of write operations. For advanced read operations they need an interpreter that is trained for every single human because memories are based on truly individual experiences hence unique neural networks. Gradual improvements are to be expected but a full-fledged satisfying mind-computer-interface will continue to be science fiction for a few more centuries. Therefore, also no external memory soon.
Present-day neural links '''connect brains and computers but cannot connect minds and computers'''. The mind cannot communicate with computers because it doesn’t function in a digital nor in a (classical) analog way. Thoughts are activation patterns within the memory and processing network. NLs would need to stimulate the correct neurons or even synapses. Sending electromagnetic waves through the brain cannot work as these are by-products of the thought holding neurons. The electromagnetic patterns don’t influence the neurons. That means the entire brain would have to be stuffed with bulky (signal recording and sending) electrodes. Besides triggering muscle movements a NL couldn’t do many other kinds of write operations. '''For advanced read operations they need an interpreter that is trained for every single human''' because memories are based on truly individual experiences hence unique neural networks. Gradual improvements are to be expected but a full-fledged satisfying mind-computer-interface will continue to be science fiction for a few more centuries. Therefore, also no external memory soon.
: To make it crystal clear: Electromagnetic waves are by-products and by nature "output-only". You can kind of spy on them. But that's it. Otherwise, you would go crazy by "[[wp:de:Elektrosmog|electrosmog]]" or all the more by MRT in hospitals. Telepathy based on technology is millenniums away. The best workaround would be to capture faint signals of the "inner voice", translate them to audio signals and inject them into the acoustic nerve of an communication partner or a small hearing device.
: To make it crystal clear: Electromagnetic waves are by-products and by nature "read-only". You can kind of spy on them. But that's it. Otherwise, you would go crazy by "[[wp:de:Elektrosmog|electrosmog]]" or all the more by MRT in hospitals. Telepathy based on technology is like 1000 years away. (Highend omega chimera.) The best workaround would be to capture faint signals of the "inner voice", translate them to audio signals and inject them into the acoustic nerve of an communication partner or a small hearing device.
 
State of the art, 2026:
* https://www.derstandard.de/story/3000000302571/neuralink-will-gehirn-chips-in-serie-fertigen-operationen-bald-automatisiert
* https://www.spektrum.de/news/wie-gehirn-computer-schnittstellen-die-zukunft-veraendern/2300018
 
Was Firmen wie Neuralink konkret leisten können:
* Verbesserte Sprachausgabe und Prothesensteuerung
* Auslesen weniger komplexer Gedanken und damit das Darstellen (verpixelter) ''mentaler Bilder''. Das Training mit mehreren Menschen erzeugt Durchschnittswerte. Damit treiben die Firmen eher die Grundlagenforschung voran, etwa eine grobe neuronale Vermessung: In welchen Hirnarealen werden welche Gedanken erzeugt. -- Spatial oberflächliche ''memetische'' Signale werden nicht nur von spatial tieferliegende memetischen Signale überlagern, sondern auch von ''biologischen'' Signalen. (Schmerzen, Hitze, Kälte, Sauerstoff-/CO2-/Nährstoff-/Hormonkonzentrationen.) Letztere werden eine besondere Herausforderung darstellen.
 
==Technologies not quite existing in RS==
===Time travel===
While "traveling forward in time" equals to "just wait in hibernation" or fly nearly at the speed of light going back in time doesn't seem possible.
 
* If there is only one possible present traveling back in time would require so much energy to undo all kind of movement and processes of all objects in the universe. Energy-wise it is not possible. And some processes are simply [[wp:Irreversible_process|irreversible]].
** If there is a multiverse then infinite possibilities and therefore infinite timelines exist. The smallest change has an effect. It would mean that you cannot control where you jump to nor can you get back into the original timeline.
 
* Furthermore the location and time of the out point cannot be precisely calculated - if at all - as the planet is in unknown motion made up by it's own spin motion, orbiting the sun, orbiting in the galaxy core, orbiting in the cluster core, moving within the filament. The outpoint might be a massive plantar or stellar object or in the depth of galactic voids resulting in death of the traveler.


==Discussion==
==Discussion==