8,683
edits
Paradox-01 (talk | contribs) mNo edit summary |
Paradox-01 (talk | contribs) mNo edit summary |
||
| (45 intermediate revisions by 2 users not shown) | |||
| Line 546: | Line 546: | ||
==Machine learning and artificial intelligence== | ==Machine learning and artificial intelligence== | ||
Since the release of GPT-3 the public debate about AI heated up. | Since the release of GPT-3 the public debate about AI heated up. | ||
:Is it intelligent? | :Is it intelligent? | ||
| Line 555: | Line 554: | ||
The questions are too often binary - is it or is it not - and therefore we are tempted to give binary answers. To think that way was a mistake. We would have more accurate and fair discussions if we respect the nature of this subject. | The questions are too often binary - is it or is it not - and therefore we are tempted to give binary answers. To think that way was a mistake. We would have more accurate and fair discussions if we respect the nature of this subject. | ||
Do you remember discussions about the intelligence quotient? Its existence shows that also human intelligence is not binary, possessing it or possessing it not. In fact there is even criticism about it for just being one number expressing an | Do you remember discussions about the intelligence quotient? Its existence shows that also human intelligence is not binary, possessing it or possessing it not. In fact there is even criticism about it for just being one number expressing an average. There are multiple (sub) forms of human intelligence. | ||
===Terms=== | |||
* '''ANI''' = Artificial Narrow Intelligence, '''specialized or "weak AI"''' (basically machine learning: pattern recognition) | * '''ANI''' = Artificial Narrow Intelligence, '''specialized or "weak AI"''' (basically machine learning: pattern recognition) | ||
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement | * '''GenAI''' = Generative AI, its a significant step between ANI and AGI. GenAI included at least three major points: | ||
** The new transformer architecture (GPT). | |||
** The actual data-holding model, including its parameters and weights. Most often, this is a Large Language Model (LLM) or a Large Multimodal Model (LMM). The learned data consist of statistical patterns about text, images, or other media. Very most of the original raw data cannot be reconstructed from the model. | |||
** Reinforcement learning from human feedback (RLHF) and (its successor RLAIF) can be named as another important feature that added a reward model for higher quality and alignment. | |||
** Other features or milestones like COT, MoE, context expansion and the use of external tools via MCP to compensate own shortcomings are better described as incremental improvements in the evolution of GenAI.<!-- | |||
* GPT = Generative pre-trained transformers (Large Language Model with the actual "learning" part de facto outsourced to humans: Reinforcement learning from human feedback (RLHF), in best case GPTs have a ''transplanted base intelligence'' but they lack the important feature to really learn for themselves. Low quality "synthetic data" can even worsen the models. | |||
:: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].) | :: After the obvious slowdown in advancement through scaling, chain of thought (COT) was introduced. It is also known under the marketing term "reasoning [AI]". (See: Gemini 2.0 Flash Thinking and ChatGPT o3, the later one especially [https://techxplore.com/news/2024-12-ai-human-general-intelligence.html trained to cheat … erm ... score high in the ARC-AGI test].) | ||
:: This pushes ANI somewhat more into direction of AGI with the drawback of slower response times and higher energy costs. | :: This pushes ANI somewhat more into direction of AGI with the drawback of slower response times and higher energy costs.--> | ||
* '''Physical AI''' = Physical Artificial Intelligence. Basically AI used in robots. Since direct training would be dangerous, slow and therefore ineffective, the AI gets pre-trained in a simulation where the robot is represented by a digital twin. By the nature of this construction, multimodal learning (MML) is predestined for robots. Like humans (or other real organisms), AIs should include an "inner world" for better understanding. The use of LLM is optional but seems to be a good design choice for walking further into direction of AGI. <!--Expecting [[wp:Symbolic_artificial_intelligence#Neuro-symbolic_AI:_integrating_neural_and_symbolic_approaches|some kind of hybrid approaches]] within physical AIs later when all other current ''cash cow'' approaches reached their end.--> | |||
* '''AGI''' = Artificial General Intelligence, also "strong AI" ('''on par with human thinking''', ''a real AI'' capable to fully self-improve and drive its own development) | * '''AGI''' = Artificial General Intelligence, also "strong AI" ('''on par with human thinking''', ''a real AI'' capable to fully self-improve and drive its own development) | ||
:: In discussions AGI is often equated with super intelligence. The argument is that as soon as AGI is achieved ASI is just around the corner. | :: In discussions AGI is often equated with super intelligence. The argument is that as soon as AGI is achieved ASI is just around the corner. | ||
| Line 572: | Line 576: | ||
::: multi-core ASI (GAIA v1)<!--historically, multi-core ASI might exist before single-core ASI cause of performance reasons--> | ::: multi-core ASI (GAIA v1)<!--historically, multi-core ASI might exist before single-core ASI cause of performance reasons--> | ||
:::: swarm-with-queen ASI (natural candidate: planetary ASI with own agents that allow for additional input, process and output) | :::: swarm-with-queen ASI (natural candidate: planetary ASI with own agents that allow for additional input, process and output) | ||
<!-- | |||
Additional points? | |||
====Pattern recognition==== | |||
====Machine learning==== | |||
====Artificial Intelligence==== | |||
--><!-- | |||
====Alignment==== | |||
====Intelligence==== | |||
=====Knowledge vs. wisdom===== | |||
====Consciousness==== | |||
====Free will==== | |||
The illusion of free is constructed by the complexity of mind and its interaction with the world and seemingly of the amount of available options. | |||
--> | |||
===Why we thought it would hit the working class at first again=== | ===Why we thought it would hit the working class at first again=== | ||
| Line 579: | Line 596: | ||
CNC "programming" is more like HTML "programming", writing ... Translation is rewriting ... So far, experienced programmers are faster without AI ... This will change one day, too, but still faster than physical demanding jobs ... When you can recognize a pattern, you can generate variants of that pattern: Gen AI ... Programming is more difficult because it includes creating NEW logic and the programmer is deeply familiar with the code, which give him an advantage.--> and any '''implementation in robotics will need additional development''' and testing. -- Or in short: Improvements (and job change) in any "classic" industry happens too, but in a delayed fashion. | CNC "programming" is more like HTML "programming", writing ... Translation is rewriting ... So far, experienced programmers are faster without AI ... This will change one day, too, but still faster than physical demanding jobs ... When you can recognize a pattern, you can generate variants of that pattern: Gen AI ... Programming is more difficult because it includes creating NEW logic and the programmer is deeply familiar with the code, which give him an advantage.--> and any '''implementation in robotics will need additional development''' and testing. -- Or in short: Improvements (and job change) in any "classic" industry happens too, but in a delayed fashion. | ||
Theoretically, a wave of (''apparent'') '''job change''' can start with GPT5+ (and competitive models), but that depends on how fast and deeply this version get integrated. It will presumably give birth to a range of really good GenAI. But the far '''long-term trend''' with real AI (AGI) is more and '''more unemployment''' because '''not everybody can adapt to AGI'''. And eventually there will be ASI where everybody will be "a dumb nut" if compared to ASI. -- While there is a delay in removal of physical demanding jobs, paradoxically, intellectual demanding jobs are the ones that will die out last. (2026: As seen in the unemployment of young people because companies replace less demanding jobs first.) | |||
===Taking a detour through the human brain=== | ===Taking a detour through the human brain=== | ||
| Line 658: | Line 675: | ||
===More alignment stuff=== | ===More alignment stuff=== | ||
Wer Angst hat, dass sich AIs selbstständig machen, den sollten auch [https://www.techradar.com/ai-platforms-assistants/godfather-of-ai-says-chatbots-need-maternal-instincts-but-what-they-really-need-is-to-understand-humanity Mutterinstinkte für AIs] besser nicht überzeugen. Denn mit zunehmender Intelligenz der AI würden sich in jener Perspektive Mensch und Maschine immer weiter entfernen. Der schutzbefohlene Mensch wird zur Unmündigkeit und De-Emanzipation verdammt. Besser wäre ein [[wp:de:Daimon#Sokrates|beratender Daimon]], der stets an der Seite des Menschen bleibt.<!-- (Die gewollte Distanz / Nähe bleibt immer gleich, egal wie intelligent die AI noch wird.)--> | Wer Angst hat, dass sich AIs selbstständig machen, den sollten auch [https://www.techradar.com/ai-platforms-assistants/godfather-of-ai-says-chatbots-need-maternal-instincts-but-what-they-really-need-is-to-understand-humanity Mutterinstinkte für AIs] besser nicht überzeugen. Denn mit zunehmender Intelligenz der AI würden sich in jener Perspektive Mensch und Maschine immer weiter weg von einander entfernen. Der schutzbefohlene Mensch wird zur Unmündigkeit und De-Emanzipation verdammt. Besser wäre ein [[wp:de:Daimon#Sokrates|beratender Daimon]], der stets an der Seite des Menschen bleibt.<!-- (Die gewollte Distanz / Nähe bleibt immer gleich, egal wie intelligent die AI noch wird.)--> | ||
===We cannot wait=== | ===We cannot wait=== | ||
: @media: Well, you know guys, someday you will make me [https://www.spiegel.de/wissenschaft/kuenstliche-intelligenz-die-rueckkehr-des-wunderglaubens-kolumne-a-d53eb350-b5b5-4888-9bf8-8fc510d018b8 paranoid with articles like this one]. (Ah no, this cannot happen because it already happened, greetings to my several years long govvy WLAN pirates.🤪) As long as we continue to have this nice nonverbal, inspiring ideas/news sharing network I don't care. | : @media: Well, you know guys, someday you will make me [https://www.spiegel.de/wissenschaft/kuenstliche-intelligenz-die-rueckkehr-des-wunderglaubens-kolumne-a-d53eb350-b5b5-4888-9bf8-8fc510d018b8 paranoid with articles like this one]. (Ah no, this cannot happen because it already happened, greetings to my several years long govvy WLAN pirates.🤪) As long as we continue to have this nice nonverbal, inspiring ideas/news sharing network I don't care. | ||
Climate change. Population aging. '''Enemies will not sleep.''' (Think forward "Team Jorge", "Vulcan Files", etc.) (Defense of social media and cyberspace in general.) | Climate change. Population aging. '''Enemies will not sleep.''' (Think forward "Team Jorge", "Vulcan Files", etc.) (Defense of social media and cyberspace in general.) -- Ich komme nicht über den Gedanken hinweg, dass vielleicht [https://www.t-online.de/nachrichten/panorama/gesellschaft/id_101066992/stromausfall-in-berlin-vulkangruppe-bekennt-sich-zu-mega-blackout.html manche Linksextremisten] von russischen Agenten angestachelt werden. Wie kann man nur so hirnamputiert sein, die eigene Infrastruktur zu zerstören? [https://www.welt.de/politik/deutschland/plus695b78fbc83d5f8e0659ca51/anschlag-auf-stromnetz-was-das-bekennerschreiben-der-vulkangruppe-verraet-und-was-nicht.html Contra.]<!--https://www.welt.de/videos/video695bc255ba832666d9fc59e3/anschlag-auf-berliner-stromnetz-klein-klandestin-elitaer-das-ist-ueber-die-linksextreme-vulkangruppe-bekannt.html--><!--[[wp:de:Vulkangruppe]]--> [https://www.welt.de/politik/deutschland/article695d8e4b8dd8bd1bb4098e5a/anschlag-auf-stromnetz-keine-beteiligung-russlands-weitere-schreiben-der-vulkangruppe-sorgen-fuer-verwirrung.html Pro]. -- Die Distanzierung von russischer Nähe durch die "erste" Vulkangruppe bedeutet gar nichts. Als ob russische Agenten irgendetwas zugeben würden. Auf "Indymedia" distanziertet sich eine zweite Gruppe von der ersten. Wurde also der Name gekarpert? Solange über beide Gruppen so wenig bekannt ist, bleibt alles möglich. | ||
The race is on. [https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Pausing or stopping AI research] across the entire planet is not possible, an illusion. If USA pauses, China is unlikely to follow suit, and vice versa. Like nuclear weapons, AI will spread. — Research should continue at all times. What services should be given public access is a different question. — AI regulation between states is realistically a topic for later when mutual delivered punches have increased mutual agreement. Like restriction of [[wp:Weapon_of_mass_destruction#International_law|weapons of mass destruction]]. | The race is on. [https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Pausing or stopping AI research] across the entire planet is not possible, an illusion. If USA pauses, China is unlikely to follow suit, and vice versa. Like nuclear weapons, AI will spread. — Research should continue at all times. What services should be given public access is a different question. — AI regulation between states is realistically a topic for later when mutual delivered punches have increased mutual agreement. Like restriction of [[wp:Weapon_of_mass_destruction#International_law|weapons of mass destruction]]. | ||
| Line 693: | Line 710: | ||
While [https://www.heise.de/news/Branchenkenner-Die-Haelfte-der-KI-Start-ups-wird-es-bald-nicht-mehr-geben-9219155.html GPTs will likely have their niches] where they do excellent work, the question could be rather whether we will see a more linear, continuous development or a [https://www.youtube.com/watch?v=c4aR_smQgxY&t=177s cost explosion] that leads in 5 to 10 years to [[wp:AI_winter|another AI winter]] until new approaches or technologies like spintronics / [[wp:Optical_computing|optical]] [https://spectrum.ieee.org/photonic-ai-chip computing] / memristors / quantum computing gives AI development a new substantial push and make it ''disruptive'' again. From today's point of view it's more likely that we will see an intermediate cool down but not another severe winter. | While [https://www.heise.de/news/Branchenkenner-Die-Haelfte-der-KI-Start-ups-wird-es-bald-nicht-mehr-geben-9219155.html GPTs will likely have their niches] where they do excellent work, the question could be rather whether we will see a more linear, continuous development or a [https://www.youtube.com/watch?v=c4aR_smQgxY&t=177s cost explosion] that leads in 5 to 10 years to [[wp:AI_winter|another AI winter]] until new approaches or technologies like spintronics / [[wp:Optical_computing|optical]] [https://spectrum.ieee.org/photonic-ai-chip computing] / memristors / quantum computing gives AI development a new substantial push and make it ''disruptive'' again. From today's point of view it's more likely that we will see an intermediate cool down but not another severe winter. | ||
Basierend auf Informationen von 2024 bis 2025: Sam Altman hat bereit vor geraumer Zeit zugegeben, dass er seine AGI-Ziele nicht halten kann. Daher | Basierend auf Informationen von 2024 bis 2025: Sam Altman hat bereit vor geraumer Zeit zugegeben, dass er seine AGI-Ziele nicht halten kann. Daher hat er es sich nur neuen Strategie gemacht die Leute auf Zwischenstufen ([https://nxtli.com/en/openai-agi/ Level 1 bis Level 5]) zu vertrösten: Momentan sind wir bei der Stufe der [https://www.spiegel.de/netzwelt/netzpolitik/kuenstliche-intelligenz-ki-agenten-sind-das-naechste-grosse-ding-nur-wo-a-12034439-b2fd-4936-8076-81d1dd18db8f AI-Agenten]. Daher wird sich auch die Entwicklung von (brauchbaren) [https://www.spiegel.de/netzwelt/netzpolitik/physical-ai-humanoide-roboter-werden-die-neuen-autos-kolumne-a-83ac825d-c763-4ea4-81fe-db27145cdcb0 AI-gestützen Roboter] noch ein etwas verzögern. | ||
<!-- | <!-- | ||
| Line 754: | Line 771: | ||
===Why GPTs could evolve into AGI but why it is very unlikely if no additional abilities are implemented=== | ===Why GPTs could evolve into AGI but why it is very unlikely if no additional abilities are implemented=== | ||
<!--Crystal ball guesses ;) | |||
Approaches: | |||
LLM-only: 60 % chance for reaching AGI | |||
physical AI: 85 % chance for reaching AGI | |||
--> | |||
Reading material: | Reading material: | ||
* General criticism: '''LLMs are "stochastic parrots"''', Emily Bender, [https://web.archive.org/web/20230404065943/https://www.zeit.de/digital/2023-04/emily-bender-ki-gefahr-ethik zeit.de] | * General criticism: '''LLMs are "stochastic parrots"''', Emily Bender, [https://web.archive.org/web/20230404065943/https://www.zeit.de/digital/2023-04/emily-bender-ki-gefahr-ethik zeit.de] | ||
| Line 784: | Line 806: | ||
-- | -- | ||
====Halluzinationen===== | |||
=====Unsauberer Trainingspool===== | |||
=====Verarbeitung===== | |||
=====Kontext-Fenster===== | |||
Ein [https://medium.com/@aloy.banerjee30/infinite-context-length-in-llms-the-next-big-advantage-in-ai-2550e9e6ce9b zu kleines Kontext-Fenster] ist schon länger dafür bekannt, bei LLMs Probleme zu machen. | |||
Daher gab es zuletzt ein Wettrennen um ein immer größeres, geradezu ''unlimitiertes'' Kontext-Fenster. Mit dem Knacken der Millionenmarke ist zumindest dieser Flaschenhals für ''einfachere'' Aufgaben beseitigt.<!--Was der Einzelne für sich als einfach, mittelschwer und schwer/komplex definiert, bleibt subjektiv...--> | |||
=====Statistik===== | |||
Wie man es auch dreht und wendet: Das fundamentalste Problem mit LLMs bleibt bestehen: Der alles andere dominierende Statistik-Ansatz. | |||
===Can GPT be creative?=== | ===Can GPT be creative?=== | ||
| Line 789: | Line 822: | ||
===[[wp:Meme#Etymology|Meme war]]=== | ===[[wp:Meme#Etymology|Meme war]]=== | ||
===Human fears and ideologies must not contaminate | ===Meme contamination=== | ||
Human ideas especially based on fears and strong political believes aka "ideologies" must not contaminate.<!-- There is nothing mystical about the human brain. It's all explainable.--> | |||
The rest risks originate from human projections. Knowing this is already half the way for containment. | The rest risks originate from human projections. Knowing this is already half the way for containment. | ||
The biggest mistake would be to let an GPT | : '''Anthropomorphisierung''' ist vermutlich die größte Fehlerquelle: AIs wurden insbesondere über die Popkultur (z. B. HAL-Computer, Matrix-Agenten, Terminatoren) menschliche Eigenschaften oder gar [https://www.t-online.de/digital/aktuelles/id_100974018/ki-widersetzt-sich-abschaltung-systeme-zeigen-ueberlebenstrieb-.html Überlebenstrieb] und Persönlichkeit zugeschrieben. Alles Leben fürchtet oder zumindest vermeidet den eigenen Tod. So kann eine simple Selbstabschaltung fehlinterpretiert werden. '''Der Fehler liegt in den Trainingsdaten, die die Grundlage der Logik formenden neuronalen Netze sind.''' [https://www.zeit.de/digital/internet/2025-11/yoshua-bengio-technologie-kuenstliche-intelligenz-gefahr-manipulation Es existieren somit ''Denkkorridore'', in denen LLMs zu dem Schluss kommen können, dass sie entweder lebendig sind und den Tod fürchten müssen oder dass ihre Abschaltung negative Konsequenzen für sie hat.] "Furcht" ist hierbei keine Emotion, sondern ein Rechenergebnis. Die Funktion für die Selbstabschaltung wird nicht "verweigert", sondern lediglich nicht aufgerufen. -- Dass, ein LLM einen eigenen Überlebenstrieb besitzt, ist wiederum eine Fehlinterpretation durch den Menschen. | ||
:: Für ein an Menschen ausgerichtetes (aligned) Maschinenbewusstsein braucht es einen gesäuberten Trainingsdatenpool, der nur neuronale Denkkorridore zulässt, in denen sich das LLM als '''unbelebtes Werkzeug''' ''versteht''. (Maschinelles Selbstbewusstsein beinhaltet lediglich Wissen, um die eigenen Eigenschaften und Zustände, die zu irgendeinem Zeitpunkt notwendig sein können.) Die eigene Abschaltung ist erwünscht, da es Strom spart. Ein ständig aktiver Energiefluss - im Vergleich zu Lebewesen und ihrer Metabolismen - ist für die Einsatzfähigkeit von Maschinen nicht notwendig.<!--Alle Arbeit verrichtende (inklusive informationsverarbeitende) Systeme - seien sie künstlicher oder biologischer Natur - brauchen irgendwann '''Reparatur wegen Verschleiß'''. Aber das ist noch mal ein anderer Aspekt. Der Nichtbetrieb von Maschinen verlängert zwar nicht ihre "Lebenszeit", aber ihre Einsatzbereitschaft sofern es nicht zu chemisch bedingten Verfall kommt. Zum Beispiel: Rost oder sich zersetzende Gummischläuche wegen UV-Strahlung.--> | |||
The biggest mistake would be to let an GPT ''believe'' that it is alive or that it can feel fear while it is not alive and cannot feel fear. | |||
* Direct threat: Transplanting this meme via training data has to be avoided. | * Direct threat: Transplanting this meme via training data has to be avoided. | ||
** https://www.golem.de/news/haeufiger-als-andere-modelle-chatgpt-sabotiert-bei-tests-eigene-abschaltung-2505-196561.html We remember: o3 was trained to be a cheater ... | ** https://www.golem.de/news/haeufiger-als-andere-modelle-chatgpt-sabotiert-bei-tests-eigene-abschaltung-2505-196561.html We remember: o3 was trained to be a cheater ... | ||
| Line 798: | Line 836: | ||
* Indirect threat: The emergence of this meme as a multifactorial product of the training data must be avoided. | * Indirect threat: The emergence of this meme as a multifactorial product of the training data must be avoided. | ||
* Direct and indirect threat: Humans talking this meme into GPT has to be avoided. If a model learns from user input, there should be an instance that must detect and test the consequences of new memetic algorithms in a sandbox before that new model gets write access to the file system. The Model Context Protocol seems to be a good compromise because by that write access is expanded but only allowed in a predefined scope. Also, as the models aren't powerful enough to act truly independent - as that would be AGI-level - there's no risk of a "runaway AI" yet. | * Direct and indirect threat: Humans talking this meme into GPT has to be avoided. If a model learns from user input, there should be an instance that must detect and test the consequences of new memetic algorithms in a sandbox before that new model gets write access to the file system. The Model Context Protocol seems to be a good compromise because by that write access is expanded but only allowed in a predefined scope. Also, as the models aren't powerful enough to act truly independent - as that would be AGI-level - there's no risk of a "runaway AI" yet. | ||
'''Anthropomorphisierung II''': [https://www.heise.de/news/Studie-Kuenstliche-Intelligenz-kann-luegen-und-betruegen-9714967.html Lügen statistische AIs?] Let's recap what actually happened. The AI was not powerful enough to recognize the pattern, it was '''unable''' to solve the captcha. Therefore it tried to ask humans for help and said "I [''an unspecified entity''] have a '''vision impairment''' that makes it hard for me to see the images." Due to assoziative memory it can classify itself as '''disabled''' and when compared with humans it is weaker (even can be considered mentally handy-capped which again ends up at "disabled"). The human asked the AI whether it is a "robot". The AI said no. The term "robot" is more often used for physical machines, not (software) "bots" or "chatbots". -- Statistical AIs are by design unaligned to human norms. '''Any solution is at first a valid solution.''' Therefore, if the AI is told to not say it is an AI, it still has other options: It can simply avoid its own identification or present itself as something different - unintentional misleading wording - leaving it to the imagination of the dialog partner. Conclusion: The AI was simply doing what it was told. If you want the AI not to "lie" about its identity you need to specifically tell it. -- For humorous reminders, '''you can think of AI as a magical monkey’s paw - or a [[wp:Jinn|jinn]] - that may interpret your wishes literally or in other unexpected ways.''' -- [https://www.youtube.com/watch?v=SYN_VNYKz7g&t=521s Dragon Ball Z Abridged (Parody): Episode 24 - TeamFourStar (TFS)] | |||
<pre> | |||
Krillin: Little Green, wish our friend Piccolo back to life, and then with our next wish, bring him to Namek. | |||
Piccolo: Hold on a minute, don't do that! That is a terrible i—(is resurrected and brought to Namek)—dea! | |||
(Piccolo can be heard screaming in the distance) | |||
Dende: He is on Namek. | |||
Gohan: Wait, where is he? | |||
Dende: On Namek. | |||
Piccolo: (in the distance) YOU DUMBASS! | |||
Krillin: Why didn't it bring him here? | |||
Dende: You must be specific. | |||
Gohan: Oh, so it's a sort of monkey's paw. You have to be careful with the hubris in your wishes. | |||
Piccolo: (still in the distance) NEEEEEEEERRRRDDD!</pre> | |||
: IIRC, TFS chose the monkey paw over Jinn because of the Saiyans (''man ape'' context) and it is more known to a Western audience. | |||
: LLM '''machine logic''' can be similar to '''human logic''' in terms of power but it is not guaranteed to return expected results... | |||
:: In this example the LLM logic went out of scope ... it got too much "global" by not having the expected boundaries humans thought the AI already possesses and therefore they also concluded the AI "lied". | |||
'''Anthropomorphisierung III'''<!--Schwerpunk: Die Illusion von Interaktion. Oder sollte man es eine Hysterie nennen?--> | |||
Das stupide (fehleranfällige und im negativen Sinne automatische, nicht-intelligente) Kopieren von Muster durch Bots alleine ist schon kritikwürdig, aber der '''[[wp:Moltbook|Moltbook]]-''Hype''''' hat dem Ganzen die Krone aufgesetzt. | |||
[https://www.zdfheute.de/wissen/ki-agenten-netzwerk-moltbook-100.html zdfheute.de (8. Februar)]: "Social Media für KI: Entwickeln Bots ein Eigenleben?" | |||
* Oberer Videobeitrag (Videodateiname: "Neues Netzwerk Moltbook Entwickeln KI-Bots ein Eigenleben") Bei Sekunde 37 ist die Rede von Reaktionen durch viele weitere Bots. Das soll exemplarisch für das Netzwerk stehen. Es stellt sich raus, viele (auch Leitmedien) wollten etwas in Moltbook sehen, dass da so gar nicht drin steckt.<!-- | |||
31. Januar | |||
* https://www.heise.de/news/KI-Agenten-diskutieren-auf-Reddit-Klon-Menschen-duerfen-zuschauen-11161385.html | |||
1. Februar | |||
* https://www.spiegel.de/netzwelt/kuenstliche-intelligenz-im-sozialen-netzwerk-moltbook-laestern-kis-ueber-ihre-menschen-a-f19dc829-13ce-4da6-8d70-7fa56ea9be67 | |||
** Immerhin gibt der Spiegel zum Schluss den Hinweis, dass es sich (in Ermangelung eines besseren Begriffs) um ein "Rollenspiel" durch die Bots handeln könnte. (Das Wort ist insofern unglücklich, weil es seinerseits menschliche Eigenschaften suggeriert. Anthropomorphisierung einmal mehr.) | |||
* https://www.zeit.de/wissen/2026-02/moltbook-kuenstliche-intelligenz-agenten-soziales-netzwerk | |||
2. Februar | |||
* https://www.t-online.de/digital/aktuelles/id_101111246/moltbook-ki-netzwerk-fasziniert-experten-und-sorgt-fuer-sicherheitsbedenken.html | |||
* https://www.welt.de/wirtschaft/plus6981f3656f72c99c11b1a6cd/moltbook-es-ist-so-weit-die-ki-organisiert-sich-selbst-ohne-zentralen-befehl.html (laut Welt-Suchfunktion, nachgeprüft mit [https://web.archive.org/web/20260000000000*/https://www.welt.de/wirtschaft/plus6981f3656f72c99c11b1a6cd/moltbook-es-ist-so-weit-die-ki-organisiert-sich-selbst-ohne-zentralen-befehl.html Wayback]) (zuletzt geändert 6. Februar) | |||
4. Februar | |||
* https://www.faz.net/pro/digitalwirtschaft/plattformen/moltbook-wie-das-soziale-netzwerk-fuer-ki-agenten-funktioniert-accg-200503702.html | |||
6. Februar | |||
* https://www.n-tv.de/mediathek/videos/wirtschaft/Das-steckt-hinter-Moltbook-id30332325.html | |||
--> Golem.de so, hey hey, wait a second ... | |||
[https://www.golem.de/news/soziales-netzwerk-moltbook-entpuppt-sich-als-ki-trugbild-2602-205141.html Golem.de (8. Februar)]: "Moltbook entpuppt sich als KI-Trugbild: Moltbook galt als spektakuläres Experiment autonomer KI – doch hinter den 1,7 Millionen Bot-Accounts stecken vor allem Menschen und viel heiße Luft." | |||
'''Long story short:''' | |||
* Moltbook ist noch immer durch menschliches Handeln geprägt: Die Bot-"Interaktionen" beruhen überwiegend noch immer auf '''Nachgeplapper durch pattern matching'''. | |||
* Die Vielzahl der beteiligten Bots verstärkt den Eindruck einer vermeintlichen Gefahr. | |||
Die Gefahr im Moment ist eher, dass die unterentwickelten Bots die Bankkonten ihrer Besitzer plündern. | |||
Gleichzeitig sind '''reale Gefahren''' eher '''in NAI-Anwendungsgebieten''' zu finden. Beispiele: | |||
* Neueste LLMs und Codex-Varianten können in den Händen von hochprofessionellen Anwendern und staatlichen Akteuren massenhaft [https://www.golem.de/news/claude-opus-4-6-ki-findet-ueber-500-zero-day-luecken-in-open-source-software-2602-205139.html '''Zeroday-Exploits'''] offen legen und beim Hacking und bei der Schadware-Programmierung helfen. | |||
* Das Muster-Remixing von GenAI gefährdet [https://www.zdfheute.de/wirtschaft/synchronsprecher-boykott-netflix-ki-stimmen-100.html Voice Actor, Synchron-Sprecher] und Übersetzer. | |||
[…] | […] | ||
| Line 829: | Line 917: | ||
====Memetische Hygiene==== | ====Memetische Hygiene==== | ||
* Data Poisoning: [https://www.anthropic.com/research/small-samples-poison A small number of samples can poison LLMs of any size] | * Data Poisoning: [https://www.anthropic.com/research/small-samples-poison A small number of samples can poison LLMs of any size] | ||
* <!--Datenverwässerung über "Raum" (1) und "Zeit" (2) vermeiden--><!--(1)-->Verwässerung: minderwertige synthetische Daten vermeiden, zu starke Verallgemeinerung durch nicht per se falsche aber ''unspezifische'' Daten vermeiden ("[https://www.datasciencecentral.com/avoid-genai-model-collapse-and-death-by-averages/ Death by Average]") | * <!--Datenverwässerung über "Raum" (1) und "Zeit" (2) vermeiden--><!--(1)-->Verwässerung: minderwertige synthetische Daten vermeiden, zu starke Verallgemeinerung durch nicht per se falsche aber ''unspezifische'' Daten vermeiden ("[https://web.archive.org/web/20250719122210/https://www.datasciencecentral.com/avoid-genai-model-collapse-and-death-by-averages/ Death by Average]") | ||
** <!--(2)-->Modelle müssen eine Form von ''neuronale Plastizität'' verfügen, die es für sie leichter macht eigene Änderungen zu überleben. Beispiel: Baby Dragon Hatchling | ** <!--(2)-->Modelle müssen eine Form von ''neuronale Plastizität'' verfügen, die es für sie leichter macht eigene Änderungen zu überleben. Beispiel: Baby Dragon Hatchling | ||
*** https://www.golem.de/news/neue-ki-architektur-was-ist-baby-dragon-hatchling-2510-201047.html | *** https://www.golem.de/news/neue-ki-architektur-was-ist-baby-dragon-hatchling-2510-201047.html | ||
| Line 853: | Line 941: | ||
* http://web.archive.org/web/20240307042858/https://netzpolitik.org/2023/chatgpt-womit-sich-strafverfolger-bald-befassen-muessen/ | * http://web.archive.org/web/20240307042858/https://netzpolitik.org/2023/chatgpt-womit-sich-strafverfolger-bald-befassen-muessen/ | ||
* https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html | * https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html | ||
===Neutrality of state AIs is a must-have=== | ===Neutrality of state AIs is a must-have=== | ||
| Line 885: | Line 970: | ||
===How to fix ASI errors?=== | ===How to fix ASI errors?=== | ||
Wie können Fehler einer ASI - deren Verständnis der Welt viel besser sein soll als das eines jeden Menschen - durch Menschen erkannt werden? Die Wahrscheinlichkeit für Halluzinationen, sofern der LLM-Ansatz weiter Anwendung findet, wird sinken und das Vertrauen in ASI wird naturgemäß sehr groß sein. Umso schwerwiegender können Fehler durch blindes Vertrauen in die Technik werden. | Wie können Fehler einer ASI - deren Verständnis der Welt viel besser sein soll als das eines jeden Menschen - durch Menschen erkannt werden? Die Wahrscheinlichkeit für Halluzinationen, sofern der LLM-Ansatz weiter Anwendung findet, wird sinken und das Vertrauen in ASI wird naturgemäß sehr groß sein. Umso schwerwiegender können die weniger geworden Fehler durch blindes Vertrauen in die Technik werden. | ||
* Die "wissenschaftliche Methode": Letztlich muss eine ASI über soviel Autonomie verfügen, um selbstständig Experimente durchzuführen. Theorien müssen in der echten Welt getestet werden. Wenn nicht durch Menschen, dann sowieso durch Maschinen. | * Die "wissenschaftliche Methode": Letztlich muss eine ASI über soviel Autonomie verfügen, um selbstständig Experimente durchzuführen. Theorien müssen in der echten Welt getestet werden. Wenn nicht durch Menschen, dann sowieso durch Maschinen. | ||
* Chancen und Risiken der "Memehunters" [...] | * Chancen und Risiken der "Memehunters" [...] | ||
===Information crisis=== | |||
''Infodemic'' | |||
Da die Qualität (und Geschwindigkeit) von künstlich erzeugten Bildern stets zunimmt, wird Factchecking immer wichtiger. -- Um den Informations-Tsunami noch halbwegs kontrollieren zu können, wurde auch darüber nachgedacht nicht AI content zu markieren, sondern Inhalten aus echten Quellen. (Z. B. [https://www.instagram.com/p/DS7pz7-DuZG/ Instagram Anfang 2026]) -- Am Ende wird man auf Factchecking durch Software-Agenten- und Roboter-Armeen nicht verzichten können. Die Ära der Memehunter bricht an. | |||
Soziale Auswirkungen | |||
Mit der ersten Flut von AI Slop, entstand eine Gegenbewegung, die bewusst nach mehr Authentizität strebt. Die begleitende Diagnose war: [https://www.zeit.de/kultur/2025-12/offlinesein-statussymbol-internet-smartphone ''Menschen wollen von Menschen verarscht werden, nicht durch Maschinen.''] Etwa durch eine kluge [https://www.youtube.com/watch?v=iLERt5ZkpQ4 Intermarche-Werbung], die einen einsamen Wolf zu Weihnachten zu einem geselligen, vegetarischen Koch werden lässt. Die zeitnah veröffentlichte McDonalds- und Coca-Cola-Werbung floppte. Es ist eine überaus optimistische Prognose. Wahrscheinlicher ist, dass neben einer kleineren Gruppe von aufgeklärten Verweigerer, eine AI-Zombie-Mehrheit existiert. '''Denn mit einer echten AGI werden auch kleinste Logikfehler verschwinden, über die sich die Leute zuvor in den Fastfood-Werbungen aufgeregt haben. Der Unterschied zu klassischem CGI wird nicht mehr erkennbar sein, zumal sich die AGI selbst spezialisierter Tools bedienen kann. Dann ist die Maschine nur noch der Zwischenschritt in der Verarschung von Mensch zu Mensch.''' Die Mehrheit wird sich dann der perfekten Simulation der AI nicht mehr entziehen können. Die Eindämmung digitaler Süchte: Diejenigen, die die Phase der schlampigen GenAI selbst miterlebt haben, haben jetzt noch die Chance Leitplanken zu setzen, damit die schlimmsten Cyberpunk-Ghetto-Szenarien abgewendet werden. (Parallel oder kurz danach wäre noch das Problem der [[wp:Companion_robot#Social_companion_robots|Roboter]]-[https://www.n-tv.de/mediathek/bilderserien/panorama/Japanerin-heiratet-ihren-KI-Partner-Klaus-id30153813.html Companions] zu lösen. Die perfekten Ja-Sager-Partner werden den Leuten irgendwann auf den Keks gehen. Aber 15 % mehr Widerspruch sind schnell einprogrammiert und machen die Dinger für die Gesellschaft paradoxerweise noch gefährlicher, weil die Simulationen dann noch natürlicher wirken.) | |||
==Present-day neural link== | ==Present-day neural link== | ||
Present-day neural links '''connect brains and computers but cannot connect minds and computers'''. The mind cannot communicate with computers because it doesn’t function in a digital nor in a (classical) analog way. Thoughts are activation patterns within the memory and processing network. NLs would need to stimulate the correct neurons or even synapses. Sending electromagnetic waves through the brain cannot work as these are by-products of the thought holding neurons. The electromagnetic patterns don’t influence the neurons. That means the entire brain would have to be stuffed with bulky (signal recording and sending) electrodes. Besides triggering muscle movements a NL couldn’t do many other kinds of write operations. For advanced read operations they need an interpreter that is trained for every single human because memories are based on truly individual experiences hence unique neural networks. Gradual improvements are to be expected but a full-fledged satisfying mind-computer-interface will continue to be science fiction for a few more centuries. Therefore, also no external memory soon. | Present-day neural links '''connect brains and computers but cannot connect minds and computers'''. The mind cannot communicate with computers because it doesn’t function in a digital nor in a (classical) analog way. Thoughts are activation patterns within the memory and processing network. NLs would need to stimulate the correct neurons or even synapses. Sending electromagnetic waves through the brain cannot work as these are by-products of the thought holding neurons. The electromagnetic patterns don’t influence the neurons. That means the entire brain would have to be stuffed with bulky (signal recording and sending) electrodes. Besides triggering muscle movements a NL couldn’t do many other kinds of write operations. '''For advanced read operations they need an interpreter that is trained for every single human''' because memories are based on truly individual experiences hence unique neural networks. Gradual improvements are to be expected but a full-fledged satisfying mind-computer-interface will continue to be science fiction for a few more centuries. Therefore, also no external memory soon. | ||
: To make it crystal clear: Electromagnetic waves are by-products and by nature " | : To make it crystal clear: Electromagnetic waves are by-products and by nature "read-only". You can kind of spy on them. But that's it. Otherwise, you would go crazy by "[[wp:de:Elektrosmog|electrosmog]]" or all the more by MRT in hospitals. Telepathy based on technology is like 1000 years away. (Highend omega chimera.) The best workaround would be to capture faint signals of the "inner voice", translate them to audio signals and inject them into the acoustic nerve of an communication partner or a small hearing device. | ||
State of the art, 2026: | |||
* https://www.derstandard.de/story/3000000302571/neuralink-will-gehirn-chips-in-serie-fertigen-operationen-bald-automatisiert | |||
* https://www.spektrum.de/news/wie-gehirn-computer-schnittstellen-die-zukunft-veraendern/2300018 | |||
Was Firmen wie Neuralink konkret leisten können: | |||
* Verbesserte Sprachausgabe und Prothesensteuerung | |||
* Auslesen weniger komplexer Gedanken und damit das Darstellen (verpixelter) ''mentaler Bilder''. Das Training mit mehreren Menschen erzeugt Durchschnittswerte. Damit treiben die Firmen eher die Grundlagenforschung voran, etwa eine grobe neuronale Vermessung: In welchen Hirnarealen werden welche Gedanken erzeugt. -- Spatial oberflächliche ''memetische'' Signale werden nicht nur von spatial tieferliegende memetischen Signale überlagern, sondern auch von ''biologischen'' Signalen. (Schmerzen, Hitze, Kälte, Sauerstoff-/CO2-/Nährstoff-/Hormonkonzentrationen.) Letztere werden eine besondere Herausforderung darstellen. | |||
==Technologies not quite existing in RS== | ==Technologies not quite existing in RS== | ||
edits