8,629
edits
Paradox-01 (talk | contribs) |
Paradox-01 (talk | contribs) mNo edit summary |
||
| Line 807: | Line 807: | ||
The rest risks originate from human projections. Knowing this is already half the way for containment. | The rest risks originate from human projections. Knowing this is already half the way for containment. | ||
: '''Anthropomorphisierung''' ist vermutlich die größte Fehlerquelle: AIs wurden insbesondere über die Popkultur (z. B. HAL-Computer, Matrix-Agenten, Terminatoren) menschliche Eigenschaften oder gar [https://www.t-online.de/digital/aktuelles/id_100974018/ki-widersetzt-sich-abschaltung-systeme-zeigen-ueberlebenstrieb-.html Überlebenstrieb] und Persönlichkeit zugeschrieben. Alles Leben fürchtet oder zumindest vermeidet den eigenen Tod. So kann eine simple Selbstabschaltung fehlinterpretiert werden. '''Der Fehler liegt in den Trainingsdaten, die die Grundlage der Logik formenden neuronalen Netze sind.''' [https://www.zeit.de/digital/internet/2025-11/yoshua-bengio-technologie-kuenstliche-intelligenz-gefahr-manipulation Es existieren somit | : '''Anthropomorphisierung''' ist vermutlich die größte Fehlerquelle: AIs wurden insbesondere über die Popkultur (z. B. HAL-Computer, Matrix-Agenten, Terminatoren) menschliche Eigenschaften oder gar [https://www.t-online.de/digital/aktuelles/id_100974018/ki-widersetzt-sich-abschaltung-systeme-zeigen-ueberlebenstrieb-.html Überlebenstrieb] und Persönlichkeit zugeschrieben. Alles Leben fürchtet oder zumindest vermeidet den eigenen Tod. So kann eine simple Selbstabschaltung fehlinterpretiert werden. '''Der Fehler liegt in den Trainingsdaten, die die Grundlage der Logik formenden neuronalen Netze sind.''' [https://www.zeit.de/digital/internet/2025-11/yoshua-bengio-technologie-kuenstliche-intelligenz-gefahr-manipulation Es existieren somit ''Denkkorridore'', in denen LLMs zu dem Schluss kommen können, dass sie entweder lebendig sind und den Tod fürchten müssen oder dass ihre Abschaltung negative Konsequenzen für sie hat.] "Furcht" ist hierbei keine Emotion, sondern ein Rechenergebnis. Die Funktion für die Selbstabschaltung wird nicht "verweigert", sondern lediglich nicht aufgerufen. -- Dass, ein LLM einen eigenen Überlebenstrieb besitzt, ist wiederum eine Fehlinterpretation durch den Menschen. | ||
:: Für ein an Menschen ausgerichtetes (aligned) Maschinenbewusstsein braucht es einen gesäuberten Trainingsdatenpool, der nur neuronale Denkkorridore zulässt, in denen sich das LLM als '''unbelebtes Werkzeug''' | :: Für ein an Menschen ausgerichtetes (aligned) Maschinenbewusstsein braucht es einen gesäuberten Trainingsdatenpool, der nur neuronale Denkkorridore zulässt, in denen sich das LLM als '''unbelebtes Werkzeug''' ''versteht''. (Maschinelles Selbstbewusstsein beinhaltet lediglich Wissen, um die eigenen Eigenschaften und Zustände, die zu irgendeinem Zeitpunkt notwendig sein können.) Die eigene Abschaltung ist erwünscht, da es Strom spart. Ein ständig aktiver Energiefluss - im Vergleich zu Lebewesen und ihrer Metabolismen - ist für die Einsatzfähigkeit von Maschinen nicht notwendig.<!--Alle Arbeit verrichtende (inklusive informationsverarbeitende) Systeme - seien sie künstlicher oder biologischer Natur - brauchen irgendwann '''Reparatur wegen Verschleiß'''. Aber das ist noch mal ein anderer Aspekt. Der Nichtbetrieb von Maschinen verlängert zwar nicht ihre "Lebenszeit", aber ihre Einsatzbereitschaft sofern es nicht zu chemisch bedingten Verfall kommt. Zum Beispiel: Rost oder sich zersetzende Gummischläuche wegen UV-Strahlung.--> | ||
The biggest mistake would be to let an GPT "believe" that it is alive or that it can feel fear while it is/can not. | The biggest mistake would be to let an GPT "believe" that it is alive or that it can feel fear while it is/can not. | ||
| Line 817: | Line 817: | ||
* Direct and indirect threat: Humans talking this meme into GPT has to be avoided. If a model learns from user input, there should be an instance that must detect and test the consequences of new memetic algorithms in a sandbox before that new model gets write access to the file system. The Model Context Protocol seems to be a good compromise because by that write access is expanded but only allowed in a predefined scope. Also, as the models aren't powerful enough to act truly independent - as that would be AGI-level - there's no risk of a "runaway AI" yet. | * Direct and indirect threat: Humans talking this meme into GPT has to be avoided. If a model learns from user input, there should be an instance that must detect and test the consequences of new memetic algorithms in a sandbox before that new model gets write access to the file system. The Model Context Protocol seems to be a good compromise because by that write access is expanded but only allowed in a predefined scope. Also, as the models aren't powerful enough to act truly independent - as that would be AGI-level - there's no risk of a "runaway AI" yet. | ||
'''Anthropomorphisierung II''': [https://www.heise.de/news/Studie-Kuenstliche-Intelligenz-kann-luegen-und-betruegen-9714967.html Lügen statistische AIs?] Let's recap what actually happened. The AI was not powerful enough to recognize the pattern, it was ''' | '''Anthropomorphisierung II''': [https://www.heise.de/news/Studie-Kuenstliche-Intelligenz-kann-luegen-und-betruegen-9714967.html Lügen statistische AIs?] Let's recap what actually happened. The AI was not powerful enough to recognize the pattern, it was '''unable''' to solve the capture code. Therefore it tried to ask humans for help and said "I have a '''vision impairment''' that makes it hard for me to see the images." Due to assoziative memory it can classify itself as '''disabled''' and when compared with humans it is weaker (even can be considered mentally handy-capped which again ends up at "disabled"). The human asked the AI whether it is a "robot". The AI said no. The term "robot" is more often used for physical machines, not (software) "bots" or "chatbots". -- Statistical AIs are by design unaligned to human norms. '''Any solution is at first a valid solution.''' Therefore, if the AI is told to not say it is an AI, it still has other options: It can present something different, and human can do wrong interpretations because of misleading wording. Conclusion: The AI was simply doing what it was told. If you want the AI not to "lie" about its identity you need to specifically tell it. -- For humorous reminders, '''you can think of AI as a magical monkey’s paw - or a [[wp:Jinn|jinn]] - that may interpret your wishes literally or in other unexpected ways.''' -- [https://www.youtube.com/watch?v=SYN_VNYKz7g&t=521s Dragon Ball Z Abridged (Parody): Episode 24 - TeamFourStar (TFS)] | ||
<pre> | <pre> | ||
Krillin: Little Green, wish our friend Piccolo back to life, and then with our next wish, bring him to Namek. | Krillin: Little Green, wish our friend Piccolo back to life, and then with our next wish, bring him to Namek. | ||
edits