8,683
edits
Paradox-01 (talk | contribs) mNo edit summary |
Paradox-01 (talk | contribs) |
||
| Line 774: | Line 774: | ||
Approaches: | Approaches: | ||
LLM-only: 60 % chance for reaching AGI | LLM-only: 60 % chance for reaching AGI | ||
physical AI: 85 % | physical AI: 85 % chance for reaching AGI | ||
--> | --> | ||
Reading material: | Reading material: | ||
| Line 806: | Line 806: | ||
-- | -- | ||
====Halluzinationen===== | |||
=====Unsauberer Trainingspool===== | |||
=====Verarbeitung===== | |||
=====Kontext-Fenster===== | |||
Ein [https://medium.com/@aloy.banerjee30/infinite-context-length-in-llms-the-next-big-advantage-in-ai-2550e9e6ce9b zu kleines Kontext-Fenster] ist schon länger dafür bekannt, bei LLMs Probleme zu machen. | |||
Daher gab es zuletzt ein Wettrennen um ein immer größeres, geradezu ''unlimitiertes'' Kontext-Fenster. Mit dem Knacken der Millionenmarke ist dieser wichtige Flaschenhals. | |||
=====Statistik===== | |||
Wie man es auch dreht und wendet: Das fundamentalste Problem mit LLMs bleibt bestehen: Der alles andere dominierende Statistik-Ansatz. | |||
===Can GPT be creative?=== | ===Can GPT be creative?=== | ||
edits