8,772
edits
Paradox-01 (talk | contribs) mNo edit summary |
Paradox-01 (talk | contribs) |
||
| Line 850: | Line 850: | ||
=====Verarbeitung===== | =====Verarbeitung===== | ||
=====Kontext-Fenster===== | =====Kontext-Fenster===== | ||
Wenn bei Menschen das Kurzzeitgedächtnis überläuft oder vorn herein beeinträchtigt ist, können sie sich "nicht mehr richtig konzentrieren". Bei LLMs ist ein sehr ähnliches Phänomen zu beobachten, bei einem zu kleinen Kontextfester fangen sie an Dinge zu vergessen und falsche Schlussfolgerungen zu ziehen. Dementsprechend haben die AI-Unternehmen daran gearbeitet das Kontextfenster zu erweitern. [https://medium.com/@aloy.banerjee30/infinite-context-length-in-llms-the-next-big-advantage-in-ai-2550e9e6ce9b Als großer Durchbruch wurde zum Beispiel das Erreichen der Millionenmarke vermarktet.] Wie so häufig waren die neuen LLMs eher öffentliche Betas. [https://www.golem.de/news/kuenstliche-intelligenz-claudes-kontextfenster-steigt-auf-eine-million-tokens-2603-206506.html Bei längeren Eingaben zeigten sich massive Leistungsverluste,] weshalb man Stand 2026 auf das [https://medium.com/@max.petrusenko/the-illusion-of-scale-why-your-llms-context-window-is-lying-to-you-454f08c31260 Maximum Effective Context Window (MECW)] achten sollte. | |||
=====Statistik===== | =====Statistik===== | ||
edits