Hogyan működik?
Az LLM nem „ért”, csak következtet
A nagy nyelvi modellek nem tényeket tároló adatbázisok és nem rendelkeznek emberi értelemben vett megértéssel. Működésük alapja a valószínűség: a korábbi tokenek alapján megjósolják a statisztikailag leginkább odaillő folytatást. Ez egyszerre adja az erejüket és a hibáik forrását.
Nem „érti”
Nincs tudat, szándék vagy stabil világmodell.
Token-alapú
Valószínűséget számol, nem igazságot keres.
Ebből jön minden
Stílus, összegzés, de hallucináció is.
Az egyszerű modell egy mondatban
Ha ezt a modult csak egyetlen mondattal kellene összefoglalni, akkor így hangzana: az LLM nem azért ad hasznos választ, mert „megértette" a világot úgy, mint egy ember, hanem azért, mert rendkívül nagy mennyiségű nyelvi mintából statisztikailag valószínű folytatást tud előállítani.
Ez elsőre csalódásnak hangozhat – de valójában ebből jön az ereje is:
- → ezért tud gyorsan fogalmazni,
- → ezért tud jól összefoglalni,
- → és ezért tud néha magabiztosan tévedni.
A modul további része ezt az egy mondatot bontja ki részletesen.
A nagy illúzió
A folyékony válasz nem azonos a megértéssel.
Amikor a ChatGPT-vel beszélgetsz, az emberi agy ösztönösen azt feltételezi, hogy a gép „érti”, amit kérdezel tőle. Ez a legnagyobb és legveszélyesebb illúzió az AI-használatban.
Az LLM nem digitális orákulum és nem keres „betonbiztos igazságot”. Valójában egy extrém fejlett autocomplete: a kérdésed alapján kiszámolja a legvalószínűbb következő tokent, majd az azt követőt, és így tovább.
Ezért zseniális
- Nyelvi mintázatokból kiválóan ír, összefoglal és formáz.
- Stílust utánoz, vázlatból strukturált anyagot készít.
- Gyorsan szintetizál sok forrásból.
Ezért veszélyes
- Valószínűséget keres, nem igazságot.
- Magabiztos hallucinációt tud generálni.
- Logikai láncban tévedhet, ha a prompt rossz.
Mielőtt belemerülünk a motorba
Nem kell matematikusnak lenned, hogy jól használd
Nem az a cél, hogy neurális hálózati kutatóvá válj. Ehhez a modulhoz nem kell képleteket tudnod, és nem kell mélytanulási modellt építened.
A cél sokkal gyakorlatibb: értsd meg annyira a motor logikáját, hogy előre tudd, hol lesz erős, és hol fog hibázni.
- → miből dolgozik a modell,
- → hogyan állít elő választ,
- → és miért nem garantálható a pontosság.
Az LLM működésének fizikája
Egyszerű mechanika, gyakorlati következményekkel.
Tokenizáció
A modell nem szavakat lát, hanem tokeneket: apró szövegrészeket, amelyekre bontja a bemenetet.
Következmény: a tokenek száma határozza meg a költséget és a kontextus méretét.
Embedding
Minden token számsorrá alakul, amely a „jelentés” helyét jelöli egy többdimenziós térben.
Következmény: a hasonló fogalmak közel kerülnek egymáshoz, ezért működik a hasonlat és átfogalmazás.
Attention / Transformer
A modell a teljes szöveg fontos részeire „figyel”, és súlyozza, mi mihez kapcsolódik.
Következmény: jól kezeli a kontextust, de a túl hosszú input szétszórja a figyelmet.
Token prediction
Valószínűségi eloszlásból kiválasztja a következő tokent, és ismétli a folyamatot.
Konklúzió: a modell következtet, nem bizonyít — ezért erős és ezért tévedhet.
Magyar nyelv és tokenköltség
Amit a kontextus és a költség előtt érdemes tudni.
A modellek nem minden nyelvet azonos hatékonysággal kezelnek. Mivel a magyar agglutináló nyelv, ugyanaz a tartalom gyakran több tokenbe kerül, mint angolul.
Három gyakorlati következmény
- → Drágább lehet az API-használat.
- → Gyorsabban fogy a kontextusablak.
- → Hosszú magyar szövegnél nőhet a pontatlanság esélye.
Token kalkulátor
0
Karakter
0
Szó
~0
Token (becslés)
$0.000000
Becsült költség
Claude Sonnet
⚠️ Ez egy becslés (1 token ≈ 3.5 karakter magyar szövegnél). A pontos tokenszám modellenként eltér.
Kontextusablak – a rövidtávú memória
Nem megértés, hanem munkamemória.
A context window a modell rövidtávú memóriája: prompt, feltöltött fájlok, korábbi válaszok — amit az adott pillanatban egyben átlát. Ha túlléped, elkezdi „elfelejteni” a beszélgetés elejét.
A nagyobb kontextus nem egyenlő garantált megértéssel.
Lost in the Middle
A modellek jobban emlékeznek a kontextus elejére és végére, mint a közepére. A hosszú promptoknál a sorrend teljesítménykérdés.
Tipikus hiba
- Előre leírod a feladatot és kritériumokat.
- Utána beömlesztesz hosszú nyers szöveget.
- A modell a végére fókuszál, és elveszti az eleji instrukciókat.
Jobb megoldás
Kontextus-összehasonlítás (irányadó)
| Modell | Kontextus | Legjobb |
|---|---|---|
| GPT-5.4 | 200 000 | Általános célú frontier, erős kódolás, agentic workflow |
| GPT-5.4-pro | 200 000 | Nehéz elemzés, max reasoning, bonyolult döntéstámogatás |
| Claude Opus 4.6 | 1 000 000 | Mély elemzés, nagy kódbázisok, hosszú agentic feladatok |
| Claude Sonnet 4.6 | 1 000 000 | Legjobb ár–minőség arány, napi tudásmunka, kódolás |
| Gemini 3.1 Pro | 1 000 000 | Multimodális elemzés, hosszú dok., Google-ökoszisztéma |
| Grok 4.20 Beta | 2 000 000 | Nagy kontextus, tool-using workflow-k, multi-agent kutatás |
| DeepSeek-R1 | 128 000 | Olcsó reasoning, kód, matematika, nyílt stack |
| Mistral Large 3 | 256 000 | Open-weight enterprise, multimodális, európai stack |
| Llama 4 Scout | 10 000 000 | Kísérleti, lokális futtatás, nyílt ökoszisztéma |
Átvezető
Ebből már látszanak a hibamódok
Mostanra már három fontos dolgot láttál:
- ✓ a modell tokenekkel dolgozik,
- ✓ valószínűséget számol, nem igazságot keres,
- ✓ és a kontextuskezelése korlátozott.
Ebből logikusan következik, hogy bizonyos hibák nem „véletlen balesetek", hanem a működés természetes melléktermékei. A következő rész ezért nem különálló probléma-lista, hanem annak megmutatása, hogy a modell működéséből milyen tipikus tévedések következnek.
Miért hallucinál az AI?
Nem bug, hanem a token-predikció következménye.
A hallucináció nem szándékos megtévesztés. A modell nyelvi valószínűséget generál, nem tényeket ellenőriz — így képes meggyőző, de hibás választ adni.
Faktuális
Kitalált adatok, cikkek, hivatkozások, amelyek „jól hangzanak”.
Példa
Kitalált GDP-adat vagy nem létező URL.
Védekezés: forrásalapú mód, dokumentum, „csak a feltöltött alapján”.
Kontextuális
Hosszú promptban összekeveri a szálakat és szereplőket.
Példa
Három meetingből rossz feladat–felelős párosítás.
Védekezés: szeparált input, külön feldolgozás, majd szintézis.
Logikai / számolási
Nyelvi motor, nem számológép: lépésekben tévedhet.
Példa
Hibás pénzügyi vagy százalékos számítás.
Védekezés: lépésenkénti levezetés + eszköz (pl. Python).
Döntési szabály
A legegyszerűbb védekezési szabály: minél nagyobb a tét, annál kevésbé elég a nyelvi valószínűség — és annál inkább kell forrás, ellenőrzés vagy külön eszköz.
Mit jelent mindez a gyakorlatban?
Hat ökölszabály, hogy az LLM valóban jól dolgozzon.
Ne bízz vakon a tényekben.
A task menjen a végére.
Tagolj vizuálisan.
Darabold a komplexitást.
Védekezz a magyar felár ellen.
Logikai feladatnál kényszerítsd lépésről lépésre.
Következő lépés
Most már jöhet a gyakorlati irányítás.
Most már érthető: az LLM nem mindentudó adatbázis, hanem statisztikai valószínűségi motor. A következő lépés nem több elmélet, hanem a gyakorlati irányítás — hogyan promptolj úgy, hogy a modell a lehető legjobban teljesítsen.