Hogyan működik?

Az LLM nem „ért”, csak következtet

A nagy nyelvi modellek nem tényeket tároló adatbázisok és nem rendelkeznek emberi értelemben vett megértéssel. Működésük alapja a valószínűség: a korábbi tokenek alapján megjósolják a statisztikailag leginkább odaillő folytatást. Ez egyszerre adja az erejüket és a hibáik forrását.

Nem „érti”

Nincs tudat, szándék vagy stabil világmodell.

Token-alapú

Valószínűséget számol, nem igazságot keres.

Ebből jön minden

Stílus, összegzés, de hallucináció is.

Az egyszerű modell egy mondatban

Ha ezt a modult csak egyetlen mondattal kellene összefoglalni, akkor így hangzana: az LLM nem azért ad hasznos választ, mert „megértette" a világot úgy, mint egy ember, hanem azért, mert rendkívül nagy mennyiségű nyelvi mintából statisztikailag valószínű folytatást tud előállítani.

Ez elsőre csalódásnak hangozhat – de valójában ebből jön az ereje is:

  • ezért tud gyorsan fogalmazni,
  • ezért tud jól összefoglalni,
  • és ezért tud néha magabiztosan tévedni.

A modul további része ezt az egy mondatot bontja ki részletesen.

A nagy illúzió

A folyékony válasz nem azonos a megértéssel.

Amikor a ChatGPT-vel beszélgetsz, az emberi agy ösztönösen azt feltételezi, hogy a gép „érti”, amit kérdezel tőle. Ez a legnagyobb és legveszélyesebb illúzió az AI-használatban.

Az LLM nem digitális orákulum és nem keres „betonbiztos igazságot”. Valójában egy extrém fejlett autocomplete: a kérdésed alapján kiszámolja a legvalószínűbb következő tokent, majd az azt követőt, és így tovább.

Ezért zseniális

  • Nyelvi mintázatokból kiválóan ír, összefoglal és formáz.
  • Stílust utánoz, vázlatból strukturált anyagot készít.
  • Gyorsan szintetizál sok forrásból.

Ezért veszélyes

  • Valószínűséget keres, nem igazságot.
  • Magabiztos hallucinációt tud generálni.
  • Logikai láncban tévedhet, ha a prompt rossz.

Mielőtt belemerülünk a motorba

Nem kell matematikusnak lenned, hogy jól használd

Nem az a cél, hogy neurális hálózati kutatóvá válj. Ehhez a modulhoz nem kell képleteket tudnod, és nem kell mélytanulási modellt építened.

A cél sokkal gyakorlatibb: értsd meg annyira a motor logikáját, hogy előre tudd, hol lesz erős, és hol fog hibázni.

  • miből dolgozik a modell,
  • hogyan állít elő választ,
  • és miért nem garantálható a pontosság.

Az LLM működésének fizikája

Egyszerű mechanika, gyakorlati következményekkel.

1

Tokenizáció

A modell nem szavakat lát, hanem tokeneket: apró szövegrészeket, amelyekre bontja a bemenetet.

Következmény: a tokenek száma határozza meg a költséget és a kontextus méretét.

2

Embedding

Minden token számsorrá alakul, amely a „jelentés” helyét jelöli egy többdimenziós térben.

Következmény: a hasonló fogalmak közel kerülnek egymáshoz, ezért működik a hasonlat és átfogalmazás.

3

Attention / Transformer

A modell a teljes szöveg fontos részeire „figyel”, és súlyozza, mi mihez kapcsolódik.

Következmény: jól kezeli a kontextust, de a túl hosszú input szétszórja a figyelmet.

4

Token prediction

Valószínűségi eloszlásból kiválasztja a következő tokent, és ismétli a folyamatot.

Konklúzió: a modell következtet, nem bizonyít — ezért erős és ezért tévedhet.

Magyar nyelv és tokenköltség

Amit a kontextus és a költség előtt érdemes tudni.

A modellek nem minden nyelvet azonos hatékonysággal kezelnek. Mivel a magyar agglutináló nyelv, ugyanaz a tartalom gyakran több tokenbe kerül, mint angolul.

Három gyakorlati következmény

  • Drágább lehet az API-használat.
  • Gyorsabban fogy a kontextusablak.
  • Hosszú magyar szövegnél nőhet a pontatlanság esélye.
⚠️A részletes nyelvi és formátumlogika a Nyelvek és formátumok modulban jön. Most annyi elég, hogy tudd: a modell teljesítményét nemcsak a prompt, hanem a nyelv szerkezete is befolyásolja.

Token kalkulátor

0

Karakter

0

Szó

~0

Token (becslés)

$0.000000

Becsült költség

Claude Sonnet

⚠️ Ez egy becslés (1 token ≈ 3.5 karakter magyar szövegnél). A pontos tokenszám modellenként eltér.

Kontextusablak – a rövidtávú memória

Nem megértés, hanem munkamemória.

A context window a modell rövidtávú memóriája: prompt, feltöltött fájlok, korábbi válaszok — amit az adott pillanatban egyben átlát. Ha túlléped, elkezdi „elfelejteni” a beszélgetés elejét.

A nagyobb kontextus nem egyenlő garantált megértéssel.

Lost in the Middle

A modellek jobban emlékeznek a kontextus elejére és végére, mint a közepére. A hosszú promptoknál a sorrend teljesítménykérdés.

Tipikus hiba

  • Előre leírod a feladatot és kritériumokat.
  • Utána beömlesztesz hosszú nyers szöveget.
  • A modell a végére fókuszál, és elveszti az eleji instrukciókat.

Jobb megoldás

1. háttéradat / kontextus
2. elemzési logika
3. a végén: konkrét task + korlátozások

Kontextus-összehasonlítás (irányadó)

ModellKontextusLegjobb
GPT-5.4200 000Általános célú frontier, erős kódolás, agentic workflow
GPT-5.4-pro200 000Nehéz elemzés, max reasoning, bonyolult döntéstámogatás
Claude Opus 4.61 000 000Mély elemzés, nagy kódbázisok, hosszú agentic feladatok
Claude Sonnet 4.61 000 000Legjobb ár–minőség arány, napi tudásmunka, kódolás
Gemini 3.1 Pro1 000 000Multimodális elemzés, hosszú dok., Google-ökoszisztéma
Grok 4.20 Beta2 000 000Nagy kontextus, tool-using workflow-k, multi-agent kutatás
DeepSeek-R1128 000Olcsó reasoning, kód, matematika, nyílt stack
Mistral Large 3256 000Open-weight enterprise, multimodális, európai stack
Llama 4 Scout10 000 000Kísérleti, lokális futtatás, nyílt ökoszisztéma

Átvezető

Ebből már látszanak a hibamódok

Mostanra már három fontos dolgot láttál:

  • a modell tokenekkel dolgozik,
  • valószínűséget számol, nem igazságot keres,
  • és a kontextuskezelése korlátozott.

Ebből logikusan következik, hogy bizonyos hibák nem „véletlen balesetek", hanem a működés természetes melléktermékei. A következő rész ezért nem különálló probléma-lista, hanem annak megmutatása, hogy a modell működéséből milyen tipikus tévedések következnek.

Miért hallucinál az AI?

Nem bug, hanem a token-predikció következménye.

A hallucináció nem szándékos megtévesztés. A modell nyelvi valószínűséget generál, nem tényeket ellenőriz — így képes meggyőző, de hibás választ adni.

Faktuális

Kitalált adatok, cikkek, hivatkozások, amelyek „jól hangzanak”.

Példa

Kitalált GDP-adat vagy nem létező URL.

Védekezés: forrásalapú mód, dokumentum, „csak a feltöltött alapján”.

Kontextuális

Hosszú promptban összekeveri a szálakat és szereplőket.

Példa

Három meetingből rossz feladat–felelős párosítás.

Védekezés: szeparált input, külön feldolgozás, majd szintézis.

Logikai / számolási

Nyelvi motor, nem számológép: lépésekben tévedhet.

Példa

Hibás pénzügyi vagy százalékos számítás.

Védekezés: lépésenkénti levezetés + eszköz (pl. Python).

Döntési szabály

A legegyszerűbb védekezési szabály: minél nagyobb a tét, annál kevésbé elég a nyelvi valószínűség — és annál inkább kell forrás, ellenőrzés vagy külön eszköz.

Mit jelent mindez a gyakorlatban?

Hat ökölszabály, hogy az LLM valóban jól dolgozzon.

Szabály 1

Ne bízz vakon a tényekben.

Szabály 2

A task menjen a végére.

Szabály 3

Tagolj vizuálisan.

Szabály 4

Darabold a komplexitást.

Szabály 5

Védekezz a magyar felár ellen.

Szabály 6

Logikai feladatnál kényszerítsd lépésről lépésre.

Következő lépés

Most már jöhet a gyakorlati irányítás.

Most már érthető: az LLM nem mindentudó adatbázis, hanem statisztikai valószínűségi motor. A következő lépés nem több elmélet, hanem a gyakorlati irányítás — hogyan promptolj úgy, hogy a modell a lehető legjobban teljesítsen.

Kapcsolódó: Konnektorok és MCP