Oktatás

Miért „hallucinálnak” a nyelvi modellek?

Az OpenAI-nál azon dolgoznak, hogy az AI rendszerek egyre használhatóbbak és megbízhatóbbak legyenek. Ezért jelentettek meg a közelmúltban egy cikket arról, hogy miért is „hallucinálnak” a nyelvi modellek? Még ha a nyelvi modellek (language models) egyre fejlettebbek is, van egy kihívás, amit nehéz teljesen kiküszöbölni: a hallucináció. Itt olyan esetekről van szó, amikor egy modell magabiztosan állít valamit, ami nem igaz.

Például: amikor egy cikk szerzője doktori dolgozatának címét kérdezték, a modell három különböző választ adott — mindegyik helytelen volt. Mint ahogy az is, amikor a születésnapját kérdezték. Újra három hibás dátumot kaptak.

Miért „hallucinálnak” a nyelvi modellek?


Mi az a hallucináció?

Hallucináció alatt olyan, látszólag lehetséges, de valójában hamis állításokat értünk, amelyeket a nyelvi modell hoz létre. Ezek akár meglepő formában is felbukkanhatnak, még látszólag egyszerű kérdéseknél is.


Miért tartják fenn a nyelvi modellek a hallucinációk jelenségét?

Az egyik oka az, hogy a jelenlegi értékelési (evaluációs) módszerek helytelen ösztönzőket alakítanak ki. Ezek az értékelések gyakran azt jutalmazzák, ha a modell tippel, még akkor is, ha nem biztos a válaszban, ahelyett hogy bevallanák: „nem tudom”.

Például gondoljunk egy feleletválasztós tesztre: ha nem tudod a választ, tippelhetsz, és néha igazad lehet – de ha nem tippelsz, biztosan nulla pontot kapsz. Ugyanígy, ha a modell csak akkor válaszol, ha biztos valamiben, gyakran jobb lenne „nem tudom”-mal reagálni, de ez a módszer rosszabb pontszámot eredményez, ha az értékelés csak a helyes válaszokat díjazza.


Hogyan lehetne jobban értékelni?

A OpenAI cikke szerint a nyelvi modellek értékelési módszerein kellene változtatni.

  • Magabiztos hibák (amikor a modell rosszul válaszol, de magabiztos) nagyobb büntetést kapjanak.
  • Bizonytalanság kifejezése (amikor a modell bevallja, hogy nem tudja a választ) részpontokat kapjon.
  • Az ellenőrzéseknél (benchmarks) ne csak az legyen a cél, hogy mennyi a pontosság, hanem az is számítson, hogy mennyire megbízható, mennyire tisztában a modell a saját bizonytalanságaival.

Miért „hallucinálnak” a nyelvi modellek?Hogyan keletkeznek a hallucinációk (a „next-word prediction” logikája)

A nagy nyelvi modellek először egy nagy mennyiségű szövegen tanulnak úgy, hogy megpróbálja megjósolni, mi lesz a következő szó. Ez a tanulási mód azonban nem tartalmaz „igaz/hamis” címkéket arra vonatkozóan, hogy egy adott állítás helyes‐e vagy sem. A modell csak azt látja, hogy milyen kombinációk fordulnak elő gyakran a szövegben, és ezek alapján alakít ki valószínűségeket.

Ez két probléma miatt vezethet hallucinációhoz:

  1. Ritka tények: Olyan információk, amelyek nagyon ritkán fordulnak elő, nem tanulhatók meg megbízhatóan pusztán gyakoriság alapján.
  2. Minta felismerése, de nem jelentés igazolása: A modell megtanulja, hogy milyen szókapcsolatok és szerkezetek fordulnak elő gyakran; viszont azt, hogy egy adott tény igaz-e, nem mindig ellenőrzi.

a-nyelvi-modellekTanulságok

  • 100% pontosság soha nem lesz elérhető, mert vannak olyan kérdések, amelyekre nincs járható válasz (pl. ha az információ nem áll rendelkezésre, vagy ha alapvetően bizonytalan).
  • Hallucinációk nem elkerülhetetlenek — egy modell absztinenciával (amikor bizonytalan, nem ad választ) tud csökkenteni ezen.
  • Nem csak a nagy modellek lehetnek jobbak ebben — egy kisebb modell, amely felismeri, hogy nem tud valamit, gyakran jól járhat; nem kell mindig nagy számítási kapacitás a bizonytalanság kezelése tekintetében.
  • Fontos, hogy megértsük, statikus mechanizmusok (mint a következő szó előrejelzése és az értékelési rendszerek) miként járulnak hozzá a problémához. Nem hibáról vagy misztikus jelenségről van szó, hanem következményről abból, ahogy a modellek tanulnak és mérnek.

Hogyan használhatják tanárok az órán?

Néhány ötlet:

  • Definíciók és példák: mutass be definíciókat (pl. mi az a hallucináció), és illusztrálj konkrét példákkal (a cikkből vagy más forrásból) hogy tanulók lássák, mit jelent.
  • Viták / kérdések:
    • Mikor baj, ha egy AI „csak tippel”?
    • Milyen értékelési rendszerek léteznek az iskolában, amelyek hasonlítanak erre?
    • Hogyan lehetne a házi feladatokat, teszteket úgy alakítani, hogy ne ösztönözzenek „tippelést”, hanem az őszinteséget a bizonytalansággal kapcsolatban?
  • Gyakorlati feladatok: kérj meg a diákokat, hogy írjanak le példákat AI hallucinációra (pl. hírek, internetes források alapján), majd analizálják, mi vezetett ahhoz, hogy a modell hibázzon.
  • Összehasonlítások: bemutatni két modellt, egy kisebbet és egy nagyobbat, és megnézni, melyik mennyire vállalja a bizonytalanságot.

(openai.com)


Discover more from Magyar Iskola

Subscribe to get the latest posts sent to your email.