Hallucináció (Hallucination)
A hallucináció a nagy nyelvi modellek (LLM) azon hibajelensége, amikor a rendszer a valóságnak nem megfelelő, téves vagy teljesen kitalált információkat állít nagyfokú magabiztossággal. Ez a probléma a modellek valószínűségi működéséből fakad: az AI nem tényeket tárol, hanem szavak közötti statisztikai összefüggéseket, így kitölti a hézagokat, ha hiányzik a pontos tudás. A hallucinációk kezelése (pl. RAG technológiával, tényellenőrzéssel) a vállalati AI adaptáció egyik legkritikusabb kihívása, mivel közvetlenül érinti a rendszerek megbízhatóságát és hitelességét.