Fekete doboz (Black Boksz)
A fekete doboz a gépi tanulásban, különösen a mélytanulási modellek (Deep Learning) esetében használt metafora, amely arra a jelenségre utal, hogy a rendszer belső döntéshozatali mechanizmusa az emberi megfigyelő számára átláthatatlan és értelmezhetetlen. Bár a bemeneti adatok és a kapott kimenet ismertek, a köztes rétegekben zajló komplex, nem-lineáris transzformációk miatt nem lehet pontosan visszakövetni, hogy a modell miért jutott az adott következtetésre. Ez a tulajdonság jelentős kihívást jelent a kritikus alkalmazási területeken (pl. orvosi diagnosztika, pénzügy), ahol az elszámoltathatóság és a magyarázhatóság (XAI) alapvető követelmény. A fekete doboz jelleg csökkentése a kutatás egyik kiemelt iránya, amely a bizalom növelését szolgálja az automatizált rendszerek iránt.