Le Glossaire
Devenez bilingue en transformation d'entreprise. De SAFe à l'Intelligence Artificielle Générative, décryptez le vocabulaire des leaders de demain.
H
hallucination (IA)
Une hallucination désigne le phénomène par lequel un modèle d'IA générative produit une information fausse, inventée ou incohérente avec un haut degré de confiance apparente. C'est l'un des principaux risques à gérer lors de l'intégration de LLMs dans des processus métier critiques. Exemple : un LLM génère un résumé de réunion contenant des décisions qui n'ont jamais été prises, ce qui induit en erreur les parties prenantes du PI Planning. En savoir plus :
- Explorez les enjeux de gouvernance IA dans notre offre de conseil. Se former :
- Apprenez à maîtriser ces risques avec notre formation AI-Native Foundations.
Besoin d’aller plus loin ?
Un concept vous échappe ? Vous souhaitez comprendre comment l’appliquer concrètement dans votre organisation ? Nos experts sont là pour échanger.
Parler à un expert