Source : [[Google's 8 Hour AI Essentials Course In 15 Minutes]] MOC : [[Intelligence artificielle]] Auteur : [[Tina Huang]] Date : 2025-01-28 *** Lorsque le modèle n'a pas de connaissance spécifique (par exemple dû à un knowledge cutoff), il a parfois des "hallucinations", c'est-à-dire qu'il invente des informations qu'il juge crédible ou probable pour répondre au mieux au prompt de l'utilisateur. Pour éviter les hallucinations, ça peut être une bonne idée de demander ses sources au modèle.