Source : [[Hands-On Machine Learning]] MOC : [[INTELLIGENCE ARTIFICIELLE]] Auteur : [[Aurélien Géron]] Date : 2025-02-03 *** On parle d'overfitting lorsqu'un modèle est performant sur la donnée d'entraînement mais n'est pas capable de bien généraliser (cf. [[Generalization]]). Contrairement au [[Sampling Bias]] qui provoque pourtant le même résultat médiocre, ici la root cause est le modèle, tandis que le sampling bias a pour root cause la donnée d'entraînement. Source : [[The Master Algorithm]] MOC : [[INTELLIGENCE ARTIFICIELLE]] Auteur : [[Pedro Domingos]] Date : 2025-02-26 *** L'overfitting est un biais courant qui existe en [[Machine Learning]] mais peut aussi constituer une forme de [[Biais cognitif]] chez les humains. Il s'agit de trouver des patterns dans la data, qui ne transfèrent pas dans le monde réel. La difficulté est de trouver le bon trade-off entre peu de data pour limiter l'overfitting (mais accuracy réduite) et beaucoup de data (mais potentielle [[Hallucination]] et overfitting).