Source : [[Hands-On Machine Learning]]
MOC : [[INTELLIGENCE ARTIFICIELLE]]
Auteur : [[Aurélien Géron]]
Date : 2025-02-03
***
On parle d'overfitting lorsqu'un modèle est performant sur la donnée d'entraînement mais n'est pas capable de bien généraliser (cf. [[Generalization]]). Contrairement au [[Sampling Bias]] qui provoque pourtant le même résultat médiocre, ici la root cause est le modèle, tandis que le sampling bias a pour root cause la donnée d'entraînement.
Source : [[The Master Algorithm]]
MOC : [[INTELLIGENCE ARTIFICIELLE]]
Auteur : [[Pedro Domingos]]
Date : 2025-02-26
***
L'overfitting est un biais courant qui existe en [[Machine Learning]] mais peut aussi constituer une forme de [[Biais cognitif]] chez les humains.
Il s'agit de trouver des patterns dans la data, qui ne transfèrent pas dans le monde réel.
La difficulté est de trouver le bon trade-off entre peu de data pour limiter l'overfitting (mais accuracy réduite) et beaucoup de data (mais potentielle [[Hallucination]] et overfitting).