Source : [[The Alignment Problem]] MOC : [[Intelligence artificielle]] Auteur : [[Brian Christian]] Date : 2025-01-28 *** Alors, un algo n'est pas biaisé. C'est le modèle d'entraînement qui est biaisé. (Exemple : si la population de couleur noire est peu représentée, le modèle comme celui utilisé par Google en 2013 ish ne les détecte pas correctement et dit "gorille"). Finalement, le biais algorithimique reflète en qq sorte les biais de la société. Utiliser un modèle biaisé crée une feedback loop, car cela biaise en retour l'utilisateur. On porurait imaginer biaiser positivement un modèle pour créer un meilleur monde. Si on donne un modèle inclusif, l'algo est inclusif. L'embedding over time permet de constater le changement dans la société. Pour corriger un modèle, pas de secret : il faut ajuster les dimensions et entraîner le jeu de données en labellisant tout.