Source : [[The Alignment Problem]] MOC : [[INTELLIGENCE ARTIFICIELLE]] Auteur : [[Brian Christian]] Date : 2025-01-28 *** Donc, pour des mots ce qu'on appelle l'embedding, c'est la trasnformation d'un mot en vecteur avec des dimensions (équivalent X/Y mais avec plein de paramètre)s. (Exemple world2vec) On retrieve un mot en fonction de sa proximité en coordonnéres avec un autre mot. Pour entraîner, on cache un mot dans le modèle, guess et ajuste les poids (cf. stochastic gradient descent) en fonction.