On le sait, l’entraînement des réseaux de neurones utilisés dans le TAL est une tâche excessivement gourmande en énergie. C’est le cas en particulier des modèles de langues au cœur de nombreuses applications TAL : question answering, agents conversationnels, générateurs de textes, etc.

Comment dès lors mettre à jour un ces modèles lorsqu’ils commettent des erreurs factuelles ? La méthode brutale consisterait à réentraîner le modèle au prix fort. Pourtant une autre méthode existe, beaucoup moins couteuse : faire de la chirurgie de RN !

C’était le sujet de notre dernier séminaire TALia. L’idée consiste à entraîner un hyper-réseau capable d’apprendre à modifier les poids du premier réseau pour corriger les prédictions erronées sans (trop) perturber celles qui sont correctes.

Les slides de la présentation