Dans le problème de Neural Machine Translation (NMT), on cherche à maximiser le produit des probabilités de chacun des mots générés par notre modèle (Maximum a Posteriori decoding).
Comme il n’est pas possible de tester toutes les séquences de mots possibles (on considère des vocabulaires de plus de 20 000 mots), on utilise le beam search, un algorithme de parcours de graphe, pour explorer une partie de l’espace des possibilités des traductions. Dans ce séminaire, nous nous intéresserons à l’apport réel du beam search, qui ne réside pas dans la résolution du Maximum a Posteriori problem.