Les réseaux de neurones sur graphes (GNN) constituent une nouvelle classe de modèles de machine learning capables d’apprendre à partir d’observations qui ne sont pas indépendantes (contrairement aux modèles de ML ordinaires).

Une population d’individus connectés dans un réseau social, un corpus de documents qui se réfèrent les uns aux autres, des atomes liés dans une molécule constituent des exemples classiques. Ces modèles GNN peuvent être utilisé soit pour classer les graphes en fonction de certaines propriétés (pour déterminer la toxicité d’une molécule p.ex.) ou pour classer des nœuds dans un graphe spécifique (pour déterminer la catégorie d’un document p.ex.)

Dans leur forme élémentaire on sait pourtant qu’ils sont incapables de distinguer des graphes même très simples. De nombreuses astuces ont été imaginées par les chercheurs pour contourner ces limitations mais elles s’apparentent souvent à une sorte de bricolage propre à chaque cas d’usage.

Michael Bronstein (DeepMind et université d’Oxford), l’un des spécialistes des GNN, propose aujourd’hui une nouvelle approche qui se veut plus naturelle et plus systématique pour construire ces modèles. Son idée est de s’inspirer des modèles de la physique et de considérer que les GNN utilisés ne sont que des versions discrétisées (dans le temps et dans l’espace) de modèles continus étudiés depuis plus d’un siècle par les physiciens.

Dans ce séminaire nous avons examiné un cas élémentaire de cette nouvelle approche : le processus de diffusion qui permet de renouveler la compréhension du sujet.

Les slides de la présentation