Ce séminaire porte sur la question de l’hétérophilie dans les jeux de données structurée en graphe. Dans le cas de l’apprentissage de représentations de nœuds sur des jeux de données hétérophiles (les nœuds voisins sont très différents), des contre-performances sont régulièrement constatées lors de l’utilisation des GNN’s (réseaux de neurones sur graphes) dits ‘classiques’ (GCN, GAT, etc.).
Ces contre-performances observées même avec des architectures de faible profondeur semblent partager une origine commune avec les contre-performances observées lors de l’utilisation de GNN’s profonds (ce qui est connu sous le nom de problème de l’oversmoothing). Les GNN’s classiques agissent comme des filtres passe-bas et tendent à lisser le signal appris. Les représentations apprises de nœuds adjacents tendent à devenir similaires, les rendant ainsi difficiles à distinguer, ce qui est un problème dans les cas d’hétérophilie où le signal à prédire n’est pas « smooth » localement.
Ce séminaire, qui fait suite à un précédent séminaire qui abordait la question de l’oversmoothing dans les GNN’s profonds, présente plusieurs stratégies visant à traiter ce problème d’apprentissage dans des situations hétérophiles.