Production de gaz vert : un algorithme pour optimiser la méthanisation
Date:
Mis à jour le 28/05/2025
La France s’est fixé pour objectif d’injecter dans ses réseaux d’énergie 10% de gaz renouvelable d’ici à 2030, contre 2% actuellement. Pour l’atteindre, pas de secret : la mise en service de nouveaux méthaniseurs et l’optimisation de leur fonctionnement seront la clé du succès. Et pour cela, des modèles prédictifs fiables, permettant d’améliorer leur conception et leur fonctionnement, seraient des alliés précieux. « Nous avons des modèles qui décrivent le fonctionnement des méthaniseurs, expose Roman Moscoviz, responsable du département Recherche & Innovation chez Suez. Mais ils reposent sur des données récoltées et traitées manuellement. Il nous manquait des outils statistiques et algorithmiques pour espérer une optimisation plus robuste et automatisée. »
Pour l’entreprise, qui exploite une cinquantaine d’usines de méthanisation traitant des boues d’épuration des eaux usées et des déchets organiques à travers le monde, l’enjeu est de taille : « L’arrêt d’une usine pendant trois mois peut coûter 500 000 euros, illustre Roman Moscoviz. De même, gagner en précision lors du dimensionnement des méthaniseurs peut représenter un gain financier. » Alors pour concevoir des outils d’optimisation idéaux, l’entreprise a propose à l’automne 2021 une thèse Cifre (Convention industrielle de formation par la recherche), en collaboration avec Benjamin Guedj, directeur de recherche Inria dans l’équipe-projet Modal du centre Inria de l’Université de Lille et directeur scientifique du programme Inria London. Antoine Picard, alors titulaire d’un master en statistique, a accepté de relever le défi. « Je ne connaissais rien à la méthanisation, mais j’avais envie de passer des statistiques pures à l’application, se souvient-il. J’ai donc dû me plonger dans le fonctionnement des méthaniseurs et de leurs modèles. Mais l’avantage d’une thèse Cifre est qu’elle m’a permis de bénéficier d’une part, des données d’observation fournies par Suez pour entraîner et tester mes modèles et d’autre part, de l’expertise des professionnels pour juger ces données et les résultats obtenus. »
Concrètement, la thèse visait à définir des algorithmes permettant de calibrer un jumeau numérique de méthaniseur, afin de fournir des prédictions pertinentes sur l’évolution de la méthanisation en fonction du mode opératoire. Un moyen d’ouvrir la voie à l’optimisation de ce processus.
Tout d’abord, il s’agit pour le doctorant de résoudre une difficulté majeure, liée à la complexité de la méthanisation :
Image
Verbatim
Le procédé fait intervenir plusieurs communautés de micro-organismes, plusieurs intermédiaires entre la matière organique et le méthane, diverses réactions biochimiques dépendantes de nombreux facteurs, tels la composition de l’intrant, la concentration en azote, la température dans le méthaniseur, le pH…
Auteur
Poste
Doctorant chez Inria & Suez
« Or les modèles qui décrivent les étapes de cette digestion doivent être calibrés pour représenter correctement le comportement d’un digesteur (ou méthaniseur) en particulier, car le vivant s’adapte : les caractéristiques d’une même communauté de micro-organismes dans deux digesteurs peuvent être très différentes », détaille Antoine Picard.
L’enjeu est donc d’identifier ces caractéristiques, tout en intégrant l’incertitude liée à cette identification, puisque celle-ci va reposer sur un nombre de données fini et qui plus est, pas toujours fiables. En effet, les analyses sur le terrain ou encore les capteurs installés dans les méthaniseurs présentent inévitablement une marge d’erreur.
Sous l’impulsion de Benjamin Guedj, son directeur de thèse chez Inria et spécialiste du sujet, Antoine Picard opte pour une approche spécifique d’apprentissage automatique, la théorie PAC-Bayésienne, pour surmonter ce premier obstacle. « Celle-ci permet de réaliser des prévisions ayant de grandes chances d’être exactes, tout en intégrant une modélisation de l’incertitude, explique-t-il. En fait, l’idée est de contrôler l’erreur de prédiction sur des données nouvelles en se basant sur l’erreur empirique, mesurée sur les données d’entraînement, et une connaissance a priori. »
Mais le jeune chercheur se heurte alors au deuxième problème majeur : les algorithmes qui fonctionnent ainsi sont très gourmands ! Ils apprennent par petits pas, en comparant chaque simulation effectuée avec les données d’observation. Conséquence ? Il faut environ 80 heures pour calibrer un modèle de méthanisation !
Cependant, là encore, Antoine Picard trouve la solution. « Nous avons considéré que nous n’avions pas besoin d’évaluer précisément le risque à chaque itération de l’algorithme, mais qu’une approximation du risque suffisait, retrace-t-il. Notre méthode : effectuer de nombreuses estimations du risque – 600 à 800 – sur les premières itérations pour obtenir une approximation de celui-ci, puis apprendre à grandes enjambées. Finalement, cette solution permet de calibrer un modèle 10 fois plus rapidement ! »
Les prédictions ainsi réalisées sont ensuite vérifiées expérimentalement… et les résultats dépassent les espérances: . « Nous obtenons des marges d’erreur de 3 à 10% sur des prédictions qui peuvent être réalisées sur plusieurs mois, voire plusieurs années, ce qui dans notre domaine est excellent, se réjouit Roman Moscoviz.
Image
Verbatim
Les comparatifs entre données d’observation et données prédites nous ont même permis de constater que certaines analyses terrain étaient erronées et de remplacer des matériels défaillants.
Auteur
Poste
Responsable du département Recherche & Innovation chez Suez
Ce succès se décline de nombreuses manières : quatre articles scientifiques sont publiés ou en passe de l’être, et un cinquième a été présenté à la conférence NeurIPS, événement incontournable des recherches en IA, en décembre 2024. Quant à l’algorithme, il a été adapté à l’outil de suivi de production de deux sites de méthanisation opérés par Suez et devrait être étendu à quatre autres en 2025, puis à l’ensemble du parc propriétaire de l’entreprise. « Nous équipons en priorité les sites sur lesquels nous avons un potentiel d’amélioration et nous voyons d’ores et déjà clairement la différence ! », se félicite Roman Moscoviz.
Antoine Picard, lui, a soutenu sa thèse en avril 2025. « Ces recherches m’ont confronté aux enjeux industriels et aux difficultés opérationnelles tout en m’apportant la satisfaction d’y avoir trouvé une solution, se réjouit-il. De surcroît, elles ont été menées en partie à University College London (UCL) dans le cadre du programme Inria London, ce qui m’a offert une ouverture à l’international et la possibilité de rencontrer de nombreux chercheurs passionnants. » Des recherches qui s’inscrivent d’ailleurs pleinement dans la thématique de la proposition d’équipe commune avec Londres, Genesis, portée par Benjamin Guedj – projet d’équipe jointe entre le centre Inria de l’Université de Lille et UCL – et qui se poursuivront au sein de Suez.
Car Antoine Picard devrait intégrer l’équipe de Roman Moscoviz pour la suite du projet, avec un nouveau défi à relever : « L’objectif à présent est d’implémenter un algorithme qui prenne en compte les données de dizaines de sites de méthanisation pour agréger les différents modèles établis en un méta-modèle. Celui-ci pourra optimiser les processus dans tous les méthaniseurs connus, mais également dans ceux pour lesquels nous n’avons pas, ou pas suffisamment, de données. » Avec en ligne de mire un rendement de traitement amélioré, une production de biogaz augmentée, des coûts réduits… et une contribution concrètes aux objectifs d’injection de gaz vert dans les réseaux d’énergie.
Pour les spécialistes
Publications scientifiques dans le cadre de la thèse d’Antoine Picard :