Accueil du site >

Contrôle Robuste et Stabilisation des Systèmes Gouvernés par des Equations aux Dérivées Partielles Non Linéaires : Méthode et Applications

Contrôle Robuste et Stabilisation des Systèmes Gouvernés par des Equations aux Dérivées Partielles Non Linéaires : Méthode et Applications

par Aziz Belmiloudi - INSA Rennes

le mardi 24 Juin 2008 à 16:30 Salle IAM 4ième étage

*Résumé* : Le développement de stratégies de contrôle efficaces nécessite la prise en compte des incertitudes (perturbations, bruits, fluctuations, etc) inhérentes à tout système physique, biologique ou chimique réel, car celles-ci induisent souvent des comportements complexes (oscillations, instabilités, mauvaises performances, etc.). Les problèmes avec incertitudes qui en découlent sont les plus ambitieux et les plus difficiles de la théorie du contrôle mais leur analyse est nécessaire et d’une grande importance pour les applications.

Le fondement de la théorie du contrôle robuste, qui est une généralisation de la théorie du contrôle optimal, est de tenir compte de ces comportements incertains, et d’analyser comment le système de contrôle peut faire face à ce problème. L’incertitude peut être de deux types : d’une part, les erreurs (ou défauts) provenant du modèle (différence entre la réalité et le modèle mathématique) et d’autre part, les bruits non mesurés et les fluctuations qui agissent sur les systèmes dynamiques. Ces termes d’incertitude conduisent souvent à une grande instabilité.

L’objectif de la théorie du contrôle robuste est de contrôler ces instabilités, soit en agissant sur certains paramètres afin de maintenir le système dans un état désiré, soit en calculant la limite de ces paramètres avant que le système ne devienne instable ("prévoir pour agir"). En d’autres termes, le contrôle robuste permet aux ingénieurs d’analyser les instabilités et leurs conséquences, et les aide à déterminer les conditions les plus acceptables pour que le système reste stable.

L’idée fondamentale de notre approche est le lien entre la théorie du jeux et le problème de stabilisation de systèmes non linéaires incertains à paramètres distribués décrits par des EDPs, où les fluctuations et les bruits sont déterministes. Cela est motivé par le fait que la théorie du contrôle robuste peut être représenté comme un jeu différentiel (à deux joueurs et somme nulle) entre un premier joueur, à savoir un scientifique, cherchant le meilleur contrôle qui stabilise les perturbations du système avec le moindre effort, et en même temps un deuxième joueur, à savoir l’environnement de l’expérimentation (durant les expériences physiques, biologiques ou chimiques) ou des événements imprévus (durant le processus dynamique) cherchant le maximum de nuisances qui déstabilisent le système avec de petites fluctuations.

L’objectif d’un contrôle robuste est alors de compenser les effets indésirables des fluctuations du système par des actions de contrôle de telle sorte que la fonction de coût (ou de performance) atteint son minimum pour les pires perturbations, autrement dit, de trouver le meilleur contrôle qui prend en compte les pires cas de perturbation.

Le but de cet exposé est de présenter notre approche de la théorie du contrôle robuste (motivation, formulation et algorithme numérique de résolution) et de donner quelques exemples d’applications provenant de la physique.

*Mots clés :* contrôle, stabilité, fluctuations, optimisation, modèle adjoint, problème de point-selle, EDPs.

Dans la même rubrique :