|
Apprentissage et planification multi-agents| old_uid | 10104 |
|---|
| title | Apprentissage et planification multi-agents |
|---|
| start_date | 2011/06/30 |
|---|
| schedule | 14h |
|---|
| online | no |
|---|
| summary | Prendre les bonnes décisions dans des environnements multi-agents est une tâche difficile dans la mesure où la présence de plusieurs décideurs implique des conflits d'intérêts, un manque de coordination, et une multiplicité de décisions possibles. Si de plus, les décideurs interagissent successivement à travers le temps, ils doivent non seulement décider ce qu'il convient de faire actuellement, mais aussi comment leurs décisions actuelles peuvent affecter le comportement des autres dans le futur.
La théorie des jeux est un outil mathématique qui vise à modéliser ce type d'interactions via des jeux stratégiques à plusieurs joueurs. Des lors, les problèmes de décision multi-agents sont souvent étudiés en utilisant la théorie des jeux. Dans ce contexte, et si on se restreint aux jeux dynamiques, les problèmes de décision multi-agents complexes peuvent être approchés de façon algorithmique en utilisant de tels jeux.
Partant de ces considérations, je ferai le tour de trois contributions. La première est un cadre algorithmique pour la planification distribuée dans les jeux dynamiques non-coopératifs. Sans une telle planification distribuée, la multiplicité des plans possibles pourrait générer de graves complications pour la planification. Dans ce contexte, nous avons proposé une nouvelle approche basée sur l'apprentissage dans les jeux répétés. Une telle approche permet de surmonter lesdites complications par le biais de la communication entre les joueurs.
La deuxième contribution est un algorithme d'apprentissage pour les jeux répétés en «self-play». Cet algorithme permet aux joueurs de converger, dans les jeux répétés initialement inconnus, vers un comportement conjoint optimal dans un certain sens bien défini, et ce, sans aucune communication entre les joueurs.
La troisième contribution est une famille d'algorithmes de résolution approximative des jeux dynamiques et d'extraction des stratégies des joueurs. Cette famille comprend une méthode pour calculer un sous-ensemble non vide des équilibres approximatifs parfaits en sous-jeu dans les jeux répétés. Cette méthode est ensuite étendue pour approximer tous les équilibres parfaits en sous-jeu dans les jeux répétés, permettant ainsi de résoudre des jeux dynamiques plus complexes.
Finalement, je ferai état de quelques problèmes ouverts que je pourrais faire en collaboration avec les collègues de Paris Descartes.
Bio : Brahim Chaib-draa a obtenu un diplôme d’Ingénieur de Supélec et un doctorat de l’Université de Valenciennes sur les systèmes de prise de décision distribuée. Il a ensuite complété sa formation au DFKI en Allemagne et à l’INRIA entre autres. Depuis 1990, il est professeur au département d’informatique et de génie logiciel de l’Université Laval (Québec) Canada. Il dirige une équipe de recherche (Damas) dont les intérêts de recherche tournent autour de : (i) apprentissage machine; (ii) Agent et systèmes multi-agents;(iii) prise de décision sous incertain; (iv) théorie des jeux et processus de Markov, (v) applications [comme robots, transport intelligent; bioinformatique; traitement du langage]. |
|---|
| responsibles | Chevaleyre |
|---|
| |
|