Informations personelles

Je vie actuellement avec ma copine à Martigny (Valais, Suisse) et je travaille comme assistant de recherche à l'Institut de Recherche de l'Idiap. J'ai grandi dans le Chablais Valaisans, prêt de mon lieu de vie actuel, et j'ai étudié à l'EPFL où j'ai obtenu un Bachelor (BSc) en microtechnique (2014) puis un Master (MSc) en robotique et systèmes autonomes (2016).

Rémy Siegfried

Pendant mon temps libre, je pratique le Judo au Judo Club Saint-Maurice, dont je suis vice-président. J'étudie cet art martial depuis 22 ans et j'ai obtenu le 2e Dan (ceinture noire) cette année. Je donne des cours aux enfants de 8 à 12 ans et je les coachs en compétition.
Je suis aussi un fan de jeux vidéos et de jeu de rôle sur table, auxquels je joue régulièrement avec mes amis.

Recherche actuelle

Je suis actuellement doctorant à l'EPFL (EDEE) et je travaille à l'Idiap comme assistant de recherche dans le groupe Perception and Activity Understanding sous la supervision de Jean-Marc Odobez.

Idiap Research Institute
Perception and Activity Understanding

Dans le cadre du projet MuMMER (qui finance mes recherches), je travaille sur la modélisation et l'estimation de l'attention dans les interactions homme-robots. En exploitant des images venant d'une caméra couleur+profondeur ainsi que des données audio, mon but est d'estimer l'attention individuelle d'un groupe de personnes lorsqu'elles interagissent avec un robot. Cette information permettra aux robots (ou à d'autres systèmes intelligents) de mieux saisir la dynamique de la conversation et ainsi de réagir de manière plus appropriée dans le contexte d'une interaction sociale.

Estimation du centre d'attention visuel

De plus en plus de systèmes intelligents, comme des robots, doivent interagir avec des êtres humains. Afin de participer à une conversation et se comporter naturellement, ces systèmes ont besoin de comprendre la dynamique de la conversation. La perception de l'attention des participants est un facteur clé de cette dynamique et elle permet entre autre d'estimer la personne à qui un participant s'adresse, les prises de paroles, l'engagement des participants dans la conversation, etc. Cependant, l'attention est un comportement complexe et un procédé cognitif qui est difficile à observer pour un agent artificiel.

Afin de relever ce défi, le centre d'attention visuel (CAV), c'est-à-dire où une personne est en train de regarder, peut-être utilisé comme remplacement pour l'attention. Ainsi, estimer le CAV des participants à une discussion et plus généralement modéliser la dynamique d'une conversation permet aux systèmes intelligents comme les robots de mieux comprendre les humains et de réagir correctement lorsqu'ils interagissent avec nous. Implémenter ces modèles sur de vrais robots ajoute des contraintes à la tâche déjà complexe d'estimer l'attention: un robot dispose d'un point de vue unique de ce qui l'entoure, il évolue en général dans des environnements hautement dynamiques et il doit traiter toutes les informations qu'il reçoit en temps-réel.

Estimation du biais du regard

Le regard est une composante non-verbale importante incluse dans de nombreuses facettes des interactions sociales comme la communication, l'attention ou l'attitude. Néanmoins, l'extraction de la direction du regard par des capteurs visuels et distants (comme des caméras) souffre en général d'erreurs importantes causées par la faible résolution des images des yeux, les erreurs de localisation des yeux ou la variation de la forme des yeux entre différentes personnes, entre autres. Pour compenser ces erreurs d'estimation, nous avons proposé une méthode qui exploite le contexte de l'interaction en se basant principalement sur les tours de parole.

Courte vidéo de présentation (youtube)

Activitées passées

Thymio Robot Visual Programming Language (VPL)

2016 J'ai effectué mon projet de Master au MOBOTS (EPFL) sous la supervision de Francesco Mondada. J'ai travaillé dans le domaine de l'analyse de l'apprentissage avec des robots mobiles et participé au développement de méthodes qui utilisent des logs enregistrés pendant des leçons de programmations de robot pour fournir des informations utiles aux enseignants et aux élèves dans le but d'augmenter l'efficacité de ces cours. J'ai ensuite été engagé 6 mois de plus pendant lesquels nous avons développé un outil qui fournit des conseils immédiats à des élèves qui apprennent à programmer un robot basé sur les résultats constatés lors de mon projet de Master. Ce travail fut publié en 2017.

2015 J'ai travaillé 7 mois chez senseFly (à Cheseaux-sur-Lausanne) sur le contrôle moteur de leur quadrotor et le dévelopement d'une interface entre leur drone fix-wing et une nouvelle caméra.

Albris, le quadrotor de SenseFly
Ecole Polytechnique Fédérale de Lausanne

2014-2015 Pendant mes études, j'ai réalisé deux projets semestriels: un premier sur l'implémentation de comportements de sécurité pour une formation de drones de type quadrotors (au DISAL) et un second sur le design de nouvelles jambes pour un robot quadrupède (au BIOROB)

Media

29.08.2018 - Innovation Days 2018 à l'Idiap (video du journal "20 Minutes") dans laquelle je présente une démo d'un trackeur de visage et de regard (position et orientation de la tête, direction du regard, cible de l'attention).

Publications

Facing Employers and Customers: What Do Gaze and Expressions Tell About Soft Skills?
S. Muralidhar, R. Siegfried, J.-M. Odobez and D. Gatica-Perez
International Conference on Mobile and Ubiquitous Multimedia (MUM), Cairo, November 2018

Towards the Use of Social Interaction Conventions As Prior for Gaze Model Adaptation 
R. Siegfried, Y. Yu and J.-M. Odobez 
ACM International Conference on Multimodal Interaction (ICMI), Glasgow, November 2017

Supervised Gaze Bias Correction for Gaze Coding in Interactions 
R. Siegfried and J.-M. Odobez 
Communication by Gaze Interaction (COGAIN) Symposium, Wuppertal, August 2017

Improved mobile robot programming performance through real-time program assessment 
R. Siegfried, S. Klinger, M. Gross, R. W. Sumner, F. Mondada and S. Magnenat 
ACM Conference on Innovation and Technology in Computer Science Education (ITiCSE), Bologna, July 2017