Invited Speakers

Aviso: devido a resticciones de tiempo de IROS2022 (tenemos 2 horas menos respecto al tiempo original del workshop) todos los speakers pasan a ser Keynote speakers, ya que dispondran del mismo tiempo para su charla.

 

Keynote Speakers

 

Alessandra Sciutti

profile_Alessandra_image3.jpg

Web:  https://www.iit.it/it/people-details/-/people/alessandra-sciutti  

Google Scholar: https://scholar.google.com/citations?user=YdbEJn8AAAAJ&hl=es&oi=ao

Breve biografía: Alessandra Sciutti es Investigadora Titular, jefa de la Unidad CONTACT (COgNiTive Architecture for Collaborative Technologies) del Instituto Italiano de Tecnología (IIT). Recibió su B.S y M.S. grados en Bioingeniería y el Ph.D. en Tecnologías Humanoides por la Universidad de Génova en 2010. Tras dos periodos de investigación en EE.UU. y Japón, en 2018 ha sido galardonada con el ERC Starting Grant wHiSPER (www.whisperproject.eu), centrado en la investigación de la percepción conjunta entre humanos y robots. Ella publicó más de 80 artículos y resúmenes en revistas y congresos internacionales, y participó en la coordinación del proyecto CODEFROR European IRSES (https://www.codefror.eu/). Actualmente es editora asociada de varias revistas, entre las que se encuentran International Journalof Social Robotics, el IEEE Transactions on Cognitive and Developmental Systems, y el Cognitive System Research. El objetivo científico de su investigación es investigar los mecanismos sensoriales y motores que subyacen al entendimiento mutuo en la interacción humano-humano y humano-robot. Para obtener más detalles sobre su investigación, así como la lista completa de publicaciones, consulte el sitio web de la Unidad de contacto o su perfil de Google Scholar.

 

Título de la charla: “¿Puede un robot ser inteligente sin ser social?” (Charla en persona)

Resumen:
Establecer un entendimiento mutuo entre robots y humanos es necesario para una colaboración efectiva. Para lograrlo, los robots deben estar dotados de la capacidad de modelar cómo los humanos perciben el mundo y sus socios. Este conocimiento también debería impulsar la forma en que los robots planifican sus acciones, para comportarse de una manera intuitivamente predecible desde una perspectiva humana. Luego, las habilidades de acción y percepción deben integrarse dentro de una arquitectura cognitiva, incluidos componentes como la memoria, la motivación y los impulsos internos, necesarios para permitir que el robot crezca y aprenda durante períodos más largos de tiempo e interacción. El papel de los diferentes tipos de IA en la construcción de dicha arquitectura es un tema central de discusión en la robótica cognitiva. Tomando como inspiración la inteligencia humana, y su naturaleza inherentemente social, esta charla presentará algunos ejemplos del uso de la IA en el desarrollo de un robot cognitivo.

 

Yiannis Demiris

YiannisDemiris2.jpg

Web: www.imperial.ac.uk/people/y.demiris 

Google Scholar: https://scholar.google.com/citations?user=B2o5i-AAAAAJ&hl=es&oi=ao

Breve biografía: Yiannis Demiris es profesor de robótica centrada en el ser humano en Imperial College de Londres, donde ocupa una cátedra de la Royal Academy of Engineering en tecnologías emergentes (robótica de asistencia personal). El estableció el Laboratorio de Robótica Personal en el Imperial en 2001. El tiene un doctorado en Robótica Inteligente y una BSc (con honores) en Inteligencia Artificial y Ciencias de la Computación, ambas de la Universidad de Edimburgo. Los intereses de investigación del Prof. Demiris incluyen la inteligencia artificial, Machine Learning y la robótica inteligente, particularmente en la percepción inteligente, el modelado de usuarios a múltiples escalas, y las arquitecturas de control cognitivo adaptativo para determinar cómo los robots inteligentes pueden generar asistencia personalizada para los humanos con el fin de mejorar su estado físico, bienestar cognitivo y social. 

 

Título de la charla: IA para robótica de asistencia personal (Online)

Resumen: Los robots de asistencia tienen un gran potencial para capacitar a las personas para que logren sus tareas previstas, por ejemplo, durante las actividades de la vida diaria, como vestirse, moverse, alimentarse y entregar objetos. Su potencial se puede maximizar asegurándose de que las interfaces que se utilizan para interactuar con los robots sigan siendo adaptables a los usuarios y al contexto de interacción. La inteligencia artificial puede ayudar mediante la transición de las interfaces de la presentación de datos a la oferta de posibilidades, utilizando, por ejemplo, la planificación y las visualizaciones de realidad aumentada. En esta charla, describiré la investigación en nuestro Laboratorio de Robótica Personal en el Imperial College de Londres (https://www.imperial.ac.uk/personal-robotics) para desarrollar algoritmos que permitan el aprendizaje durante la interacción humano-robot, tanto para robots como para humanos; Demostraré su aplicación en las actividades de la vida diaria e ilustraré cómo la visión por computador, el aprendizaje y la realidad aumentada pueden habilitar interfaces de usuario adaptables para interactuar con robots de asistencia de una manera segura, eficiente y confiable.

 

Cynthia Matuszek

CynthiaMatuszekPhotoFinal4.png

Web: https://www.csee.umbc.edu/~cmat/

Google Scholar: https://scholar.google.com/citations?user=C3NuO-AAAAAJ&hl=es&oi=ao

Breve Biografía: Cynthia Matuszek es profesora asociada de Ciencias de la Computación e ingeniería eléctrica en la Universidad de Maryland, condado de Baltimore, y directora del UMBC’s Interactive Robotics and Language lab. Su investigación se centra en cómo los robots pueden aprender lenguaje basado en interacciones con no especialistas, lo que incluye trabajo no solo en robótica, sino también en interacciones humano-robot, lenguaje natural y machine learning, informado por una formación en razonamiento de sentido común e inteligencia artificial clásica. inteligencia artificial. La Dra. Matuszek ha publicado en machine learning, inteligencia artificial, robótica, y interacción humano-robot.

 

Título de la charla: Nociones de Lenguaje Natural e Interacción Humano-Robot en Realidad Virtual (Online)

Resumen: A medida que los robots pasan de laboratorios y fábricas a espacios centrados en humanos, se vuelve progresivamente más difícil predeterminar los entornos y las interacciones que deberán poder manejar. Permitir que los robots aprendan de los usuarios finales a través del lenguaje natural es un enfoque intuitivo y versátil para manejar entornos dinámicos y situaciones novedosas de manera robusta, mientras que la adquisición del lenguaje fundamentada se ocupa de aprender a comprender el lenguaje en el contexto del mundo físico. En esta presentación, daré una visión general de nuestro trabajo sobre el aprendizaje de la semántica fundamental del lenguaje natural que describe el entorno de un agente, y describiré el trabajo sobre la aplicación de esos modelos en un entorno de aprendizaje de lenguaje de simulación a real.

 

Matthias Scheutz

MatthiasScheutz3.jpg

Web: https://hrilab.tufts.edu/people/matthias.php

Google Scholar: https://scholar.google.com/citations?user=5yT3GScAAAAJ&hl=es&oi=ao

Breve biografía:Matthias Scheutz es profesor titular de informática en la Universidad de Tufts y director del Laboratorio de Interacción Humano-Robot. Tiene más de 400 publicaciones sobre inteligencia artificial, comprensión del lenguaje natural, robótica e interacción humano-robot, y sus investigaciones actuales se centran en robots éticos complejos con capacidades de aprendizaje basadas en instrucciones en mundos abiertos.

 

Título de la charla: DIARC: La utilidad de una arquitectura robótica cognitiva para HRI basada en IA (Online)

Resumen: A medida que se exploran técnicas de IA más avanzadas en todas las áreas de la robótica, integrarlas de manera funcional y sistemática se está convirtiendo en un desafío cada vez más difícil. Las arquitecturas cognitivas han intentado desde el principio presentar una visión unificada de la cognición y, por lo tanto, son un marco prometedor para integrar diversas funciones cognitivas, en particular las capacidades necesarias para la interacción natural entre humanos y robots. En esta presentación, argumentaremos que una arquitectura robótica cognitiva distribuida como la arquitectura "Distributed Integrated Affect Reflection Cognition" (DIARC) es una plataforma ideal para desarrollar y evaluar algoritmos avanzados para La Interacción Humano-Robot (HRI) natural. Brindaremos una breve descripción general de DIARC con enfoque en las capacidades necesarias para las interacciones de diálogo basadas en tareas y demostraremos estas capacidades en una variedad de entornos de interacción humano-robot.


Web: https://dorsa.fyi/

Google Scholar: https://scholar.google.com/citations?user=ZaJEZpYAAAAJ&hl=es&oi=ao

Breve biografía: Dorsa Sadigh es profesora asistente de Ciencias de la Computación e Ingeniería Eléctrica en la Universidad de Stanford. Sus intereses de investigación se encuentran en la intersección de la robótica, el aprendizaje y la teoría del control. Específicamente, está interesada en desarrollar algoritmos para una interacción humano-robot y humano-IA segura y adaptable. Dorsa recibió su doctorado en Ingeniería Eléctrica y Ciencias de la Computación (EECS) de UC Berkeley en 2017, y recibió su licenciatura en EECS de UC Berkeley en 2012. Recibió la Beca Sloan, NSF CAREER, ONR Young Investigator Award, AFOSR Young Investigator Award, DARPA Young Faculty Award, Okawa Foundation Fellowship, MIT TR35, and the IEEE RAS Early Academic Career Award.

 

Título de la charla: Aprendiendo de fuentes de datos no tradicionales (Online)

Resumen: El aprendizaje por imitación se ha centrado tradicionalmente en aprender una política o una función de recompensa a partir de demostraciones de expertos. Sin embargo, en la práctica, en muchas aplicaciones de robótica, tenemos acceso limitado a demostraciones de expertos. Hoy, hablaré sobre un conjunto de técnicas para abordar algunos de los desafíos de aprender de fuentes de datos no tradicionales, es decir, demostraciones subóptimas, clasificaciones, datos de juego y correcciones físicas. Primero hablaré sobre nuestro enfoque de aprendizaje por imitación consciente de la confianza que estima simultáneamente una medida de confianza sobre las demostraciones y los parámetros de política. Luego hablaré sobre la extensión de este enfoque para aprender una medida de confianza sobre la experiencia de diferentes demostradores sin supervisión. A continuación, analizaré cómo podemos aprender modelos más expresivos, como una función de recompensa multimodal, cuando aprendemos de una combinación de datos de clasificación. Finalmente, hablo sobre nuestros esfuerzos recientes para aprender de otras fuentes de datos no tradicionales en dominios interactivos. Específicamente, mostramos cómo la predicción de posibilidades latentes puede ser sustancial cuando se aprende de datos de juego no dirigidos en dominios interactivos, y cómo podemos aprender de una secuencia de interacciones a través de correcciones físicas.

 

Yutaka Nakamura

yutaka_nakamura2.jpg

Web: https://www.riken.jp/en/research/labs/r-ih/guard_robo_proj/behav_learn/index.html 

Google Scholar:

Breve biografía: Dr. Yutaka Nakamura es líder de equipo del proyecto Guardian Robot, RIKEN, Japón. Recibió su Ph.D. de la escuela de posgrado en ciencias de la información, Instituto de Ciencia y Tecnología de Nara en 2004 y trabajó como investigador postdoctoral hasta 2006 en reinforcement learning para un caminador bípedo. De 2006 a 2020, trabajó en la Universidad de Osaka y estudió la generación de movimiento para robots con cuerpos complicados y mecanismos de aprendizaje para robots de comunicación. Su objetivo es desarrollar robots que aprendan a comportarse en los espacios cotidianos donde conviven con los humanos a través de sus propias experiencias. Sus intereses de investigación incluyen el reinforcement learning, motion planning y los modelos generativos para la interacción entre humanos y robots.

 

Título de la charla: Modelado de una interacción diádica utilizando una red neuronal profunda (Charla en persona)

Resumen: Se espera que los robots de comunicación sean sistemas que acompañen a los humanos y enriquezcan la vida de las personas, ya que potencialmente pueden interactuar con los humanos de forma natural. Para darse cuenta de esto, parece importante que los robots se comuniquen sin problemas con los humanos, pero es difícil que los robots se comuniquen a un buen ritmo, a diferencia de los humanos. Los seres humanos interactúan con otros de manera bidireccional utilizando múltiples modalidades, incluida la comunicación no verbal. Una persona puede dar respuestas como asentir con la cabeza mientras la otra está hablando, y puede ocurrir una superposición al tomar turnos. Tal comportamiento similar a la comunicación full-duplex es diferente de un diálogo de pregunta y respuesta, en el que se da una respuesta después de que se completa el reconocimiento. En esta presentación, presentaremos nuestros enfoques para modelar el comportamiento durante el diálogo, utilizando modelos en los que las acciones de todos los participantes se consideran simultáneamente. Se presentarán algunos resultados preliminares de la aplicación de modelos de redes neuronales profundas a una interacción diádica capturada por una cámara panorámica de 360 grados.


Luca locchi

LucaIocchi3.jpg

Web: www.diag.uniroma1.it/iocchi

Google Scholar:https://scholar.google.com/citations?user=KHhijC0AAAAJ&hl=es&oi=sra

Breve biografía: Prof. Luca locchi es Profesor Titular de la Universidad Sapienza de Roma, Italia. Él imparte docencia en el Máster en Inteligencia Artificial y Robótica; y actualmente es Coordinador del Programa de Doctorado en Ingeniería en Ciencias Informáticas. Sus principales intereses de investigación incluyen la robótica cognitiva, la planificación de tareas, la coordinación de múltiples robots, robot perception, robot learning, la interacción humano-robot y la robótica social. Es autor de más de 180 artículos referenciados (h-index 45 [Google Scholar]) en revistas y congresos sobre inteligencia artificial y robótica. Actualmente, él es editor asociado del Journal Artificial Intelligence y ha organizado varios eventos científicos. Ha sido investigador principal de varios proyectos internacionales, europeos, nacionales e industriales en inteligencia artificial y robótica.

Actualmente es vicepresidente de la RoboCup Federation (miembro de BoardofTrustees desde 2013) y contribuyó a la evaluación comparativa de los robots de servicio doméstico a través de competiciones científicas en RoboCup@Home y la European Robotics League Service Robots (ERL-SR), de la que ha miembro del Comité Organizador desde su origen. Él organizó varios concursos científicos internacionales de robots, así como concursos de estudiantes centrados en los robots de servicio y la interacción humano-robot (incluidos el ERL-SR, el European RoboCupJunior Championship y los RoboCup@Home Education Challenges). Él también ha supervisado el desarrollo de varios equipos participando en competencias de robots.

 

Título de la charla: Robots sociales cognitivos (Online)

Resumen: Cada vez más aplicaciones robóticas están considerando human-in-the-loop models, no solo para cumplir con las tareas de aplicaciones específicas, sino también para aumentar la aceptación del usuario y la confianza en las tecnologías robóticas y la inteligencia artificial. En este contexto, los robots deben exhibir al mismo tiempo capacidades cognitivas y habilidades sociales para lograr los objetivos de la tarea mientras interactúan adecuadamente con las personas en el entorno. En esta charla, discutiremos el diseño e implementación de robots sociales cognitivos desde una perspectiva de representación del conocimiento, ilustrando problemas y posibles soluciones para una integración efectiva de las funcionalidades cognitivas, como la planificación, el razonamiento y el aprendizaje, con habilidades sociales, como la interacción multi-modal humano-robot, gestión de diálogos, etc.

 

 

 

Personas conectadas : 7 Privacidad
Cargando...