Please use this identifier to cite or link to this item: http://hdl.handle.net/1822/48691

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorBicho, Estelapor
dc.contributor.advisorBranco, Pedropor
dc.contributor.authorSilva, Rui Manuel Gomes dapor
dc.date.accessioned2017-12-30T04:40:49Z-
dc.date.issued2017-04-18-
dc.date.submitted2016-10-25-
dc.identifier.urihttp://hdl.handle.net/1822/48691-
dc.descriptionTese de Doutoramento (Programa Doutoral em Engenharia Eletrónica e de Computadores - Especialidade em Controlo, Automação e Robótica)por
dc.description.abstractA major challenge in modern robotics is the design of socially intelligent robots that can cooperate with people in their daily tasks in a human-like way. Needless to say that nonverbal communication is an essential component for every day social interaction. We humans continuously monitor the actions and the facial expressions of our partners, interpret them effortlessly regarding their intentions and emotional states, and use these predictions to select adequate complementary behaviour. Thus, natural human-robot interaction or joint activity, requires that assistant robots are endowed with these two (high level) social cognitive skills. The goal of this work was the design of a cognitive control architecture for socially intelligent robots, heavily inspired by recent experimental findings about the neurocognitive mechanisms underlying action understanding and emotion understanding in humans. The design of cognitive control architectures on these basis, will lead to more natural and eficient human-robot interaction/collaboration, since the team mates will become more predictable for each other. Central to this approach, neuro-dynamics is used as a theoretical language to model cognition, emotional states, decision making and action. The robot control architecture is formalized by a coupled system of Dynamic Neural Fields (DNFs) representing a distributed network of local but connected neural populations with specific functionalities. Different pools of neurons encode relevant information about hand actions, facial actions, action goals, emotional states, task goals and context in the form of self-sustained activation patterns. These patterns are triggered by input from connected populations and evolve continuously in time under the influence of recurrent interactions. Ultimately, the DNF architecture implements a dynamic context-dependent mapping from observed hand and facial actions of the human onto adequate complementary behaviours of the robot that take into account the inferred goal and inferred emotional state of the co-actor. The dynamic control architecture has been validated in multiple scenarios of a joint assembly task in which an anthropomorphic robot - ARoS - and a human partner assemble a toy object from its components. The scenarios focus on the robot’s capacity to understand the human’s actions, and emotional states, detected errors and adapt its behaviour accordingly by adjusting its decisions and movements during the execution of the task. It is possible to observe how in the same conditions a different emotional state can trigger different a overt behaviour in the robot, which may include different complementary actions and/or different movements kinematics.por
dc.description.sponsorshipThis work was supported by a Portuguese FCT (Fundação para a Ciência e a Tecnologia) grant SFRH/BD/48527/2008 financed by POPH-QREN 4.1-Advanced Training, co-funded by the European Social Fund and national funds from MEC (Ministério da Educação e Ciência). Also to Project JAST (Joint Action Science and Technology) (FP6-IST, Proj. n. 003747) financed by the European Commission and Project NETT (Neural Engineering Transformative Technologies) financed by the European Commission through its Marie Curie Training Network (grant agreement no 289146) for providing important resources for the development of this work.por
dc.description.sponsorshipUm dos desafios da robótica atual é o desenvolvimento de robôs socialmente inteligentes que consigam interagir e cooperar com humanos nas suas tarefas diárias de uma forma semelhante a estes. Na interação social diária, a comunicação não verbal desempenha um papel fundamental. Os humanos monitorizam constantemente as ações e expressões faciais, interpretando-as facilmente no que toca à sua intenção e estado emocional, e usam essa informação na seleção de comportamentos complementares adequados. Desta forma, uma interação humano-robô natural ou uma atividade conjunta, requer que os robôs estejam dotados destas duas competências sociais (de alto nível). O objetivo deste trabalho passou pelo desenvolvimento de uma arquitetura de controlo para tornar robôs socialmente inteligentes, com inspiração em estudos recentes acerca dos mecanismos neuro-cognitivos subjacentes à interpretação de ações e emoções nos humanos. O projeto de arquiteturas de controlo cognitivo assente nesta base permitiu potenciar uma interação/colaboração humano-robô mais eficiente e natural, já que ambos os intervenientes se tornam assim mutuamente mais previsíveis. A arquitetura de controlo para o robô é formalizada usando a teoria de Campos Dinâmicos Neuronais (CDNs), que representa uma rede distribuída de populações neuronais conectadas cada uma com objetivos específicos. Um aspeto importante nesta abordagem é a linguagem teórica usada para modelar cognição, estados emocionais, tomada de decisões e ações. Cada população neuronal codifica informação relevante acerca de ações levadas a cabo com as mãos, ações faciais, intenções subjacentes a ações, objetivos da tarefa e contexto na forma de padrões de ativação auto-sustentados. Estes padrões são desencadeados ao receber entradas de populações conectadas e evoluem continuamente no tempo através da influência de interações recorrentes. Sinteticamente, a arquitetura baseada em CDNs implementa um mapeamento dinâmico, dependente do contexto, de ações observadas e expressões faciais na seleção de comportamentos complementares do robô que tem em consideração o objetivo e o estado emocional inferidos do parceiro. A validação da arquitetura de controlo foi realizada em múltiplos cenários de uma tarefa conjunta de construção, onde um robô antropomórfico - ARoS - e um parceiro humano construíram um modelo de um brinquedo a partir dos seus componentes individuais. Os cenários focaram-se na capacidade do robô interpretar ações realizadas pelo humano, estados emocionais e erros detetados, adaptando o seu comportamento, e fazendo ajustes nas decisões tomadas e nos movimentos realizados durante a execução da tarefa. Foi possível observar que, nas mesmas condições, um estado emocional diferente pode desencadear no robô um comportamento diferente, o qual pode, por sua vez, incluir uma ação diferente e/ou uma cinemática de movimento diferente.por
dc.language.isoengpor
dc.relationinfo:eu-repo/grantAgreement/FCT/SFRH/SFRH%2FBD%2F48527%2F2008/PTpor
dc.relationinfo:eu-repo/grantAgreement/EC/FP7/289146/EUpor
dc.rightsembargoedAccess (3 Years)por
dc.titleToward robots as socially aware partners in human-robot interactive taskspor
dc.typedoctoralThesiseng
dc.date.embargo2020-04-18-
dc.identifier.tid101393806por
thesis.degree.grantorUniversidade do Minhopor
sdum.uoeiEscola de Engenhariapor
dc.subject.fosEngenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informáticapor
Appears in Collections:BUM - Teses de Doutoramento
CAlg - Teses de doutoramento/PhD theses
DEI - Teses de doutoramento

Files in This Item:
File Description SizeFormat 
PhD-Rui Manuel Gomes da Silva_2016.pdf
  Until 2020-04-18
3,22 MBAdobe PDFView/Open

Partilhe no FacebookPartilhe no TwitterPartilhe no DeliciousPartilhe no LinkedInPartilhe no DiggAdicionar ao Google BookmarksPartilhe no MySpacePartilhe no Orkut
Exporte no formato BibTex mendeley Exporte no formato Endnote Adicione ao seu ORCID