Trust-Based Human-Robot Industrial Collaboration
The interaction between humans and robots in industries is changing dramatically with the advances of artificially intelligent (autonomous) systems and robots. It is becoming possible for robots to share workspaces with humans, work around them, and collaborate with them autonomously. Such a revolution enables the construction of hybrid teams that include both humans and robots to harness their complementary strengths and reduce their weaknesses. However, there are many challenges that associate this advancement. For example, human physical and perceived safety are paramount for effective collaboration with robots. In addition, many naturally existing all-human teams aspects become relevant for the emerging hybrid one which represent new challenges that need to be addressed such as being mutually predictable and mutually trusting each other. Especially, human trust has shown to be essential factor for fruitful collaboration because of the uncertainty about and vulnerability to the robot behavior as an autonomous agent. It has a strong influence on human acceptance and the reliance related issues: over- and under-reliance. Although human trust in a robot has been intensively investigated, there are many missing pieces of information in the new context of industrial collaboration such as human trust dynamics, its factors, and means for its calibration. In addition to human trust, because of the interdependence between the human and the robot and the lack of predictability of the human behavior in general, the robot has to make decisions under uncertainty and vulnerability, which makes robot trust in a hybrid team relevant as well. Allowing the robot to possess the sense of trust can facilitate decision-making under the aforementioned conditions. This has not yet covered properly and calls for deeper investigation about its design, implementation, and implications on the interaction. This doctoral thesis looks into the trust concept in such a hybrid team from the perspective of both agents. First, the human trust in a robot in an industrial collaboration setting was studied in two human-subjects laboratory experiments. The results of these experiments shed the light on the knowledge gap about human trust in industrial context. They highlighted the difference in human trust dynamics when it forms and when it dissolves as well as the factors that associate human trust during these phases of trust development. Interestingly, these factors were not always the same depending on the human trust phase. Additionally, forecasting the ability of the robot has shown to influence human trust positively and negatively depending on its correctness and the success of the robot, which makes it a candidate to be a means for trust calibration in the investigated context. Based on the knowledge gained through investigating human trust, a predictability-based robot trust model was proposed. This model was deployed and integrated with two commonly used robot decision-making frameworks and evaluated thoroughly in simulation and human-subjects experiments. The results showed that empowering the robot with a sense of trust enables it to address its uncertainty by trading-off between team performance and safety. This, consequently, changed the interaction form dynamically between cooperation (working sequentially) and collaboration (working simultaneously) toward the shared goal. The evaluation of the model and its integration has shown to enhance the interaction objectively and subjectively. This doctoral thesis has the following contributions to the body of research: (1) First, it empirically shows how trust develops in the new emerging context of human-robot industrial collaboration, what factors play a role in this development, and how to use forecasting as a means for trust calibration in this context. (2) Second, it proposes a predictability-based robot trust model and integrates it with the robot decision-making process. (3) Finally, it studies the influence of the proposed robot trust model on the human perception of the interaction.
Die Interaktion zwischen Mensch und Roboter in der Industrie verändert sich dramatisch mit den Fortschritten von künstlich intelligenten (autonomen) Systemen und Robotern. Es wird für Roboter möglich, Arbeitsräume mit Menschen zu teilen, um sie herum zu arbeiten und autonom mit ihnen zusammenzuarbeiten. Eine solche Revolution ermöglicht den Aufbau hybrider Teams, die sowohl aus Menschen als auch aus Robotern bestehen, um ihre komplementären Stärken zu nutzen und ihre Schwächen zu reduzieren. Es gibt jedoch viele Herausforderungen, die mit diesem Fortschritt verbunden sind. Beispielsweise sind die physische und wahrgenommene Sicherheit des Menschen für eine effektive Zusammenarbeit mit Robotern von größter Bedeutung. Darüber hinaus werden viele natürlich existierende rein menschliche Teamaspekte für das entstehende hybride Team relevant, die neue Herausforderungen darstellen, die angegangen werden müssen, wie z. B. gegenseitige Berechenbarkeit und gegenseitiges Vertrauen. Insbesondere menschliches Vertrauen hat sich aufgrund der Ungewissheit und Anfälligkeit für das Roboterverhalten als autonomer Agent als wesentlicher Faktor für eine fruchtbare Zusammenarbeit erwiesen. Es hat einen starken Einfluss auf die menschliche Akzeptanz und die damit verbundenen Probleme: Über- und Untervertrauen. Obwohl das menschliche Vertrauen in einen Roboter intensiv untersucht wurde, fehlen im neuen Kontext der industriellen Zusammenarbeit viele Informationen, wie z. B. die menschliche Vertrauensdynamik, ihre Faktoren und Mittel zu ihrer Kalibrierung. Zusätzlich zum menschlichen Vertrauen muss der Roboter aufgrund der gegenseitigen Abhängigkeit zwischen Mensch und Roboter und der mangelnden Vorhersagbarkeit des menschlichen Verhaltens im Allgemeinen Entscheidungen unter Unsicherheit und Verwundbarkeit treffen, was das Vertrauen des Roboters auch in einem hybriden Team relevant macht. Dem Roboter das Gefühl des Vertrauens zuzugestehen, kann die Entscheidungsfindung unter den oben genannten Bedingungen erleichtern. Dies ist noch nicht richtig abgedeckt und erfordert eine eingehendere Untersuchung seines Designs, seiner Implementierung und seiner Auswirkungen auf die Interaktion. Diese Doktorarbeit untersucht das Vertrauenskonzept in einem solchen hybriden Team aus der Perspektive beider Agenten. Zunächst wurde das menschliche Vertrauen in einen Roboter in einem industriellen Kollaborationsumfeld in zwei Laborexperimenten mit Menschen untersucht. Die Ergebnisse dieser Experimente werfen ein Licht auf die Wissenslücke über menschliches Vertrauen im industriellen Kontext. Sie hoben den Unterschied in der menschlichen Vertrauensdynamik hervor, wenn es sich bildet und wann es sich auflöst, sowie die Faktoren, die menschliches Vertrauen in diesen Phasen der Vertrauensentwicklung verbinden. Interessanterweise waren diese Faktoren je nach menschlicher Vertrauensphase nicht immer gleich. Darüber hinaus hat sich gezeigt, dass die Vorhersage der Fähigkeit des Roboters das menschliche Vertrauen abhängig von seiner Korrektheit und dem Erfolg des Roboters positiv und negativ beeinflusst, was ihn zu einem Kandidaten für die Vertrauenskalibrierung im untersuchten Kontext macht. Basierend auf den Erkenntnissen, die durch die Untersuchung des menschlichen Vertrauens gewonnen wurden, wurde ein auf Vorhersagbarkeit basierendes Roboter-Vertrauensmodell vorgeschlagen. Dieses Modell wurde bereitgestellt und in zwei häufig verwendete Frameworks zur Entscheidungsfindung von Robotern integriert und in Simulationen und Experimenten mit Menschen gründlich evaluiert. Die Ergebnisse zeigten, dass die Befähigung des Roboters mit einem Gefühl des Vertrauens es ihm ermöglicht, seine Unsicherheit anzugehen, indem er zwischen Teamleistung und Sicherheit abwägt. Dadurch veränderte sich die Interaktionsform dynamisch zwischen Kooperation (sequentielles Arbeiten) und Kollaboration (gleichzeitiges Arbeiten) hin zum gemeinsamen Ziel. Die Evaluierung des Modells und seiner Integration hat gezeigt, dass die Interaktion objektiv und subjektiv verbessert wird. Diese Dissertation hat folgende Forschungsbeiträge: (1) Erstens zeigt sie empirisch, wie sich Vertrauen im neu entstehenden Kontext der Mensch-Roboter-Industrie-Kollaboration entwickelt, welche Faktoren bei dieser Entwicklung eine Rolle spielen und wie Prognosen eingesetzt werden können als Mittel zur Vertrauenskalibrierung in diesem Zusammenhang. (2) Zweitens schlägt sie ein auf Vorhersagbarkeit basierendes Roboter-Vertrauensmodell vor und integriert es in den Roboter-Entscheidungsprozess. (3) Schließlich untersucht sie den Einfluss des vorgeschlagenen Roboter-Vertrauensmodells auf die menschliche Wahrnehmung der Interaktion.