Table des matières

  • 1. Introduction
  • 2. Les travaux sur les aspects sociétaux dans ROMEO2
    • 2.1. Participations à des initiatives françaises, européennes et mondiales
    • 2.2. Conférences et workshops
    • 2.3. Sensibilisation des employés
      Livres
      Parutions médias
      Publications scientifiques
  • 3. Conclusion

1. Introduction

Faisant de plus en plus partie de notre vie quotidienne, la robotique, et notamment la robotique humanoïde, soulève des questions éthiques, juridiques et sociétales. Celles-ci attirent l’attention de toute une communauté internationale d’acteurs académiques et industriels, d’utilisateurs finaux, des institutions ainsi que du grand public qui regarde l’arrivée des robots avec un mélange de fascination, d’envie et d’appréhension.

Le projet ROMEO, la première phase des travaux sur les sujets éthiques, sociétales et juridiques dans le cadre du Comité sociétal

Le projet ROMEO (2009 – 2012) était né de la vision de SoftBank Robotics de créer un robot humanoïde de grande taille qui serait un véritable assistant et compagnon personnel. Sa mission est d’aider des gens dans leur quotidien. Pour aider une personne, il faut que le robot soit suffisamment grand et robuste pour avoir la capacité d’effectuer des tâches pertinentes, avoir une présence et inspirer confiance. En même temps, il ne doit pas être trop grand pour ne pas effrayer son utilisateur.

Le projet ROMEO a réuni des chercheurs et des ingénieurs qui allaient créer le robot Romeo et le faire fonctionner, des développeurs qui allaient préparer des applications et des représentants des utilisateurs finaux qui allaient identifier des besoins auxquels le robot devrait s’adapter et allaient également en tester le prototype.

Une fois que le robot humanoïde existe et fonctionne, le chemin reste cependant encore long avant qu’il ne se retrouve utilisé dans la vraie vie, en dehors du laboratoire dans lequel il a été conçu. Dès le montage du projet ROMEO, nous avons été conscients qu’en tant que nouvel élément de notre quotidien, le robot humanoïde susciterait de nombreuses questions sociétales. Afin de les anticiper et trouver de premiers éléments de réponse, nous avions créé un Comité sociétal. Le Comité avait rassemblé des experts d’horizons aussi différents que l’anthropologie, le journalisme, l’architecture, l’épistémologie ou la sociologie.

Un recueil des contributions des experts du Comité avait fait l’objet d’un rapport final « Les robots humanoïdes au quotidien : quels enjeux sociétaux ? ». Parmi les sujets traités : Faut-il faire des robots à l’image des humains ? Robot humanoïde, devrait-il avoir un rôle de compagnon ou assistant ? Faut-il donner une intériorité à un robot ? Quelles précautions à la prédiction de ses comportements ?

La plupart des problématiques développées par les experts restaient des questions ouvertes. Seules les expérimentations avec des prototypes de robot allaient permettre d’y apporter des réponses. Cela donc constituait, à nos yeux, l’étape suivante indispensable.

Le projet ROMEO 2

S’inscrivant dans la continuité du projet ROMEO, lors du projet ROMEO 2 (2012 – 2017), nous avions prévu de poursuivre les travaux du Comité sociétal. Or, confrontés de nouveau aux limites du Comité, nous ne l’avons pas recréé. Ce cadre qui avait été choisi initialement n’était plus le plus adapté.

En effet, les membres du Comité sociétal ROMEO ont travaillé en premier temps sur des questions théoriques, s’appuyant en deuxième temps sur le design du robot qui prenait de plus en plus forme jusqu’au 2ème prototype finalisé en 2012. Avant la fin du projet, afin de se projeter et développer des pistes de réflexion, les experts ont ressenti un besoin de voir fonctionner le robot. Cela constituerait une base solide pour leur travail en l’ancrant dans la vie réelle.

Nous avons eu l’intention de relancer le Comité sociétal au moment où le robot serait en cours d’être testé avec des personnes. Avec le retard que le projet avait pris, les tests ont été reportés à plusieurs reprises. Les sujets éthiques, juridiques et sociétales étant d’une grande importance, nous avons continué à avancer dans d’autres cadres.

Plusieurs partenaires du projet ROMEO 2, notamment SoftBank Robotics, CNRS-LIMSI et UPMC-ISIR poursuivaient les travaux en collaboration avec d’autres partenaires du projet ainsi qu’avec des partenaires externes. Ce travail qui s’inscrit dans des initiatives nationales, européennes et mondiales a donné lieu à des conférences, des débats, des workshops, des publications et des parutions dans les médias que nous allons décrire plus bas.

2. Les travaux sur les aspects sociétaux dans ROMEO2

2.1. Participations à des initiatives françaises, européennes et mondiales

Rapport de la Commission de réflexion sur l’Ethique de la Recherche sur les sciences et technologies du Numérique (CERNA) de l’Alliance Allistene. « Ethique de la recherche en Robotique”, Novembre 2014.
http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf
Raja Chatilla, UPMC a animé le groupe de travail qui a produit le rapport de la CERNA sur
l’éthique de la robotique. Les sujets concernent essentiellement en termes d’applications :

  • Robots avec personnes vulnérables (enfant, personnes en perte d’autonomie): problèmes d’interaction, d’expression et d’émotion.
  • Problème d’autonomie et celui du partage d’autorité (pour le contexte militaire et de sécurité par exemple).
  • Robotique médicale, réhabilitation et augmentation.

On peut trouver dans ce rapport des recommandations concrètes. En voici des exemples :

  • Le chercheur doit faire en sorte que les décisions du robot ne soient pas prises à l’insu de l’opérateur afin de ne pas créer de ruptures dans sa compréhension de la situation (c’est-à-dire afin que l’opérateur ne croie pas que le robot est dans un certain état alors qu’il est dans un autre état).
  • Le chercheur doit être conscient des phénomènes de biais de confiance, c’est-à- dire la tendance de l’opérateur à s’en remettre aux décisions du robot, et de distanciation morale («Moral Buffer ») de l’opérateur par rapport aux actions du robot.
  • Le chercheur étudiera, au regard des fonctions utiles du robot, la pertinence et la nécessité de susciter des émotions et la pertinence et la nécessité de l’aspect ou du comportement biomimétiques, notamment dans les cas de forte ressemblance visuelle ou comportementale entre un robot et un être vivant. Dans les cas où l’apparence ou la voix humaines sont imitées, le chercheur s’interrogera sur les effets que pourrait avoir cette imitation, y compris hors des usages pour lesquels le robot est conçu.
  • Si une ressemblance quasi parfaite est visée, le chercheur doit avoir conscience que la démarche biomimétique peut brouiller la frontière entre un être vivant et un artefact. Le chercheur consultera sur ce brouillage le comité opérationnel d’éthique de son établissement.
  • Pour les projets de recherche qui ont trait au développement de la robotique affective, le chercheur s’interrogera sur les répercussions éventuelles de son travail sur les capacités de socialisation de l’utilisateur.
  • Pour les projets qui mettent en présence des enfants et des robots, le chercheur doit se poser la question de l’impact de l’interaction enfant-robot sur le développement des capacités émotionnelles de l’enfant, tout particulièrement dans la petite enfance.
  • Dans le cas des dispositifs robotisés visant l’augmentation, le chercheur veillera à la réversibilité de celle-ci : les dispositifs doivent être amovibles sans dommage pour la personne, autrement dit, sans que la personne perde l’usage de ses fonctions initiales.

Laurence Devillers, CNRS – LIMSI, a participé à la rédaction du rapport sur l’“Ethique de la recherche en robotique “– CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene) (2014) sur la partie robotique affective :
http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf
La robotique, comme plus largement le numérique, débouche sur de multiples usages aux déploiements parfois aussi massifs qu’inattendus, tel l’essor actuel des drones civils. Dans ce contexte évolutif, il serait vain d’énoncer de nouvelles normes éthiques qui pourraient vite s’avérer inadéquates. Mieux vaut équiper le monde scientifique pour que la dimension éthique devienne indissociable de l’activité de recherche, dans les communautés et les esprits. Le présent avis émet à cet effet quelques préconisations à l’attention des établissements et un ensemble de préconisations ancrées dans la recherche à l’attention des scientifiques. D’une manière générale, la CERNA préconise en particulier que les établissements ou institutions de recherche se dotent de comités d’éthique en sciences et technologies du numérique, traitant au cas par cas les questions opérationnelles, à l’instar des sciences de la vie ; que des actions de sensibilisation et d’accompagnement soient menées auprès des chercheurs ; que les réflexions éthiques relatives aux projets susceptibles d’avoir un impact direct sur la société impliquent tous les acteurs concernés.

Les préconisations sont d’abord illustrées à travers trois cas d’usage : les robots auprès des personnes et au sein des groupes, les robots dans le contexte médical et les robots dans la défense et la sécurité. Puis elles sont formulées selon trois thèmes propres à la robotique: l’autonomie et les capacités décisionnelles, l’imitation du vivant et l’interaction affective et sociale avec les humains, et la réparation et l’augmentation de l’humain par la machine. Le chercheur doit prémunir les systèmes qu’il conçoit contre les effets indésirables, cela prévaut d’autant plus que les robots sont dotés d’une autonomie croissance. La confiance que l’on peut placer dans un robot, les possibilités et limites de celui-ci et du couple qu’il forme avec l’utilisateur, la reprise en main, le traçage – c’est-à- dire la possibilité de rendre compte du comportement – sont à considérer du point de vue éthique dans la conception du robot. Par l’imitation du vivant et l’interaction affective, le robot peut brouiller les frontières avec l’humain et jouer sur l’émotion de manière inédite. Au-delà de la prouesse technologique, la question de l’utilité d’une telle ressemblance doit se poser, et l’évaluation interdisciplinaire de ses effets doit être menée, d’autant plus que ces robots seraient placés auprès d’enfants ou de personnes fragiles. La forme androïde que prennent parfois les robots soulève craintes et espoirs démesurés, amplifiés par les annonces médiatiques et touchant parfois aux idéologies et aux croyances.

Le roboticien connaît lui avec exactitude l’état de la science et des technologies en la matière, de leurs proximités ou de leurs écarts avec ce que perçoit le public. Il occupe en cela une position privilégiée pour éclairer les débats par une communication appropriée, et il ne doit se prononcer, en tant qu’expert, que sur ce qui relève de son domaine de compétence professionnelle.

– Livre blanc « Droit de la Robotique », le 25 octobre 2016.

SoftBank Robotics a impliqué dans l’initiative qui est un fruit d’un travail collaboratif de plus d’un an entre le SYMOP, l’organisation professionnelle des créateurs de solutions industrielles, fabricants de machines, technologies et équipements pour la production industrielle, le cabinet Alain Bensoussan Avocats Lexing et la société Primnext. Le Livre blanc pose une réflexion sur l’état de l’art, les attentes du marché de la robotique et de la machine-outil intelligente ainsi que le cadre juridique existant.

Robotique et rupture technologique

La rupture technologique est en marche depuis plusieurs années.
Véritable levier de croissance, la robotique est de plus en plus présente dans les entreprises, et vient ainsi modifier durablement les modes de production ainsi que les modèles économiques.
Transport, industrie, agro-alimentaire, en France c’est un parc de 31 600 robots industriels qui est réparti sur tous les secteurs.
C’est face à cette évolution que le SYMOP a pris l’initiative de créer un groupe de travail pour évaluer le régime juridique applicable à la robotique.

Robotique : quel régime juridique ?

Un travail de réflexion mené avec des auditions d’industriels, de juristes, d’éthiciens, de roboticiens et de chercheurs, dans un esprit d’innovation et avec une volonté d’accompagner les industriels dans leur utilisation croissante de robots.

« La robotique constitue aujourd’hui un enjeu sociétal important, qui contribue à relever les défis de la mobilité, de la santé, de l’autonomie, du vieillissement et de l’éducation.

Or, la robotique ne dispose pas d’un régime juridique qui lui est propre, et dans le cadre actuel, il reste des vides juridiques, notamment sur la responsabilité et l’autonomie, qui nécessitent une adaptation du droit positif.

Ce Livre blanc a ainsi pour objectif de porter une réflexion sur l’encadrement juridique, tout en laissant un champ de liberté à l’innovation et aux créations de valeurs, » explique Jean Tournoux, Délégué général du SYMOP.

Intelligence artificielle, sécurité, conformité, mobilité, etc. – le Livre blanc examine l’ensemble des enjeux liés à la robotique pour décrypter le marché actuel ainsi que les attentes des industriels, mais également pour appréhender les forces et les faiblesses des positions légales et contractuelles existantes.

– Rapport « Règles de droit civil sur la robotique » accepté par le Parlement européen. Février 2017.
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//EN

Plusieurs partenaires du projet ont été impliqués dans la préparation du rapport par la Commission Juridique du Parlement européen :

Raja Chatilla, UPMC : Audition à la Commission des Affaires Juridiques (JURI) du Parlement Européen, OPECST sur les questions d’éthique en Robotique et IA.

SoftBank Robotics a participé également aux commentaires d’euRobotics, association européenne de la robotique, sur la résolution du Parlement européen du 16 février 2016.

– Ethically Aligned Design – The IEEE Global Initiative for Ethical Considerations in the Design of Autonomous Systems. Décembre 2016.
http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html

Raja Chatilla, UPMC : Organisation et participation à l’événement « Prioritizing Human Well-being in the Age of Artificial Intelligence » (IEEE – Parlement Européen, le 11 avril 2017).

Laurence Devillers, CNRS-LIMSI : direction du groupe de travail P7008 (IEEE standards
association). Septembre 2017. https://standards.ieee.org/develop/project/7008.html – The Standard for Ethically Driven Nudging for Robotic, Intelligent and Autonomous Systems establishes a set of definition of functions and their relationships with benefits depending on cultural aspects of users (well-being, health, …) that enables the development of Robotics, Intelligent and Autonomous Systems in accordance with worldwide Ethics and Moral theories, with a particular emphasis on aligning the ethics and engineering communities to understand how to pragmatically design and implement these systems in unison. This standard along with definitions allows for precise communication among global experts of different domains that includes Robotics, Artificial Intelligence, Autonomous Systems, and Ethics.

Met en place un lot de définitions

La mise en place de ces standards et de définitions communes permet une communication rapide et efficace entre les différentes communautés d’experts de différents domaines tels que la Robotique, l’Intelligence Artificielle, les Systèmes Autonomes ou encore l’Ethique.

2.2. Conférences et workshops

– Raja Chatilla, UPMC : Workshops sur les questions éthiques sociétales en Robotique aux salons Innorobo 2015 et 2016.
– Laurence Devillers, CNRS-LIMSI : Participation à INNOROBO 2017- robot et éthique : https://www.youtube.com/watch?v=cGb_AE7Fu8I
– Rodolphe Gelin, SoftBank Robotics : Keynote, International Conference on Robot Ethics (ICRE) 2015
– Rodolphe Gelin, SoftBank Robotics : Keynote “ Teaching privacy to domestic robots “ à International Conference on Robot Ethics and Safety Standards (ICRESS) 2017
– Raja Chatilla, UPMC : Keynote “ The IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems “ à International Conference on Robot Ethics and Safety Standards (ICRESS) 2017
– Raja Chatilla, UPMC : Exposés invités au niveau national et international sur l’éthique de la recherche en Robotique en 2016 et 2017: Laboratoire CRISTAL (Lille), LIRMM (Montpellier), LORIA (Nancy).
– Raja Chatilla, UPMC : Exposés invités au niveau national et international sur l’éthique de la recherche en Robotique en 2016 et 2017: Laboratoire CRISTAL (Lille), LIRMM (Montpellier), LORIA (Nancy).
– Laurence Devillers, CNRS-LIMSI : Organisation du workshop ETHics In Corpus Collection, Annotation and Application. 24 May 2016. http://emotion-research.net/sigs/ethics-sig/ethi-ca2 :
ETHI-CA²’s focus spans ethical aspects around the entire processing pipeline from speech and language as well as multimodal resource collection and annotation to system development and application. In the recent time of ever-more collection “in the wild” of individual and personal multimodal and –sensorial “Big Data”, crowd-sourced annotation by large groups of individuals with often unknown reliability and high subjectivity, and “deep” and autonomous learning with limited transparency of what is being learnt, and how applications such as in health or robotics depending on such data may behave, ethics have become more crucial than ever in the field of language and multimodal resources making it a key concern of the LREC community. There is, however, a surprising if not shocking white spot in the landscape of workshops, special session, or journal special issues in this field, which ETHI-CA² aims to fill in. The goal is thus to connect individuals ranging across LREC’s fields of interest such as human-machine and –robot and computer-mediated human-human interaction and communication, affective, behavioural, and social computing whose work touches on crucial ethical issues (e.g., privacy, tracability, explainability, evaluation, responsibility, etc.). According systems increasingly interact with and exploit data of humans of all ranges (e.g., children, adults, vulnerable populations) including non-verbal and verbal data occurring in a variety of real-life contexts (e.g., at home, the hospital, on the phone, in the car, classroom, or public transportation) and act as assistive and partially instructive technologies, companions, and/or commercial or even decision making systems. Obviously, an immense responsibility lies at the different ends from data recording, labelling, and storage to its processing and usage.

Le focus d’ETHI-CA

– Laurence Devillers, CNRS-LIMSI : Participation à IEEE Symposium on Ethics of Autonomous Systems (1) : Le Symposium est organisé par IEEE Global Initiative for Ethical Considerations dans la Conception de Systèmes Autonomes , une initiative lancée par l’IEEE Standards Association pour fournir un espace d’incubation pour de nouvelles normes et solutions, certifications et codes de conduite, et consensus construction pour éthique mise en œuvre de technologies intelligentes.

– Laurence Devillers, CNRS-LIMSI : Participation à Major IEEE Summit: Artificial Intelligence & Ethics | Who Does the Thinking? Come Join the Debate, Bruxelles. Le 5 Octobre 2016.

– Laurence Devillers, CNRS-LIMSI : Participation à IEEE Symposium on Ethics of Autonomous Systems. 5-6 Juin 2017. Rapport Conception éthiquement alignée, versions 1 et 2 Conception éthiquement alignée: une vision pour donner la priorité au bien-être humain grâce à l’intelligence artificielle et aux systèmes autonomes (EAD, Version 1) représente la contribution collective de plus d’une centaine de leaders du monde universitaire, scientifique, gouvernemental et corporatif dans les domaines de l’intelligence artificielle , philosophie et politique. EAD, version 2, présentera treize sections créées par plus de deux cent cinquante leaders d’opinion mondiaux et sera lancée fin 2017.

2.3. Sensibilisation des employés

Les ingénieurs de SoftBank Robotics qui désignent les robots et leurs applications sont au cœur de la construction de notre futur avec les robots. Leurs choix prix au quotidien déterminent ce que seront les robots de demain. Tous ont leur rôle à jouer. Il est donc essentiel de nourrir leur réflexion, les sensibiliser aux problématiques éthiques, sociétales et légales liées à la robotique et les motiver ainsi à les intégrer dans leur travail.

Deux sessions ont eu lieu : une table ronde avec Serge Tisseron, Alain Bensoussan et Denis Vidal, le 10 février 2016 et une conférence – débat avec Mady Delvaux Stehres, le 19 septembre 2017.
Lors de la table ronde, les employés ont eu l’occasion d’échanger avec les experts suivants :

Serge Tisseron, docteur en psychologie, psychiatre et psychanalyste, étudie le rapport des humains aux nouvelles technologies et particulièrement aux robots. Dans son livre « Le jour où mon robot m’aimera », il alerte quant aux risques d’atteinte à la vie privée, à la « robodépendance » et cherche à proposer des moyens de les prévenir.

Selon lui, il est dangereux que les entreprises de robotique laissent penser que les robots ont des émotions. Si les utilisateurs prêtent des émotions à leurs robots, ils leur prêteront également des sensations et cela peut être lourd de conséquences.

Par exemple, une personne âgée peut croire que son robot peut souffrir et peut se mettre elle-même en danger pour lui venir en aide. Si des cas semblables se multiplient, cela peut amener à une diabolisation du robot qui peut ensuite se transformer en un rejet.

Serge Tisseron, très présent dans les médias, a débattu avec Rodolphe Gelin de SoftBank Robotics à différentes occasions à la radio.

Denis Vidal, docteur en ethnologie, et sociologie et expert de l’Inde, travaille sur l’appropriation des technologies et en particulier sur la conception de créatures artificielles robotiques.

Il a été commissaire de l’exposition « Persona, étrangement humain » au quai Branly. Dans son livre « Aux frontières de l’humain – Dieux, figures de cire, robots et autres artefacts », Denis trouve fascinant de constater que la robotique humanoïde est peut-être le dernier domaine où tous les efforts faits pour imiter de manière réaliste une personne humaine continuent d’être fondamentalement problématiques.

Denis Vidal accompagne SoftBank Robotics dans ses réflexions sur des sujets éthiques et sociétaux depuis 2009 et a suivi de près la création de Romeo.

Maître Alain Bensoussan, Avocat à la Cour d’appel de Paris spécialisé dans le droit de l’informatique et des technologies avancées réfléchit sur l’encadrement juridique pour des robots de plus en plus intelligents et de plus en plus autonomes.

Il envisage de doter les robots d’une personnalité juridique qui les élèverait au rang de « sujet de droit ». En 1985, Alain Bensoussan a publié le premier traité de droit de l’informatique.

Il y a 5 ans, il créé Lexing, le premier réseau international d’avocats dédié au droit des technologies avancées et a lancé sur YouTube une chaîne dédiée au droit des nouvelles technologies intitulée « Lexing Alain Bensoussan Avocats ».

Personnage médiatique tombé sous le charme de NAO et Pepper, il travaille avec SoftBank Robotics depuis quelques années.

Le débat s’est articulé autour de telles questions que : Est-ce sain de s’attacher à son robot ?, Les robots devraient-ils prétendre avoir des émotions ?, Est-ce bien qu’un robot puisse s’occuper de ma grand-mère ?, Qui est responsable des dommages causés par un robot ?, Le robot doit-il être humanoïde pour être accepté ?, Est-il perçu de la même façon par toutes les civilisations ?, Faut-il un robot différent pour chaque continent et chaque culture ?

Le 13 avril 2016, SBR a invité Yann LeCun (responsable de l’IA chez Facebook) pour une présentation sur l’IA au personnel SBR. Il a pu partager sa vision de l’intelligence artificielle, ses applications actuelles, ses applications futures ainsi que les limitations inhérentes aux techniques actuellement utilisées.

Le 20 septembre 2017 lors d’une conférence – débat, plus de 70 employés de SoftBank Robotics ont eu l’occasion d’échanger avec Mady Delvaux Stehres, membre du Parlement européen, Vice-présidente de la Commission des affaires juridiques. Son rapport « Règles de droit civil sur la robotique » a été accepté par le Parlement européen.

Mady Delvaux s’est déclarée très satisfaite de son échange avec les employés de SBR, autant sur les questions légales, sociétales ou encore éthiques qu’elle pousse vers l’avant, mais aussi sur les problématiques qu’elle place au premier plan. Bien que SBR ne partage pas nécessairement le point de vue de Mme. Delvaux sur les questions robotiques et sur les solutions qu’elle propose, le débat auprès des employés s’est révélé très intéressant. Il a permis de mettre en avant les opinions du Parlement européen et de l’entreprise mais également celles des employés. Existe-t- il vraiment des spécificités qui nécessitent un cadre juridique dédié aux robots ? Qui devrait être tenu responsable des dégâts causés par un robot: utilisateur ou fabricant ? Les ingénieurs en robotique doivent-ils répondre à un cadre restrictif ou devraient-ils pouvoir laisser libre cours à l’innovat

ion et à la créativité ? Ces interrogations amènent plus de questions que de réponses, et SBR s’assure de poursuivre ce débat d’un fort intérêt.

2.4. Livres

Laurence Devillers, CNRS-LIMSI : Des robots et des hommes : mythes, fantasmes et réalité (Plon Mars 2017)
ROMEO - Livre 1

En robotique plus que dans tout autre domaine, la science fiction a précédé la science : la série télévisée Real Humans en 2012 met en scène des robots humanoïdes dans un cercle familial. Les robots fascinent et cristallisent les peurs avec l’angoisse d’être un jour dominés, voir supplantés par eux. Nos peurs se nourrissent des mythes, fantasmes et fictions mais surtout d’une méconnaissance fondamentale des avancées de la technologie. La majorité des personnes ne font pas de différence entre les récents progrès en Intelligence Artificielle et la complexité d’un robot socialement intelligent. Ces peurs attisées dans les médias par le courant transhumaniste masquent malheureusement une réalité plus pragmatique : la nécessité de préparer la société à l’arrivée des robots. Etablir une relation sociale et affective avec les machines n’est plus seulement un rêve d’auteur de science fiction, mais bien une thématique émergente de nombreux chercheurs. Ces robots vont habiter nos maisons et également partager avec nous une histoire. Nos capacités d’empathie peuvent conduire à s’illusionner sur les capacités réelles des robots, leur irruption dans nos vies nécessite une réflexion éthique. Si les robots apprennent seuls comme des enfants, il est souhaitable de les programmer avec des valeurs morales, des règles de vie en société et de contrôler leur apprentissage. A partir de son expertise de chercheur en interaction homme-machine, en informatique émotionnelle et éthique, Laurence Devillers propose d’enrichir les lois d’Asimov avec 11 « commandements » éthiques pour des robots loyaux. Il s’agit avant tout de susciter des questionnements sur les robots et leur place dans la société, notamment dans les secteurs de la santé, du bien-être et de l’éducation.

Rodolphe GELIN et Olivier GUILHEM, SoftBank Robotics : Le robot est-il l’avenir de l’homme ? (La Documentation française, 2016)

ROMEO - Livre 2

Des amis qui vous veulent du bien, vraiment ?
Aspirateurs, humanoïdes agents d’accueil, joueurs d’échecs… les robots font de plus en plus partie de notre quotidien et notre société pourrait même s’en trouver modifiée en termes d’emploi, de nouveaux services, de nouveaux usages… En effet, les robots possèdent aujourd’hui des capacités (polyvalence, interaction, autonomie décisionnelle, apprentissage) qui soulèvent quelques interrogations. Quel système juridique pourrait appréhender leur nature si particulière ? Comment les doter des notions de bien et de mal qui les aideraient à faire le tri dans les actions qu’on leur demande de réaliser ? Seront-ils les fossoyeurs des relations sociales ? Vont-ils prendre la place des hommes ? Découvrez le dans ce nouveau volume captivant qui vous livre plus que de simples indices…

2.5. Parutions médias

Laurence Devillers, CNRS – LIMSI : Il faut se préparer à accueillir les robots, Tribune dans Le Monde : 16-03- 2016

La victoire d’AlphaGo (Google DeepMind) sur Lee Sedol, l’un des tout meilleurs joueurs de go, relance les questionnements sur les promesses et les risques de l’avènement de machines intelligentes. Pourtant l’exploit d’AlphaGo, vingt ans après Deep Blue victorieux face à Garry Kasparov, ne doit pas fausser notre vision de ce dont seront capables les robots qui s’invitent de plus en plus dans notre vie quotidienne.

Les robots et objets connectés vont intégrer nos foyers tout comme les téléphones portables et les téléviseurs. Les premiers dans notre quotidien sont les aspirateurs capables de reconnaître des obstacles et se déplacer de façon autonome. Bientôt, nous pourrons parler à des robots assistants comme on parle déjà à son téléphone. Au Laboratoire d’Informatique pour la mécanique et les sciences de l’Ingénieur (Limsi)-CNRS, nos recherches portent sur les interactions homme-machine. Un robot est une machine artificiellement intelligente grâce à des modèles informatiques conçus par des humains : pour peu qu’on l’ait programmée pour détecter et reconnaître des indices émotionnels et conversationnels et pour s’adapter à l’humain, voire même faire de l’humour, cette machine peut sembler chaleureuse. Nous utilisons également des algorithmes d’apprentissage et des réseaux de neurones. Il est cependant moins facile d’apprendre des concepts comme les émotions et les stratégies de dialogue à partir de grands corpus de données car ces concepts ne sont pas si faciles à formaliser.

Les enfants apprennent en expérimentant le monde. Pour un robot, la tâche est extrêmement difficile car il n’a ni instinct, ni intentions pour prendre des décisions. La machine ne sait pas construire de façon autonome des représentations nouvelles devant une nouvelle tâche, par contre, elle peut imiter l’humain. Les robots ne ressentent rien, n’ont pas de conscience malgré le fait qu’ils pourront dire « je t’aime »! Les machines seront de plus en plus autonomes grâce à des programmes d’intelligence artificielle sophistiqués, elles ne seront pas pour autant capables de sentiments, de créativité et d’imagination tels qu’on l’entend pour les humains. La machine ne peut pas se sentir « heureuse » car elle est dénuée de conscience phénoménale. Elle ne peut pas « comprendre » d’ailleurs le concept de bonheur pour un humain. Lorsqu’AlphaGo bat le joueur de go, la machine ne comprend pas ce qu’elle fait.

Devant une question sans réponse l’humain est incroyablement plus fort que la machine pour imaginer des solutions. Nous pouvons développer des machines plus intelligentes que nous pour des tâches spécifiques, ces machines pourront même accomplir des actions impossibles pour l’homme. La machine est plus forte que l’humain pour effectuer des calculs complexes, et ceci de plus en plus rapidement ! Elle est plus forte que l’humain pour répondre à des questions encyclopédiques, pour reconnaître des personnes… car elle a une mémoire énorme ! Il faut exploiter ces capacités sans en avoir peur pour notre bien-être dans la société.

En 2060, 32% de la population française aura plus de 60 ans soit une hausse de 80% sur une cinquantaine d’années et la charge des maladies chroniques ira de pair avec le vieillissement de la population. Les robots, parfois humanoïdes afin d’évoluer dans notre habitat, pourront nous être très utiles pour rester à domicile. Ils auront des rôles différents dans notre quotidien : du surveillant à l’assistant ou au compagnon. La relation Homme-Robot sera souvent triangulaire entre l’homme, le robot et les personnels soignants ou la famille. De nombreuses applications pour la santé, la sécurité ou le divertissement sont envisagées. Les premières études d’interaction entre un robot et des personnes âgées menées avec des ergothérapeutes de l’association Approche dans des maisons de retraite (projet PSPC ROMEO, piloté par Aldebaran-Robotics avec les grands laboratoires français en robotique) ainsi qu’avec des gérontologues dans le living lab de l’hôpital Broca (Paris) montrent un grand intérêt pour les robots et des réactions plutôt positives. Dans 5 à 10 ans, les séniors auront des connaissances en informatique et l’acceptation sera bien plus forte. De même les personnels soignants auront compris que leur rôle sera d’autant plus valorisé avec des machines. Les médecins y voient déjà une avancée significative pour le suivi des patients.

Créer une relation affective avec les robots n’est plus un sujet de science fiction. La ressemblance avec un être humain ou un animal, les mimiques faciales, le ton de voix, ou encore l’aspect enfantin ou peluche de certains robots contribue à susciter l’émotion. Cependant, il est possible d’éprouver des émotions en face de n’importe quel objet. L’humain projette des relations affectives avec des robots non humanoïdes, dépourvus de capacités affectives comme des robots téléguidés démineurs qui sauvent des soldats ou encore des robots aspirateur. L’attachement est un lien affectif qui résulte de l’histoire commune. Certains leur donnent des noms, preuve que l’humain projette une identité sur le robot.

La « media equation» de Reeves et Nass en 1996 explique que nous appliquons les mêmes attentes sociales lorsque nous communiquons avec des entités artificielles. L’anthropomorphisme est l’attribution des caractéristiques comportementales de vie humaine à des objets. Ainsi un objet qui semble être dans la douleur, comme le robot Atlas de Boston Dynamics, peut inspirer de l’empathie. Grâce à l’imagerie cérébrale, les chercheurs ont constaté que les humains ressentaient de l’empathie envers des robots maltraités, certes de moindre intensité qu’envers des humains maltraités mais cette empathie n’existe pas envers des objets inanimés. La ressemblance avec l’humain ne pourrait aller que jusqu’à un certain point si on en croit la théorie de la « vallée de l’étrange ». Car si l’on va trop loin, le moindre défaut devient monstrueux et la machine est rejetée.

L’interaction affective et sociale des humains avec des robots soulève plusieurs questions éthiques qui s’ajoutent aux questions générales de respect de la vie privée et de protection contre des actes malveillants. Les préconisations publiées par la Commission de réflexion sur sciences et technologies du numérique (Cerna), de l’Alliance des sciences et technologie du numérique (Allistene) sur l’éthique du chercheur en robotique portent sur l’imitation du vivant et l’interaction affective et sociale avec les humains, l’autonomie et les capacités décisionnelles et la réparation et l’augmentation de l’homme par la machine. Peu d’expériences ont encore été menées sur l’étude des usages à long terme.

Concevoir cet univers où les humains cohabiteront avec des entités complexes autonomes qui peuvent s’adapter va devenir une réalité. L’apparition des robots dans la société va de pair avec un grand nombre de défis légaux et sociétaux à résoudre comme les problèmes de droit et responsabilités et le partage du travail sur lesquels il faut se pencher : Comment éduquer pour pouvoir créer du travail autour de ces machines ? Quels nouveaux métiers ? Quelles règles ? Pour quelles tâches, souhaitons-nous créer ces entités artificielles ? Comment peuvent-elles nous aider sans prendre le travail des hommes et pour le bien-être de tous ?

Laurence Devillers, CNRS – LIMSI :
http://www.pourlascience.fr/ewb_pages/a/article-comment-evaluer-les-capacites-humaines-des-robots-38475.php Juin 2017

ROMEO - Livre 3


Tester les robots pour bien vivre avec – L. Devillers : Dialoguer, apprendre, détecter l’état 
émotionnel de ses interlocuteurs, faire de l’humour… : certaines machines le font déjà. Mais il sera indispensable de bien évaluer ces capacités si l’on veut utiliser et côtoyer des robots en toute confiance.

L’époque où une demande de renseignements par téléphone exigeait de taper sur des touches de son appareil avant d’obtenir l’information enregistrée ou de joindre le bon interlocuteur humain s’achève. De plus en plus, nous tombons sur des répondeurs « intelligents » auxquels on s’adresse en parlant naturellement, et qui nous renseignent aussi en langage naturel. Et la conversation avec une machine est loin de se limiter à des échanges téléphoniques. On peut aujourd’hui parler à son téléphone portable ou à son ordinateur pour lui demander de retrouver l’adresse d’un ami, d’envoyer un courriel, d’ouvrir telle ou telle application, de se connecter à tel ou tel site, voire de converser, tout simplement.

Plus généralement, interagir et dialoguer avec une machine, qu’il s’agisse d’un téléphone, d’un appareil domestique ou d’un robot industriel devient de plus en plus banal. Ce qui sous-entend certaines capacités élaborées de la machine, ou plus exactement des logiciels dont elle est munie. Les systèmes les plus avancés de ce type sont aujourd’hui composés de plusieurs modules, tels que des modules de reconnaissance de la parole, de reconnaissance de quelques expressions émotionnelles, de compréhension, de dialogue, de génération de réponses et de synthèse de la parole. Connectés sur Internet ou embarqués sur un objet ou un robot, ces programmes, invisibles aux yeux des utilisateurs, sont ce qu’on nomme des agents conversationnels, ou encore robots bavards (chatbots en anglais). Le premier d’entre eux était Eliza, construit au MIT (l’institut de technologie du Massachusetts) vers 1964-1966 par Joseph Weizenbaum ; ce système simulait un psychothérapeute rogérien, dont la stratégie consiste, pour l’essentiel, à répéter les propos du patient.

Au-delà des avancées scientifiques et techniques mises en œuvre dans les agents conversationnels, l’interaction croissante que nous avons avec ces derniers soulève des questions plus fondamentales, voire stratégiques et éthiques, sur les capacités des machines et sur la relation intersubjective qu’instaurent avec celles-ci leurs utilisateurs humains. En particulier, si l’on veut vivre harmonieusement avec des machines qui nous aident et avec lesquelles nous dialoguons, il apparaît de plus en plus important d’évaluer de façon pertinente, par des batteries de tests reproductibles, ces capacités ainsi que leur impact sur la relation de l’humain avec la machine.

Le test de turing, insuffisant pour plusieurs raisons

Que faut-il tester plus précisément, et comment ? On s’est longtemps focalisé sur l’« intelligence » des machines. D’ailleurs, le domaine dit de l’intelligence artificielle, expression introduite dans les années 1950 par le chercheur américain John McCarthy, a pour objectif de « doter des machines de systèmes informatiques ayant des capacités intellectuelles comparables à celles des hommes ». Or cela suppose notamment que l’on sache comment comparer ces capacités. En 1950, le mathématicien britannique Alan Turing proposait le « jeu de l’imitation » pour déterminer si une machine est intelligente ou non. Il préfigurait l’orientation des futures technologies de l’information et de la communication. Le « test de Turing », comme on le nomme aujourd’hui, consiste à confronter par le biais d’une conversation textuelle deux interlocuteurs – un humain et une machine – à un juge, lequel doit déterminer qui est la machine et qui est l’humain. Si la machine réussit à faire croire à l’examinateur qu’il a affaire à un interlocuteur humain, c’est qu’elle a des capacités qui ressemblent à ce que nous appelons de l’intelligence.

Il existe plusieurs « living labs » en France où tester la coévolution machine/ humain

On oublie trop souvent cette coévolution. Comment faire pour collaborer avec les robots ? Nous sommes de plus en plus conscients qu’il faut travailler avec des  » living labs  » – il y en existe plusieurs en France – où l’on peut tester des technologies avec leurs usagers potentiels. Je me rends ainsi régulièrement avec mon équipe à l’hôpital Broca à Paris pour voir comment les personnes âgées atteintes d’Alzheimer interagissent avec des robots d’assistance Pepper et NAO de SoftBank Robotics et avoir leur assentiment. Parce que le monde réel est d’une complexité incroyable ».

2.6. Publications scientifiques

  • Raja Chatilla, UPMC, Ethics in Robotics Research. IEEE Robotics and Automation Magazine-Volume: 24, Issue: 3, Sept. 2017.

SoftBank Robotics a sponsorisé les conférences ICRE 2015 (International Conference

3. Conclusion

Même si le comité sociétal n’a pas été formellement reconduit dans le cadre du projet ROMEO2, les aspects juridiques et éthiques ont été pris très au sérieux par le consortium. Laurence Devillers, du LIMSI, et Raja Chatila, de l’ISIR, sont des références académiques du domaine. Tous les deux sont régulièrement invités à communiquer, à contribuer aux rapports officiels sur ce thème et ils ont publié bon nombres d’articles traitant notamment des questions éthiques qui vont accompagner le développement de la robotique personnelle.

De son côté, en tant qu’industriel, SBR s’est également investi dans les sujets éthiques et légaux. Rodolphe Gelin a souvent pu exprimer publiquement le positionnement de SBR sur ces questions. Dans le livre qu’il a écrit avec le directeur juridique de SBR, Olivier Guilhem, aux éditions de la documentation française, il présente, d’un point de vue pratique, les problèmes non techniques que les industriels de la robotique personnelle vont rencontrer: la protection des données personnelles que le robot pourra collecter en partageant notre quotidien et la définition des responsabilités en cas d’accident. Sur ce dernier point, si les lois actuelles, s’appuyant sur la responsabilité du fait des choses ou liée aux produits défectueux pourront couvrir l’essentiel des problèmes pouvant survenir dans l’état actuel de la technologie, il ne fait pas de doute qu’avec des robots de plus en plus autonomes et apprenant tout au long de leur “existence”, il faudra adapter l’arsenal juridique. Pour des robots particulièrement sophistiqués, on pourrait en venir à imposer, comme pour l’automobile, une assurance voire même un permis d’utiliser les robots pour s’assurer que l’utilisateur maîtrise suffisamment l’outil robotique.

Si aujourd’hui, il n’y a pas de vide juridique dans lequel pourrait tomber l’utilisation des robots, certaines questions restent encore ouvertes et que chercheurs et industriels, sciences dures et sciences humaines, doivent continuer à réfléchir aux solutions qui permettront d’assurer que des machines toujours plus intelligentes restent au service de l’homme et de son épanouissement général.