Soulever la question de l’éthique des agents conversationnels revient à poser celle de la technologie sous-jacente : l’intelligence artificielle. Les agents conversationnels sont en effet l’une des principales déclinaisons de l’intelligence artificielle (IA) appliquée à l’amélioration de la relation client. Leurs performances accrues les rendent désormais souvent difficiles à distinguer des interactions avec un être humain. De fait, l’intelligence artificielle est vouée à occuper une place centrale dans nos vies personnelles et professionnelles. Une importance croissante qui impose de définir les risques éthiques qu’elle représente, pour les anticiper et s’en protéger.
L’agent conversationnel devrait-il se présenter ?
C’est ce qu’a décidé l’état de Californie (USA), qui a légiféré en septembre 2018 pour une mise en œuvre dès juillet 2019. Le souci de transparence est au cœur de cette nouvelle législation. Les progrès continus dans le traitement automatique du langage naturel (TALN) empêchent en effet fréquemment de savoir si l’on s’adresse à un assistant virtuel conversationnel particulièrement efficace, ou à un humain. Ce qui vaut aussi bien à l’écrit qu’à l’oral, les voix synthétisées étant de plus en plus réalistes.
En vérité, cette loi a surtout pour vocation de clarifier l’intervention des agents conversationnels utilisés à des fins commerciales ou politiques. Les chatbots mis à disposition des clients d’une entreprise pour les assister dans certaines démarches devront certes se plier à cette législation, mais n’étaient pas en ligne de mire du législateur californien.
Au-delà des chatbots, l’éthique des IA et des hommes qui la conçoivent
Au départ, par essence, l’intelligence artificielle est finalement neutre. Sans conscience, ni jugement moral. Ce sont les ingénieurs et autres créateurs d’algorithmes qui en élaborent les usages, les principes et en définissent bien sûr les limites (autres que les limitations techniques). Parmi les questions éthiques que soulève le développement de l’intelligence artificielle :
- Quid du niveau d’autonomie de IA et de l’humain
- Quid de la véracité des données que l’homme leur partage, de la confiance à accorder aux données qui vont ensuite guider les décisions de l’IA
- Quid de la pertinence des décisions que prendra l’IA afin qu’elles ne soient pas biaisées et soient au bénéfice de l’Homme et du progrès
Chaque révolution technologique s’est accompagnée de débats éthiques, de craintes de dérives ou d’incompréhensions. L’intelligence artificielle et les chatbots ne font naturellement pas exception. L’éthique des agents conversationnels à intelligence artificielle sera au final celle que les humains lui donneront.
Coup de projecteur sur des problématiques d’éthique appliquée aux agents conversationnels
- IA & véhicules autonomes : A l’instar d’autres villes ou états où ils sont testés (Californie, Nevada, Singapour, Pittsburg…), l’Allemagne préparait depuis 2015 un cadre législatif pour la circulation des véhicules autonomes. Le Parlement a finalement adopté en mai 2017 une loi qui autorise les constructeurs automobiles à tester leurs voitures autonomes sur les routes du pays, sous certaines conditions. Une présence humaine au volant est par exemple requise. Une boîte noire est également obligatoire à bord pour déterminer quelle partie du trajet a été réalisée de manière autonome ou par la voiture.
- IA & Google : Google Duplex est un nouvelle déclinaison d’IA permettant de passer des appels téléphoniques et de prendre des rendez-vous à la place des humains. Dans une démonstration lors de la conférence 2018 Google I/O, la technologie a fait forte impression, entraînant de nombreux débats sur les dérives potentielles d’une technologie qui devient très performante. En réponse à ces débats, Google précise qu’avant chaque appel, Duplex s’identifie en tant que « service de réservation automatisé de Google », et informe son interlocuteur qu’il est enregistré.