Il y a quelque temps j’ai vu le film Companion de Drew Hancock, où un robot de compagnie tue un homme dans une situation où lui le robot est agressé et alors qu’il est réglé pour se défendre. Ce film illustre un futur proche qui verra l’explosion du nombre d’intelligences artificielles dans la société, tant dans les entreprises que dans le grand public pour toutes sortes d’usage et pose la question de la responsabilité juridique de leurs actions.
Différents types d’IA et de robots
Il existe différents types d’intelligences artificielles (IA) et de robots, ils peuvent être distingués en fonction de leurs fonctionnalités et de leurs objectifs. Il y a :
• Les IA axées sur le traitement des idées et des concepts qui se concentrent sur l’analyse, la compréhension et la génération d’informations, de concepts ou d’idées abstraites (IA de traitement du langage naturel, exemple ChatGPT …, IA de création, exemple DALL-E …, IA analytique et prédictive, exemple IBM Watson …, IA pour la recherche scientifique, exemple DeepMind …). Elles ne sont pas conçues pour interagir physiquement avec le monde.
• Les robots ou IA manipulant physiquement le monde, ils combinent des algorithmes d’IA avec des capacités physiques pour interagir avec l’environnement (Robots industriels, bras robotiques dans les usines, robots mobiles et autonomes, exemple Boston Dynamics …, cobots qui collaborent avec les humains, exemple Universal Robots ..., robots humanoïdes, exemple Sophia d’Hanson Robotics …, microrobots et nanorobots, exemple Microrobots pour la médecine …).
• Les IA hybrides (concept et physique) qui combinent le traitement conceptuel et l’interaction physique avec le monde réel (Robots chirurgicaux, exemple Da Vinci …, véhicules autonomes, exemple Tesla …).
• Les IA spécialisées dans la prise de décision et la gestion qui sont conçues pour résoudre des problèmes liés à la gestion de systèmes complexes (Systèmes experts, exemple Prolog …, agents de planification et optimisation, système de gestion logistique, planificateurs de trafic aérien ...).
• Les IA émotionnelle et sociale qui sont dédiées à l’interaction humaine, elles reconnaissent des émotions humaines pour adapter les réponses par thérapie, ou pour un soutien émotionnel, ou l’éducation (exemple Replika …).
Utilisation d’IA et de robots par les militaires
Il existe déjà des robots autonomes capables de tuer, on les dénomme SALA pour systèmes d'armes létales autonomes ou plus vulgairement « robots tueurs ». Ils sont capables de mener une action létale, sans intervention humaine directe. Cela signifie qu’ils peuvent identifier une cible, décider de l’attaquer et exécuter cette attaque de manière autonome. Ces systèmes peuvent être : des drones armés autonomes, des robots terrestres ou marins, comme des mini-tanks ou des sous-marins comme le Maritchka ukrainien, des systèmes fixes comme le Samsung SGR-A1 qui est utilisé pour surveiller la zone démilitarisée entre les deux Corées.
L’Ukraine est actuellement un laboratoire de guerre autonome où l’on multiplie les expérimentations, notamment pour répondre à la supériorité militaire russe (drones autonomes, essaims de drones coordonnés par IA pour des attaques synchronisées, mitrailleuses automatisées dotées de vision par ordinateur, capables de repérer et tirer sur des menaces). Au Moyen-Orient, Israël utilise des moyens de ciblage massif (Lavender, un système d’IA qui aurait identifié jusqu’à 37 000 Palestiniens comme "militants", Gospel, un système utilisé pour sélectionner les structures à frapper, Iron Dome, un système de défense antimissile autonome, capable d’intercepter des projectiles sans intervention humaine).
Évidemment, ces systèmes tueurs sont inquiétants, car le fait de laisser à une IA le pouvoir de tuer soulève des questions profondes, notamment avec les risques d’erreurs, les possibles biais algorithmiques, ou les éventuels piratages. La responsabilité juridique en cas de bavure est floue : qui est responsable ?
De la responsabilité des robots dans le monde civil
Aujourd’hui, les robots ne sont pas reconnus comme des entités responsables, ils n’ont pas un cadre juridique spécifique et en cas d’accident la responsabilité est attribuée à un humain :
• Le fabricant : s’il est prouvé qu’un défaut de conception, de fabrication est à l’origine de l’accident.
• Le programmeur ou développeur : si une erreur dans le logiciel (bug, algorithme défaillant) a conduit à l’incident.
• L’utilisateur : si ce dernier a mal utilisé ou configuré le robot, ou s’il a ignoré les consignes de sécurité.
• L’employeur : dans le cas où le robot est utilisé dans un cadre professionnel (par exemple, un robot industriel).
Cependant, lorsqu’un robot agit de manière imprévisible, il est parfois difficile de déterminer la cause de l’accident, la responsabilité est floue et ceci d’autant plus que les systèmes complexes basés sur l’apprentissage automatique sont souvent des "boîtes noires" rendant difficile l’identification des erreurs. Face à ce problème, certains experts pensent qu’il faudrait donner un statut juridique aux IA, car cela permettrait de les tenir pour responsables et de pouvoir financer les indemnisations, via une assurance obligatoire liée à chaque IA, dans les cas où les responsabilités ne sont pas clairement établies.
En conclusion
Les IA & les robots vont largement se généraliser, il semble même qu’ils vont assister les hommes ou se substituer à eux dans toutes leurs activités. Cependant, comme « le rire est le propre de l’homme » selon Rabelais, certains pensent que les IA auront du mal dans ce domaine. Il existe différents types d’humour : l’ironie, le sarcasme, l’humour noir qui blague sur des sujets graves, la parodie, l’autodérision … et pour être drôle, il faut par exemple de façon non limitative, de l’incongruité, des jeux de mots, des transgressions sociales ou morales, des surprises, une complicité avec le public … Cependant, je pense que l’on verra un jour des robots humoristes qui nous feront mourir de rire et il n’y aura aucune suite judiciaire dans ce cas.
Pour finir sur une touche d’humour : cliquez ici
Il existe différents types d’intelligences artificielles (IA) et de robots, ils peuvent être distingués en fonction de leurs fonctionnalités et de leurs objectifs. Il y a :
• Les IA axées sur le traitement des idées et des concepts qui se concentrent sur l’analyse, la compréhension et la génération d’informations, de concepts ou d’idées abstraites (IA de traitement du langage naturel, exemple ChatGPT …, IA de création, exemple DALL-E …, IA analytique et prédictive, exemple IBM Watson …, IA pour la recherche scientifique, exemple DeepMind …). Elles ne sont pas conçues pour interagir physiquement avec le monde.
• Les robots ou IA manipulant physiquement le monde, ils combinent des algorithmes d’IA avec des capacités physiques pour interagir avec l’environnement (Robots industriels, bras robotiques dans les usines, robots mobiles et autonomes, exemple Boston Dynamics …, cobots qui collaborent avec les humains, exemple Universal Robots ..., robots humanoïdes, exemple Sophia d’Hanson Robotics …, microrobots et nanorobots, exemple Microrobots pour la médecine …).
• Les IA hybrides (concept et physique) qui combinent le traitement conceptuel et l’interaction physique avec le monde réel (Robots chirurgicaux, exemple Da Vinci …, véhicules autonomes, exemple Tesla …).
• Les IA spécialisées dans la prise de décision et la gestion qui sont conçues pour résoudre des problèmes liés à la gestion de systèmes complexes (Systèmes experts, exemple Prolog …, agents de planification et optimisation, système de gestion logistique, planificateurs de trafic aérien ...).
• Les IA émotionnelle et sociale qui sont dédiées à l’interaction humaine, elles reconnaissent des émotions humaines pour adapter les réponses par thérapie, ou pour un soutien émotionnel, ou l’éducation (exemple Replika …).
Utilisation d’IA et de robots par les militaires
Il existe déjà des robots autonomes capables de tuer, on les dénomme SALA pour systèmes d'armes létales autonomes ou plus vulgairement « robots tueurs ». Ils sont capables de mener une action létale, sans intervention humaine directe. Cela signifie qu’ils peuvent identifier une cible, décider de l’attaquer et exécuter cette attaque de manière autonome. Ces systèmes peuvent être : des drones armés autonomes, des robots terrestres ou marins, comme des mini-tanks ou des sous-marins comme le Maritchka ukrainien, des systèmes fixes comme le Samsung SGR-A1 qui est utilisé pour surveiller la zone démilitarisée entre les deux Corées.
L’Ukraine est actuellement un laboratoire de guerre autonome où l’on multiplie les expérimentations, notamment pour répondre à la supériorité militaire russe (drones autonomes, essaims de drones coordonnés par IA pour des attaques synchronisées, mitrailleuses automatisées dotées de vision par ordinateur, capables de repérer et tirer sur des menaces). Au Moyen-Orient, Israël utilise des moyens de ciblage massif (Lavender, un système d’IA qui aurait identifié jusqu’à 37 000 Palestiniens comme "militants", Gospel, un système utilisé pour sélectionner les structures à frapper, Iron Dome, un système de défense antimissile autonome, capable d’intercepter des projectiles sans intervention humaine).
Évidemment, ces systèmes tueurs sont inquiétants, car le fait de laisser à une IA le pouvoir de tuer soulève des questions profondes, notamment avec les risques d’erreurs, les possibles biais algorithmiques, ou les éventuels piratages. La responsabilité juridique en cas de bavure est floue : qui est responsable ?
De la responsabilité des robots dans le monde civil
Aujourd’hui, les robots ne sont pas reconnus comme des entités responsables, ils n’ont pas un cadre juridique spécifique et en cas d’accident la responsabilité est attribuée à un humain :
• Le fabricant : s’il est prouvé qu’un défaut de conception, de fabrication est à l’origine de l’accident.
• Le programmeur ou développeur : si une erreur dans le logiciel (bug, algorithme défaillant) a conduit à l’incident.
• L’utilisateur : si ce dernier a mal utilisé ou configuré le robot, ou s’il a ignoré les consignes de sécurité.
• L’employeur : dans le cas où le robot est utilisé dans un cadre professionnel (par exemple, un robot industriel).
Cependant, lorsqu’un robot agit de manière imprévisible, il est parfois difficile de déterminer la cause de l’accident, la responsabilité est floue et ceci d’autant plus que les systèmes complexes basés sur l’apprentissage automatique sont souvent des "boîtes noires" rendant difficile l’identification des erreurs. Face à ce problème, certains experts pensent qu’il faudrait donner un statut juridique aux IA, car cela permettrait de les tenir pour responsables et de pouvoir financer les indemnisations, via une assurance obligatoire liée à chaque IA, dans les cas où les responsabilités ne sont pas clairement établies.
En conclusion
Les IA & les robots vont largement se généraliser, il semble même qu’ils vont assister les hommes ou se substituer à eux dans toutes leurs activités. Cependant, comme « le rire est le propre de l’homme » selon Rabelais, certains pensent que les IA auront du mal dans ce domaine. Il existe différents types d’humour : l’ironie, le sarcasme, l’humour noir qui blague sur des sujets graves, la parodie, l’autodérision … et pour être drôle, il faut par exemple de façon non limitative, de l’incongruité, des jeux de mots, des transgressions sociales ou morales, des surprises, une complicité avec le public … Cependant, je pense que l’on verra un jour des robots humoristes qui nous feront mourir de rire et il n’y aura aucune suite judiciaire dans ce cas.
Pour finir sur une touche d’humour : cliquez ici