IA : Les robots parmi nous (d’après le livre Johan Rochel)


Le contexte de l’activité est le suivant: la robotique et l’IA évoluent ensemble. De manière imagée, l’IA concerne la capacité des robots de traiter de l’information complexe et de prendre des décisions. Si les systèmes d’IA embarqués s’améliorent, alors la capacité d’autonomie et de communication du robot s’améliore.


Intelligence artificielle. Générateurs

  • Thème : Enjeux sociaux II (Thèmatique IA et enjeux de l’automatisation)

  • Niveau : facile

  • Durée : 1 période de 45 minutes

  • Objectifs pédagogiques :
        1 .Prendre conscience de l’omniprésence de la robotique.
        2. Réfléchir sur les questions éthiques posées par l’utilisation de robots autonomes avec de l’IA.
        3. Développer une démarche pour débattre de ces questions et choisir collectivement les règles applicables aux robots.

  • Modalité : classe entière, tablettes ou téléphones portables

  • Matériel :
        1. Votre robot : Fiches de dessin A5 à imprimer et à découper, 4 par feuille
        2. Classification : Robots explications à imprimer et Robots sources (pour approfondir)
        3. Mise en commun : Présentation PPX

  • Prérequis : aucun

Déroulement

Étape

Durée

Phase de l’activité

1. Votre robot

10 min

Mise en situation

2. Classification

10 min

Apprentissage

3. Scénario catastrophe

10 min

Apprentissage

4. Discussion

5 min

Discussion

5. Mise en commun

10 min

Enseignement

6. Prolongement (optionnel)

Réinvestissement

1. Votre robot

Durée. 5 à 10 minutes

Objectif pédagogique. Explorer les imaginaires de la classe.

Modalité. Travail individuel.

Matériel. Fiches de dessin A5 (à imprimer en A4, 4 par feuille).

Activité. Remplir la fiche de dessin avec les informations suivantes :
    1. Dessinez un robot.
    2. Décrivez le robot (par. ex.: nom, fonction, environnement).

2. Classification

Durée. 10 à 15 minutes

Objectif pédagogique. S’approprier le concept d’autonomie et sa gradation.

Modalité. Travail en groupes de 4 à 5 personnes.

Activité. Classifiez les robots du moins au plus autonome en vous référant aux explications et aux vidéos accessibles par QR code :
    1. Le robot est-il contrôlé par un humain ?
    2. Le robot est-il capable de choisir comment réaliser un objectif ?
    3. Le robot peut-il continuer à apprendre de nouveaux comportements ?

Matériel. Des explications (et sources en option) à imprimer :

Un kit de jeu, disponible dans chaque gymnase, qui contient:

  • Plateau, à imprimer en A3

  • Cartes de robots : (à découper)
            1. Voiture autonome
            2. Robot chirurgical
            3. Robot chien
            4. Robot assistant thérapeutique
            5. Robot humanoïde
            6. Robot sur Mars
            7. Robot aspirateur
            8. Robot industriel
            9. Robot tueur
            10. Robot démineur
            11. Robotique portative
            12. Robot agriculteur

3. Scénario catastrophe

Durée. 5 à 10 minutes

Objectif. Identifier des questions éthiques liées à l’utilisation de robots autonomes.

Matériel. Cartes robot aspirateur et voiture autonome.

Modalité. Travail en groupes par 4 à 5 personnes.

Activité. Imaginez un robot humanoïde qui accueille les clients à l’entrée d’un magasin. Imaginez des scénarios catastrophe où son utilisation finit mal. Une transition facile est possible lorsque le robot humanoïde est classé parmi les plus autonomes.

Pistes de correction. Exemples de scénarios catastrophe :

  • Perte de travail pour les métiers de l’accueil : chômage.

  • Ecrase le pied d’un client : atteinte à l’intégrité physique.

  • Moins de contact humain : dégradation des relations sociales et isolement.

  • Service déplorable : propos racistes.

  • Tombe en panne : perte de compétences du côté humain.

Attention aux points sensibles suivants :

  • Représentations fantasmée due aux films et séries

  • Confrontations / rapport de force dues à des positions totalement négatives ou positives sur les robots et IA

  • Utilisation détournée et non adaptée : chat dans le micro-onde, robot-tueur dans le jardin pour éloigner les oiseaux

  • Situation imprévue : feu en Californie - gps qui envoie sur les routes vides

  • Distinguer les programmeurs des responsables d’entreprises créateurs de robots

4. Discussion

Durée. 5 à 10 minutes

Objectif. Réaliser la complexité de la responsabilité.

Modalité. Travail collectif ou en groupes selon temps à disposition.

Activité. Qui porte une part de responsabilité dans votre scénario catastrophe : le robot, le(s) investisseur(s), le(s) programmeur(s), les décideur(s) politiques, les vendeur(s), les utilisateur(s) ?

Pistes de correction. Moduler la discussion des élèves selon arguments suivants :

  • A travers des situations de responsabilité, faire émerger les conditions de base de la responsabilité:

    • Savoir : j’ai connaissance des conséquences futures (potentielles, prévisibles,…)

    • Pouvoir : j’ai la capacité d’agir autrement/la capacité de contrôler la situation

  • On peut utiliser ces deux critères pour discuter la responsabilité des uns et des autres dans les différents scénarios

  • Le robot ne peut être moralement responsable, car il n’a pas d’autonomie/liberté. Il réalise ce qui a été décidé pour lui. Il faut donc chercher l’humain derrière le robot. Les responsabilités doivent être portées par des humains.

  • Penser la responsabilité comme une chaîne de responsabilités: contribution à un produit final ; gestion des risques ; identification des impacts possibles (ex : cas d’Elaine Herzberg et voiture autonome Uber)

  • Rôle du législateur/régulateur (politique): créer les conditions-cadres de l’innovation ; allouer les responsabilités générales ; rôle du droit comme facteur de coordination (ex : SFPD robots policiers tueurs autorisés le temps de quelques jours)

5. Mise en commun

Durée. 5 à 10 minutes

Objectif. Faire prendre conscience aux étudiant-es qu’ils peuvent jouer un rôle actif.

Activité. Comment prendre cette responsabilité, le plus concrètement possible ? (ex : choix entre la caisse enregistreuse humaine ou automatique).

Pistes de correction. Que peut-on faire en tant que citoyen·ne ?

  • Suivre / participer aux débats publics. [Mémoriser]

  • Consommateurs / utilisateurs critiques et éclairés (aller au-delà de l’apparence et l’utilité du robot). [Comprendre]

  • Ecrire aux entreprises pour rapporter les problèmes. [Appliquer]

  • Prendre des choix individuels réfléchis. [Analyser] Voter pour choisir les législateurs. [Evaluer]

  • Créer des robots responsables avec une anticipation des risques. [Créer]

Remarque : ne pas rester sur une sensation d’inéluctabilité et d’impuissance. Tout est encore à décider, les élèves pourront prendre part des réflexions et décisions futures en la matière.

6. Prolongements possibles

Droits des robots. Imaginez un futur où les robots auront une conscience. Ci-dessous nous avons repris la déclaration des droits de l’homme et avons remplacé le terme “hommes” par “robots”. (https://www.un.org/fr/universal-declaration-human-rights/)

Quelles difficultés cela pose ?

    Article premier Tous les robots naissent libres et égaux en dignité et en droits. Ils sont doués de raison et de conscience et doivent agir les uns envers les autres dans un esprit de fraternité.

    Article 3 Tout individu a droit à la vie, à la liberté et à la sûreté de sa personne.

    Article 4 Nul ne sera tenu en esclavage ni en servitude; l’esclavage et la traite des esclaves sont interdits sous toutes leurs formes.

Robotique. Créer des véhicules de Braitenberg avec Thymio et réflechir sur leur autonomie et conscience (https://en.wikipedia.org/wiki/Braitenberg_vehicle).

Législation. Proposer une régulation de l’usage des robots. Il est possible de la comparer aux quatre catégories de risque du European AI Act : https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai.

La rhétorique des promesses. Lire “Les promesses des technosciences n’engagent que ceux qui les croient” de Marc Audétat. Analyser des tweets qui promettent des avancées technologiques trop optimistes, p. ex : Sophia the Robot, Summon vs AlphaGo & AlphaFold .

Les trois lois de la robotique par Asimov. Chercher les failles :

    Première loi Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;

    Deuxième loi Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;

    Troisième loi Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Ethique des animaux. Lire “Le moment est venu de reconnaître un statut juridique aux robots” de Sylvain Métille & Nicolas Guyot. et faire un parallèle au niveau des lois.

Kit de survie pour les enseignants

Définition de robot

Le robot est une (1) machine, (2) située dans le monde (avec une existence physique), (3) qui réalise trois fonctions. Il perçoit son environnement (grâce par ex. à des capteurs), il traite l’information (par ex. Grâce à des outils d’IA) et il agit en retour sur son environnement.

Définition d’intelligence artificielle

L’intelligence artificielle est un concept difficile à définir. Il peut être défini comme un ensemble de techniques et d’outils visant à imiter l’intelligence humaine et ses différentes fonctions spécifiques (par ex. raisonnement logique). Ce genre de définitions conduit à une discussion sur la définition de l’intelligence humaine et sur la capacité des machines à reproduire certaines ou la totalité de ces opérations. Par contraste, l’intelligence artificielle peut-être définie comme un ensemble de résultats (par ex. des recommandations, des suggestions, des classifications) obtenus selon différents procédés techniques. Ce genre de définition a l’avantage de se focaliser sur le résultat des systèmes d’IA, et non sur une analogie/comparaison avec l’intelligence humaine.

Voir par exemple la définition en discussion dans la législation européenne (AI Act, Art. 3): «système d’intelligence artificielle» (système d’IA), un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.

Annexe I:

  • Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond.

  • Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence et de déduction, le raisonnement (symbolique) et les systèmes experts.

  • Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation.

Définition d’éthique

L’éthique est une sous-famille de la philosophie. Elle s’intéresse à la question du bien-agir. L’éthique des technologies cherche à identifier, définir et mettre en œuvre certaines normes (valeurs, principes, ou convictions) dans des outils/pratiques/choix politiques. Dans le cadre du développement d’un robot, l’éthique porte sur les choix effectués tout au long du processus, puis sur les impacts du robot sur les interactions sociales.

Définition d’autonomie

L’autonomie est un concept central de la philosophie morale et politique. De manière générale, ce concept indique l’idée, pour un individu, de la capacité à choisir pour soi-même et par soi-même. Une décision autonome est une décision que l’individu prend et dont il peut dire qu’elle est “sa” décision. De manière générale, on peut distinguer entre une “autonomie au sens de l’ingénierie” et une “autonomie au sens philosophique”. L’autonomie “ingéniérie” porte sur les moyens d’atteindre un objectif prédéfini par un tiers. La voiture autonome définit le meilleur moyen de relier les points A et B, étant données certaines contraintes. A l’inverse, l’autonomie au sens philosophique va plus loin. Elle englobe la capacité des humains à utiliser des valeurs morales pour guider leurs décisions et à réviser ces valeurs morales. Mes choix de vie sont guidés par des convictions personnelles (qui me permettent d’accepter ou de refuser certaines choses), mais ces convictions peuvent elles-mêmes évoluer dans le temps.

Définition de responsabilité

La responsabilité est un concept central de la philosophie morale et politique. Le concept est souvent utilisé pour analyser un événement passé et établir d’éventuelles fautes morales. Dans ce contexte, on dira qu’une personne est responsable de l’événement X si deux conditions générales sont remplies: savoir (la personne avait connaissance des enjeux/conséquences) et pouvoir (la personne avait la capacité d’agir différemment). La discussion porte souvent sur la qualification de ces conditions (par ex. La personne ne savait pas, mais aurait-elle dû se renseigner ? pouvait-on attendre d’elle qu’elle fasse l’effort d’aller chercher l’information ?).

(gen.thématique)=

Liens avec d’autres thématiques

  • Travail numérique

  • Intelligence artificielle (Modulo)