# IA et enjeux de l'automatisation, partie 1
Cette première partie du dossier IA et enjeux de l’automatisation propose une contextualisation historique de l’émergence de l’intelligence artificielle en présentant quelques moments clés de la discipline. Il est complété par un état des lieux concernant les différents usages et applications actuels des technologies de l’apprentissage automatique.
## Objectifs
- Comprendre le contexte
d’émergence de l’intelligence
artificielle
- Différencier les courants
symbolique et connexionniste
- Se rendre compte de la pluralité
des applications de l’IA
- Identifier des situations du
quotidien où l’IA intervient
## Enjeux
Depuis la moitié du XXe siècle, les scientifiques essaient de simuler le
raisonnement grâce aux machines. L'histoire de
l'intelligence artificielle est d'abord
marquée par de grandes ambitions et connaît successivement plusieurs
phases d'engouement et de déceptions. Elle se nourrit et
nourrit elle-même des récits de science-
fiction, dont les personnages artificiels, robots, androïdes ou simples
voix de synthèse, influencent à leur tour les imaginaires collectifs. En
résultent de nombreuses croyances, des craintes, mais également des
espoirs, qui ne correspondent pas toujours à l'état des avancées
technologiques actuelles.
Les récentes performances dans le domaine de
l'apprentissage automatique appellent à une réflexion sur
la définition de l'IA en tant que catégorie générale
d'une part, et sur les particularités des technologies
qu'elles englobent d'autre part. Un retour aux
sources du projet visant à simuler le raisonnement permettra également
de comprendre les motivations, les ambitions mais aussi les limites de
certaines applications de l'IA.
### 🧠 IA, une définition
L'intelligence artificielle est un terme à la mode,
fréquemment évoqué dans le débat public et dans les médias. Malgré cette
popularité certaine, rares sont les tentatives d'expliquer
précisément ce qu'est l'IA. Il
s'agit en fait d'une notion générique qui
désigne différentes technologies du traitement automatique de
l'information, ayant pour objectif de simuler le
raisonnement. Aujourd'hui, l'IA fait
principalement référence à l'apprentissage automatique,
aussi connu dans sa version anglaise de *machine learning*.
Les technologies de l'IA partagent des caractéristiques
communes. Elles sont développées par des informaticiens et visent à
imiter certaines fonctions cognitives propres à l'être humain:
l'apprentissage de règles, le raisonnement logique, le
langage, la planification ou encore la reconnaissance
d'images ou de sons. Pour ce faire, une modélisation de ces
processus est nécessaire à l'aide des mathématiques, de
l'algorithmique et de la programmation.
Un contexte socio-technique favorable a permis aux premières tentatives
de simulation de l'intelligence de voir le jour. Dans les
années 1940, le mathématicien Norbert Wiener développe la cybernétique,
un courant de pensée permettant d'appréhender conjointement
le fonctionnement du vivant et des machines à partir des théories de la
communication. Tous deux auraient les mêmes capacités
d'adaptation basées sur des capteurs percevant leur
environnement. Très populaire au sein de l'élite scientifique
américaine, cette approche pose les bases théoriques nécessaires à
l'émergence de l'IA.
Sur le terrain, le développement des premiers calculateurs électroniques
durant la Seconde Guerre mondiale permet de tester le potentiel de la
cybernétique. Deux approches principales vont se distinguer et
s'opposer au fil de l'histoire, avec
d'un côté l'IA connexionniste et de
l'autre l'IA symbolique.
### 📜 Un peu d'histoire
L'histoire de l'IA est principalement composée
de deux courants distincts qui ambitionnent de simuler le raisonnement
humain grâce aux machines. Longtemps ostracisée par
l'approche symbolique, l'IA connexionniste
s'est aujourd'hui imposée avec les
performances de l'apprentissage automatique et des réseaux
de neurones, inspirés des connaissances du cerveau humain.
En 1955, les mathématiciens américains John McCarthy et Marvin Minsky
organisent le premier projet de recherche sur
l'intelligence artificielle et fondent l'année
suivante le domaine scientifique de l'IA. Leurs ambitions
sont clairement énoncées : ils s'appuient sur la conjecture
que l'apprentissage et l'intelligence sont des
processus suffisamment compris pour qu'ils puissent être
reproduits artificiellement. Ils envisagent ainsi de modéliser le
raisonnement grâce à des manipulations mathématiques et logiques de
symboles.
![Image 1](media/image1.png)
Fonctionnement d'une machine symbolique (1) et
connexionniste (2). En haut, les informations nécessaires aux
calculateurs sont fournies a priori afin d'obtenir les
résultats. En bas, la machine connexionniste déduit le modèle en
fonction des entrées et des sorties.[^1]
Les systèmes experts, qui connaissent un important succès dans les
années 1980, appartiennent à ce courant. Trop complexes, ils offrent des
résultats peu satisfaisants et sont abandonnés en une décennie. Débute
alors une période creuse en terme d'avancées scientifiques,
parfois appelée hiver de l'IA. Aujourd'hui,
les systèmes experts sont toujours utilisés dans des domaines tels que
les jeux vidéo, mais ils ne font plus partie du domaine scientifique de
l'IA.
Depuis le milieu des années 2000, les performances de
l'approche connexionniste permettent un retour en force de
l'IA. Contrairement à l'IA symbolique, elle
s'inspire directement du fonctionnement du cerveau humain.
Ce projet prend racine dès 1943, grâce aux neuroscientifiques
américains
Warren McCulloch et Walter Pitts, qui proposent pour la première fois un
modèle mathématique représentant un neurone. Le terme
n'existe pas encore à l'époque, mais cette date marque le
début de l'approche connexionniste de l'IA.
Sur la base des connaissances en biologie, les neurones formels vont
être mis en connexion afin de former des réseaux et de simuler
l'apprentissage. Pour ce faire, les neurones captent les
signaux de leur environnement et établissent des modèles prédictifs sur
une base d'entrées et de sorties (cf. Schéma ci-contre).
En 1989, l'ingénieur français Yann LeCun
s'inspire de la métaphore des neurones et crée un réseau
multicouche capable de reconnaître automatiquement des codes postaux
manuscrits. Cette technique sera reprise par le secteur bancaire afin de
lire automatiquement des chèques. Il s'agit de
l'une des premières utilisations à grande échelle
d'une technique d'apprentissage automatique
basée sur des réseaux de neurones formels.
Près de trois décennies plus tard, l'optimisation des
réseaux de neurones et des algorithmes, associée à
l'augmentation considérable de la puissance de calcul des
ordinateurs et aux importants volumes de données disponibles (big data),
replacent l'IA au centre des intérêts scientifiques et
technologiques. En effet, les masses de données sont un élément
essentiel à l'entraînement des modèles
d'apprentissage
### ☝ Comment ça marche ?
Pour établir des modèles prédictifs efficaces, les réseaux de neurones
de l'IA connexionniste sont entraînés par des algorithmes à
traiter et agréger d'importantes quantités de données. On
parle d'apprentissage automatique puisque les algorithmes
établissent des modèles à partir des données qui leur sont fournies. Il
existe plusieurs types d'apprentissages.
L'apprentissage supervisé requiert
l'intervention humaine pour labelliser les données,
corriger les erreurs lors des phases d'entraînement et
obtenir les modèles souhaités. Par exemple, pour apprendre à reconnaître
un chat, un algorithme considère des milliers d'images
préalablement étiquetées "chat" ou "non-chat"
afin d'établir un modèle prédictif qui pourra être appliqué à des images
inconnues. Contrairement au cerveau humain, qui n'a besoin
que de quelques exemples pour reconnaître une forme, l'IA
connexionniste nécessite des volumes importants de données pour établir
ses modèles. L'apprentissage non supervisé consiste à
laisser l'algorithme déterminer ses propres modes de
classification et catégories sans intervention externe.
En 2016, le programme AlphaGo de DeepMind (Google) bat pour la première
fois un joueur professionnel au jeu traditionnel de Go. Une combinaison
des différentes méthodes prenant en compte des parties disputées par des
joueurs humains et d'apprentissage par renforcement
uniquement basé sur l'expérience de la machine permet à
AlphaGo de déduire les coups optimaux. La dernière version du programme
baptisée AlphaGo Zero est parvenue à battre n'importe quel
joueur humain, ainsi qu'AlphaGo lui-même, en ne connaissant
que les règles du jeu.
Les performances actuelles de l'apprentissage automatique
sont certes considérables et dépassent dans certains cas les capacités
humaines. Leurs perspectives demeurent cependant limitées car chaque
réseau de neurones est dépendant du contexte dans et pour lequel il est
développé. Il n'est à ce jour pas possible
d'envisager de les transférer dans un environnement
différent sans un important travail de ré-apprentissage supervisé par
des humains. Pour cette raison, l'IA connexionniste
actuelle est souvent qualifiée d'IA faible ou étroite, en
opposition au projet hypothétique d'IA forte, qui
ambitionne de modéliser toutes les facettes de
l'intelligence, y compris la conscience et les émotions.
Par ailleurs, l'IA connexionniste est fréquemment associée
à un enjeu de transparence. En effet, malgré l'efficacité
de certains modèles prédictifs, la complexité des réseaux de neurones
créent l'effet d'une boîte noire,
caractéristique de l'apprentissage automatique. Même les
concepteurs des algorithmes ne sont pas en mesure
d'expliquer précisément les décisions de leurs programmes.
Cet aspect est souvent présenté comme l'un des défis
majeurs de l'IA contemporaine. Il est intéressant de
souligner que l'enjeu de transparence concerne uniquement
les prises de décision automatisées. En comparaison, les nombreuses
décisions prises par les êtres humains au quotidien ne semblent pas
concernées par cette injonction à la transparence. Pourtant, elles ne
sont pas toujours explicables ni expliquées.
L'effet boîte noire ne remet cependant pas systématiquement
en cause l'application de l'apprentissage
automatique. L'impossibilité d'expliquer
certains choix doit toutefois être prise en compte, en
l'intégrant à des processus non automatisés.
L'appréciation humaine demeure indispensable pour éviter
des prises de décisions arbitraires.
### 🎆 Pluralité des applications
La difficulté à définir précisément l'IA réside en partie
dans la pluralité de ses techniques et de ses applications. Les
prochains exemples, non-exhaustifs, permettent de se rendre compte de la
diversité des champs d'application de l'IA et
de l'évolution de l'utilisation de certaines technologies.
Les débuts de l'IA sont étroitement liés aux institutions
militaires américaines. Dans un premier temps, les technologies du
traitement automatique de l'information reçoivent
d'importants financements de la part de la marine (ONR) et
du Département de la défense (DARPA). Elles comprennent les premiers
programmes de traduction automatique, les logiciels de reconnaissance
d'images ou encore la conduite autonome.
Aujourd'hui encore, la maîtrise des technologies de
l'IA est toujours considérée comme un défi central dans le
secteur militaire à travers le monde.
Petit à petit, ces technologies ont été adaptées à des usages plus
variés. La traduction automatique est désormais utilisée dans nos
pratiques quotidiennes. La reconnaissance de formes et
d'images est employée en médecine et contribue notamment à
l'amélioration de la détection de certaines tumeurs. Google
et Tesla tentent d'intégrer la conduite autonome au trafic.
L'IA façonne également les contenus que nous voyons sur le
Web grâce à ses algorithmes de hiérarchisation et de modération.
Ces exemples montrent que les motivations initiales à produire de
nouvelles technologies peuvent être largement détournées en quelques
décennies. Les technologies ont les mêmes fondements, mais les usages se
sont diversifiés et banalisés. Désormais, elles sont le plus souvent
développées et proposées par des entreprises privées.
L'arrivée de l'IA dans nos quotidiens invite à
réfléchir aux multiples possibilités d'automatisation et
aux conséquences que ces dernières peuvent avoir sur les individus et la
société.
### 🖥 L'IA et les pratiques en ligne
Avec l'avènement des médias sociaux, les entreprises
proposant leurs services sur
Internet ont accès à des volumes de données inédits concernant leurs
utilisateurs. L'IA est utilisée pour gérer et trier ces
importants flux d'informations.
Les moteurs de recherche, les médias sociaux et les plateformes de
streaming récoltent et agrègent automatiquement les traces numériques
laissées par les internautes afin de leur suggérer du contenu
personnalisé. L'exploitation de ces traces permet,
d'une part, de fidéliser l'internaute en lui
proposant du contenu et des services personnalisés et,
d'autre part, d'optimiser les placements
publicitaires.
Plusieurs problèmes émergent face à l'exploitation massive
des données personnelles. Ces méthodes impliquent que des informations
parfois sensibles telles que l'orientation politique,
sexuelle ou religieuse d'une personne soient détenues par
des entreprises privées. Elles touchent directement à la protection de
la vie privée. Les interactions avec les contenus, du simple clic aux
mentions « j'aime », sont également enregistrées et
utilisées à des fins prédictives. L'ensemble des traces
récoltées par les différentes plateformes sont exploitées par des
algorithmes qui établissent des prédictions pour des individus aux
comportements et aux goûts apparemment similaires.
Le traitement automatique des données crée ainsi des bulles de filtre,
qui tendent à enfermer les internautes dans un monde construit
uniquement sur leurs habitudes en ligne et lses contenus
qu'ils consultent. Comme les prédictions sont établies à
partir des traces passées, les publications correspondant à ces
informations seront suggérées. Bien que les bulles de filtre ne soient
pas propres aux pratiques numériques, l'automatisation du
traitement des données tend à les amplifier.
Les algorithmes sont également utilisés pour modérer les contenus
illégaux ou qui ne respectent pas les conditions
d'utilisation des plateformes. Cependant, la modération
automatique des réseaux sociaux n'est pas toujours efficace
et l'incapacité à contextualiser une information engendre
des situations discriminantes. Ainsi, en avril 2019, Facebook a
automatiquement empêché la création d'un compte de soutien
LGBT+, sous prétexte que le mot «lesbienne» contrevenait aux règles de
la plateforme. Plus généralement, la modération automatique
n'est pas assez performante pour localiser et gérer la
totalité des contenus problématiques de manière satisfaisante. Elle
engendre un risque de censure injustifiée, spécialement marqué pour des
communautés déjà sous-représentées. Le principe de liberté
d'expression est ainsi menacé par la modération
automatisée. Pour tenter de résoudre ce problème, une partie du travail
de modération est externalisée et effectuée par des êtres humains.
La pluralité des applications de l'IA et la complexité de
son fonctionnement amènent à réfléchir aux questions de délégation et de
régulation relatives à ces technologies. Quelles tâches peuvent être
déléguées à l'IA? Est-il toujours souhaitable
d'automatiser les prises de décisions? Comment gérer et
réguler ses décisions? Ces thématiques sont présentées dans la deuxième
partie du dossier.
### Ressources
* Le livre du sociologue Dominique Cardon, À quoi rêvent les algorithmes (2015)
* Le livre de l’informaticien et philosophe Jean-Gabriel Ganascia Le Mythe de la singularité
(2017), qui déconstruit les croyances autour de l’intelligence artificielle
* L’article du sociologue Marc Audétat sur la rhétorique de la promesse dans les
technosciences, publié dans Allez Savoir ! (pour l’activité 1b)
* Le documentaire AlphaGo sur sa victoire au jeu de Go face à Lee Sedol
* L’exposition « Intelligence artificielle, nos reflets dans la machine » au Musée de la Main de Lausanne, jusqu’au 23 avril 2023
### Glossaire
* Apprentissage automatique (Machine learning)
* Apprentissage par renforcement
* Apprentissage profond (Deep learning)
* Apprentissage supervisé et non-supervisé
* Boîte noire
* Bulle de filtre
* Cybernétique
* Hiver de l’IA
* Intelligence artificielle connexionniste
* Intelligence artificielle symbolique
* Réseaux de neurones
* Système expert
## Pistes pédagogiques
Pour des idées d'activités sur cette thématique, voir le {download}`dossier`.
[^1]: Schéma adapté de : Cardon, D., Cointet, J. & Mazières, A. (2018).
La revanche des neurones: L'invention des machines inductives et la
controverse de l'intelligence artificielle. *Réseaux*, 211, 173-220.