# IA et enjeux de l'automatisation, partie 2
Cette seconde partie du dossier permet d’approfondir quelques questions relatives à l’IA et à
l’automatisation. Le travail des êtres humains est-il en train de disparaître face à l’automatisation
de certaines tâches? Quels sont les domaines dans lesquels l’IA est particulièrement efficace?
À quoi faut-il faire attention? Comment ses usages et applications peuvent-ils être régulés?
## Objectifs
- Comprendre comment l'IA et l'automatisation impacte et transforme le
marché du travail
- Explorer les forces et les risques relatifs à l'IA
- Étudier le thème de la conduite autonome à travers le prisme de l'IA
## Enjeux
Grâce aux récentes percées de l'apprentissage automatique, l'IA franchit
aujourd'hui une nouvelle étape, comme en témoigne l'augmentation
considérable (AI Report 2022, HAI Stanford) des investissements depuis
2013. Des domaines aussi divers que la santé, l'éducation, mais aussi le
commerce, l'industrie et la recherche intègrent ces technologies et se
transforment. Ce retour en force de l'IA implique un questionnement
accru sur ses effets. Il est notamment question de délégation du travail
et des conséquences sur l'emploi, de transparence, de protection de la
vie privée et de cadre juridique.
### 🎛 Délégation
L'automatisation consiste à déléguer de manière systématique une tâche
ou une prise de décision à une machine. Il existe toujours plusieurs
manières d'envisager la délégation d'une tâche, que ce soit en termes de
faisabilité ou de désirabilité. Dans les deux cas, ses effets sur l'être
humain et la société face aux nouvelles technologies doivent être
considérés.
Les questions de délégation du travail ne sont pas propres à l'IA. Elles
se posaient déjà à l'aube de la révolution industrielle. Au début du
XIXe siècle, le mouvement des luddites en Grande-Bretagne organisait la
destruction de nouvelles machines, accusées d'augmenter le chômage. Mais
les luttes sociales face aux nouvelles technologies furent rapidement
vaincues par l'industrialisation et la mécanisation du travail, qui
suivirent leur cours jusqu'à nos jours.
Aujourd'hui, les technologies de l'IA réactualisent et prolongent cette
dynamique. En plus des possibilités de déléguer des fonctions mécaniques
aux machines, il est désormais possible de déléguer certaines fonctions
cognitives.
![private_investments_in_AI](media/image_1_1.jpg)
Investissements mondiaux privés dans le domaine de l'IA entre 2013 et
2021, en milliards de dollars.
### 🦾 Le travail au défi de l'IA
En 2013, une étude menée par des chercheurs de l'Université d'Oxford
conclut que 47% des emplois sont menacés par les avancées dans le
domaine de l'apprentissage automatique. Ces résultats alarmants sont
rapidement remis en cause par des erreurs méthodologiques. De plus, les
nouveaux emplois nécessaire au développement et au suivi de l'IA ne sont
pas mentionnés. Cette étude nous amène néanmoins à réfléchir à l'impact
de l'automatisation et de l'IA sur les emplois, dans un contexte où la
technologie transforme effectivement le marché du travail.
Comme expliqué par l'économiste David H. Autor (MIT) en 2015, le
discours du remplacement du travail de l'être humain par la machine
ainsi que les craintes qui en découlent ne sont pas récents. Les données
historiques montrent néanmoins que le phénomène ne se vérifie pas
empiriquement. Si l'automatisation de nombreux secteurs a bien eu lieu
au cours du XXe siècle et continue aujourd'hui encore, l'évolution des
taux de chômage de différents pays ne reflète pas une baisse drastique
de l'emploi. On observe plutôt une transformation du marché du travail,
avec un renversement de la distribution de l'emploi du secteur primaire
vers le secteur tertiaire. Une analyse plus fine des impacts de l'IA sur
le travail et l'économie s'impose donc.
Dans son livre En attendant les robots (Seuil, 2019), le sociologue
Antonio Casilli déconstruit la croyance du remplacement du travail de
l'être humain par les machines et les IA. Il constate, lui aussi, une
transformation du marché du travail plutôt qu'une disparition des
emplois. Avec l'arrivée des nouvelles technologies de l'information et
de la communication, une tendance à la polarisation se dessine : d'un
côté, une forte demande pour les métiers hautement spécialisés est
constatée; de l'autre, un besoin croissant de main d'œuvre peu qualifiée
pour effectuer des tâches répétitives et standardisées, essentielles au
bon fonctionnement des systèmes automatisés. Cet seconde catégorie
d'emplois, peu qualifiés mais indispensables à l'entraînement des IA,
constitue ce que l'on appelle le digital labour.
La question n'est donc pas de savoir si l'IA remplacera un jour les
travailleurs, mais plutôt de réfléchir à la pertinence d'intégrer les
technologies algorithmiques dans différentes situations et dans quelles
proportions. Elle nous amène également à envisager des solutions
permettant de gérer les transformations socio-économiques qui résultent
de l'automatisation de certaines tâches.
Afin que les avantages de l'IA profitent au plus grand nombre, les
systèmes économiques et politiques doivent s'adapter aux changements
induits par l'automatisation. La redistribution des tâches, et donc de
la productivité engendrée par l'automatisation modifie la redistribution
du travail ainsi que du gain de productivité et du capital. Les
entreprises vont-elles continuer à profiter de l'automatisation du
travail? Dans quelles proportions? Faut-il envisager de taxer les gains
engendrés par les machines et les systèmes d'IA afin d'assurer les
modèles sociaux en place (Assurance chômage, AVS, etc.)? Ces questions
centrales peinent à s'imposer dans le débat public, mais elles devront
être considérées tôt ou tard.
### 🧬 Domaines de prédilection
L'efficacité d'un modèle prédictif d'IA est liée à la nature des données
qu'il traite. Lorsqu'il s'agit d'informations stables et objectives,
comme c'est le cas pour les pixels d'une image représentant une forme,
les techniques d'apprentissage automatique fonctionnent relativement
bien et offre des résultats satisfaisants. Les possibilités
d'automatisation de l'IA offrent alors des avantages multiples, par
exemple pour la recherche scientifique et médicale.
Les algorithmes et l'IA ont déjà fait leurs preuves pour détecter
certains cancers plus rapidement que les spécialistes. En 2020, la
société DeepMind (Alphabet) a révolutionné la bio-informatique en
proposant un modèle de prédiction de la structure des protéines,
permettant d'accélérer fortement la recherche pour l'élaboration de
nouveaux vaccins.
Dans les deux cas, l'apprentissage automatique est utilisé pour
effectuer une tâche précise et compartimentée, qui s'inscrit dans un
contexte plus large. Le travail des chercheurs et des scientifiques
demeure toutefois indispensable pour comprendre, communiquer les
résultats et coordonner l'ensemble d'un projet.
### 👦🏾👧 L'IA appliquée au monde social
Déléguer des prises de décision s'avèrent plus risqué dans d'autres
domaines. En effet, de nombreux biais racistes et sexistes, présents
dans les données utilisées pour entraîner des modèles prédictifs, ont
été reproduits et amplifiés lors de processus de recrutement
automatisés, dans la suggestion de vidéos sur Facebook ou même lors de
prises de décision par le système judiciaire américain. Lorsque les
données fournies à une IA sont subjectives et non-représentatives, les
biais qu'elles contiennent se retrouvent dans les prédictions établies.
La tendance qui consiste à vouloir réguler le monde social à partir des
données qu'il produit est appelée gouvernementalité algorithmique.
Le physicien, familier des sciences sociales, Pablo Jensen a démontré
que cette «mise en équation de la société» n'est que rarement efficace.
Il explique que la complexité du monde social est difficilement
réductible à un ensemble de données, aussi nombreuses soient-elles.
Cette logique s'applique aussi au niveau individuel. L'utilisation des
données personnelles et biométriques dans le cadre de prises de décision
automatisées n'est pas toujours adaptée ni souhaitable. Profiler une
personne à partir de ses traces numériques implique forcément que
certaines informations soient prises en compte et d'autres non.
Pourtant, faute d'une réflexion plus large sur les différentes
possibilités d'arbitrer des prises de décision complexes, l'IA et ses
algorithmes sont bien souvent présentés comme une solution efficace pour
pallier la subjectivité humaine. Face aux cas de biais algorithmiques,
la rhétorique dominante est de les résoudre à tout prix, en récoltant
plus de données sur les groupes sous-représentés. Or, il est naïf de
penser que les inégalités présentes dans la société pourraient être
réduites par le traitement automatique des données qui en émanent.
L'utilisation des logiciels de reconnaissance faciale illustrent cette
problématique. Plusieurs cas de discriminations raciales et/ou sexistes
causées par des algorithmes mal entraînés ont été révélés, notamment
dans le documentaire Coded Bias (Netflix, 2020). L'ingénieure et
chercheuse du MIT Joy Buolamwini y explique avoir elle-même été victime
de ces biais. Elle travaille désormais à l'amélioration de la
reconnaissance de tous les visages. Pourtant, tout comme le discours
dominant le domaine de l'IA, l'usage même de ces technologies n'est pas
remis en question.
Plusieurs arguments invitent toutefois à questionner l'usage de la
reconnaissance faciale plutôt que de corriger les biais qu'elle
amplifie. D'abord, cette technologie permet une surveillance accrue des
individus. Elle est notamment utilisée par les institutions judiciaire
et policière, en Chine, aux États-Unis mais aussi en Europe. Les
minorités visibles, déjà plus souvent concernées par les contrôles de
police, n'ont donc pas intérêt à vouloir à tout prix être reconnues par
l'IA. Ensuite, la mise en place de systèmes de reconnaissance faciale
implique l'automatisation de la collecte de données personnelles à
grande échelle. Toute personne passant devant une caméra est tracée par
défaut, ce qui porte atteinte au droit à la vie privée. Se pose
finalement la question de la gestion des donnée. Comment sont-elles
gérées et à quelles autres donnée sont-elles associées? Où sont-elles
stockées? Qui peut y accéder? Que se passe-t-il en cas de cyberattaque?
La question de l'application de l'IA au monde social est donc complexe
et particulièrement sensible. Pour profiter des avantages de ces
nouvelles technologies tout en limitant les risques qu'elles comportent,
différentes solutions de régulation existent.
```{admonition} La main mise d'Alphabet
:class: hint
Dans l'histoire récente de l'IA, l'entreprise Alphabet, maison mère de
Google, se démarque particulièrement par la diversité de ses
engagements. Ses produits phares, tels que son moteur de recherche et
son traducteur automatique, facilitent nos usages numériques au
quotidien grâce à l'apprentissage automatique.
L'entreprise investit également dans divers domaines de recherche :
conduite autonome, santé, système de reconnaissance de formes et de
sons, ainsi que le développement de robots.
Finalement, la puissance économique d'Alphabet lui permet d'acquérir les
entreprises dans lesquelles résident un fort potentiel pour la recherche
en IA. En 2014, elle rachète la firme britannique DeepMind qui mettra au
point l'emblématique programme AlphaGo, ainsi que AlphaFold, logiciel
capable de prédire la structure de certaines protéines grâce à des
réseaux de neurones artificiels. Alphabet a ainsi racheté des dizaines
d'entreprises afin de rester à la pointe de la recherche dans le domaine
de l'IA.
```
### ⚖ Réguler l'IA
À la suite des diverses controverses engendrées par des IA, de grandes
entreprises comme Google, Microsoft ou IBM ont mis en place des comités
d'éthique. Plusieurs projets ont été suspendus en raison du risque de
perpétuer des pratiques discriminatoires. Il s'agit dans ce cas d'une
forme de gouvernance interne, non-contraignante, appliquée au bon
vouloir des entreprises.
Du côté de la société civile, des mouvements citoyens se sont
constitués, à l'image de la campagne contre la reconnaissance faciale
lancée par Amnesty International en 2020 et de l'ONG AlgorithmWatch.
Cette organisation se focalise particulièrement sur les risques liés aux
prises de décisions basées sur des algorithmes. En plus des articles
permettant d'expliquer les enjeux relatifs aux prises de décisions
automatisées, elle propose quelques règles de bonnes pratiques pour
collecter, analyser et interpréter les données, tout en privilégiant les
intérêts humains et sociaux.
Les revendications de ces organisations quant à la protection de la vie
privée s'inscrivent dans un mouvement de défiance politique, opposé à
l'adoption de nouveaux modes de surveillance par les gouvernements. Si
les démocraties tentent de faire preuve de bonne volonté et régulent les
applications de l'IA dans l'intérêt de leurs citoyens, les régimes
autoritaires n'hésitent pas à utiliser les données qu'elles possèdent
pour contrôler les masses. Dans un contexte politique mondial incertain,
il est nécessaire de réfléchir aux risques des dispositifs de
surveillance, en cas de changement de régime politique par exemple.
La volonté de réguler l'IA varient selon les régions du monde et les
systèmes politiques en place. Aux États-Unis, actuel leader mondial dans
le domaine, seuls quatre États ont adopté une forme de régulation
relative à l'IA en 2021. La tradition libérale du pays se traduit par
une faible intervention de l'État dans un domaine principalement dominé
par des entreprises privées.
La situation est différente en Chine, où le Parti communiste à la tête
du gouvernement a clairement indiqué ses ambitions de dépasser les
états-Unis et de s'imposer dans le domaine de l'IA d'ici 2030. Pour ce
faire, elle adopte une attitude de laisser-faire et régule en fonction
des situations et de ses intérêts. Un organe consacré à l'administration
numérique est chargé de ces questions. Des mesures spécifiques visant à
réguler l'application de l'IA dans divers services en ligne ont été
adoptées en mars 2022. Les acteurs concernés par ces régulations sont
principalement des entreprises chinoises.
En Europe, la Commission européenne a proposé en avril 2021 « un
ensemble d'actions visant à stimuler l'excellence dans le domaine de
l'IA, ainsi que des règles destinées à garantir la fiabilité de cette
technologie »[^1]. Afin d'estimer les risques que pourrait représenter
l'IA pour les citoyens et citoyennes, la CE propose un classement qui
détermine le niveau de régulation nécessaire pour chaque domaine. La
catégorie « haut risque » comprend, par exemple, les logiciels de
recrutement ou les prises de décision automatisées dans l'attribution
d'un crédit, situations où les biais sont souvent présents. Les
ambitions de régulation venant de la CE demeurent ambiguës puisqu'elle
ne dispose pas d'acteur majeur dans le domaine de l'IA.
```{admonition} Les enjeux de la conduite autonome
:class: hint
Le thème de la conduite autonome permet d'aborder différents enjeux
sociaux liés à l'IA. L'automatisation du traitement des informations
contextuelles et des prises de décision constitue un nouveau paradigme
de la conduite, qui touche directement à des problématiques techniques,
mais aussi aux questions de délégation de certaines tâches, de
responsabilité et de régulation.
Comme les êtres humains, les véhicules autonomes doivent apprendre à
conduire afin d'être capables d'effectuer des trajets de manière sûre.
Pour ce faire, un important travail de programmation et d'entraînement
est nécessaire. Les données contextuelles permettant aux véhicules de
s'orienter sont collectées grâce à des capteurs (radars, lidars,
caméras) puis traitées par un ordinateur embarqué. Ces dispositifs
doivent notamment permettre d'éviter les obstacles, d'adapter la vitesse
et de respecter la signalisation.
Des robots-livreurs autonomes ont déjà fait leurs preuves pour le
transport de nourriture ou de médicaments, en Grande-Bretagne et en
Finlande. Il s'agit dans ce cas de petits véhicules qui se déplacent à
faible vitesse (6km/h), sur de courts trajets et en empruntant les voies
piétonnes. L'utilisation de ces véhicules demeure marginale, mais
pourraient représenter une sérieuse concurrence pour les métiers de
coursier et de chauffeur.
L'autonomie des voitures, des bus ou encore des camions posent des défis
plus exigeants. Il s'agit de véhicules plus imposants, visant à être
intégrés au trafic et pouvant transporter des personnes. Aussi, il est
techniquement plus complexe de garantir une conduite autonome sûre dans
un environnement où les paramètres à prendre en compte sont multiples et
parfois subjectifs.
La mise en circulation de tels véhicules requiert un cadre légal adapté.
Il devra déterminer le type de véhicules autorisés sur les routes ainsi
que les manières de réguler précisément ces nouveaux acteurs. La
question de la responsabilité en cas d'accident demeure donc ouverte.
De manière générale, la conduite autonome complète n'est qu'à ses
débuts. Les tests dans le trafic ont montré des résultats mitigés et les
quelques accidents impliquant des voitures autonomes soulignent la
difficulté de résoudre les problèmes de responsabilité.
On préfère actuellement parler de conduite assistée, où la technologie
rend les trajets plus confortables, mais n'est pas encore en mesure de
remplacer l'être humain dans toutes les situations.
```
## Ressources
* Le livre du physicien et sociologue Pablo Jensen, Pourquoi la société ne se laisse pas mettre en équation (2018)
* L’article (en anglais) sur la question de la résolution des biais
* Le reportage sur les biais sexistes dans les offres d’emploi en ligne, RTS
* Le podcast sur la question de l’intelligence en informatique. Le code a changée, France Inter
* L’exposition « Intelligence artificielle, nos reflets dans la machine » au Musée de la Main de Lausanne, jusqu’au 23 avril 2023
## Glossaire
* Biais
* Gouvernementalité algorithmique
* Luddites / luddisme
## Pistes pédagogiques
Pour des idées d'activités sur cette thématique, voir le {download}`dossier`.
[^1]: https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_fr\#stimuler-lexcellence-dans-le-domaine-de-lia,
consulté le 31 mars 2022.