|
|
|
|
|
|
Face
à l’émergence de l’intelligence artificielle
dans les usages professionnels et personnels, un
encadrement de l’IA en matière de sécurité,
d’éthique et de protection des conditions de
travail semble indispensable.
|
|
|
|
|
|
La
CFTC soutient ainsi la démarche des législateurs
européens, qui débattent actuellement
d’une loi sur l’intelligence
artificielle. Si elle n’élude pas les
risques associés à l’IA, elle considère
aussi qu’un contrôle rigoureux et
vertueux de son utilisation peut favoriser
l’épanouissement des salariés en
entreprises ou administrations. |
|
|
|
|
|
|
|
|
Mondialement
visibilisée par l’accès de ChatGPT au
grand public, l’intelligence artificielle
nourrit autant de fantasmes que de préoccupations.
Si elle peut de toute évidence délester les
salariés d’un certain nombre de tâches,
elle suscite également des problématiques
potentielles pour l’emploi, comme des
risques de suppression de postes ou encore une
transformation structurelle du travail. En
l’absence d’une réglementation adéquate,
ces problématiques ne peuvent que
s’accentuer à moyen terme. C’est pourquoi
la CFTC soutient pleinement la nécessité
d’une régulation adéquate de l’IA, au
niveau européen. |
|
|
|
|
|
|
6
|
|
|
Collectivement cadrer l'Intelligence
Artificielle ... |
A
cet égard, un projet de règlement sur
l’intelligence artificielle – proposé en
avril 2021 par la Commission européenne –
est en cours de négociation entre les législateurs
européens. Ce
projet classifie les systèmes
d’intelligence artificielle selon le niveau
de risque pour les
droits des individus, de « minime »
à « inacceptable ». Les IA présentant
un niveau de risque élevé se voient imposées
davantage de contraintes et de régulations.
Des règles de traçabilité et de
transparence – comprenant des obligations de
certification, de documentation technique, de
qualité et de sécurité – sont ainsi prévues
pour les systèmes d’intelligence
artificielle qui pourraient présenter un
risque élevé pour les droits fondamentaux
des individus.
Elles doivent notamment
permettre d’encadrer certaines activités
particulièrement exposées à une utilisation
trop permissive de l’IA, comme la gestion des ressources humaines. Les systèmes
d’IA peuvent en effet être utilisés pour
évaluer les performances des employés et déterminer
des promotions, mais peuvent parfois être
influencés par un certain nombre de biais,
qui favorisent injustement certains salariés.
A titre d’exemple, Amazon avait mis fin en
2017 à l’utilisation d’un système de
recrutement automatique, conçu pour sélectionner
les meilleurs CV. Cependant, celui-ci s’était
avéré discriminatoire envers les femmes :
la base de données du logiciel s’appuyait
sur les CV reçus par le groupe sur une période
de dix ans, qui étaient pour la plupart ceux
d’hommes, reflet de la prédominance
masculine dans le secteur des nouvelles
technologies. Il en avait automatiquement déduit
que les candidats masculins pour ces postes étaient
préférables |
|
|
|
|
|
|
6
|
|
|
Anticiper la mutation du travail ... |
Par
ailleurs, la nature même de certains procédés
d’intelligence artificielle devrait les condamner à une interdiction pure et simple :
elle devrait notamment concerner les systèmes
œuvrant à une notation sociale des
individus, comme ceux qui permettent
d’effectuer une surveillance biométrique à
distance en temps réel. Les réglementations
encadrant les intelligences génératives –
comme ChatGPT ou Bard – sont pour leur part
encore en discussion au sein des instances législatives
européennes. Le Parlement de l’UE (qui vote
avec le Conseil de l’Europe la loi européenne)
souhaiterait ainsi introduire de nouvelles
obligations pour ces procédés d’IA (avec
notamment une labellisation obligatoire des
contenus créés par une intelligence
artificielle). En parallèle, la Confédération
Européenne des Syndicats (CES) – dont
est membre la CFTC – mène également des négociations
et groupes de réflexion, qui devraient
participer à renforcer le périmètre réglementaire
des usages de l’IA, au sein des entreprises
et administrations.
Si des garde-fous semblent donc
nécessaires pour encadrer l’utilisation de
l’intelligence artificielle, l’impact de
l’IA sur l’emploi et les conditions de
travail semble actuellement difficile à évaluer.
Selon une étude de l’OIT publiée en 2023,
il pourrait être moins néfaste que prévu,
puisqu’elle estime qu’un peu plus de 5 %
des emplois pourraient être fortement exposés
à l’intelligence artificielle, dans les
pays développés. Plus qu’un remplacement
massif d’une frange des travailleurs par
l’IA, ce
sont leurs conditions de travail que celle-ci
risque de transformer en profondeur :
si l’IA pourra décharger les salariés de
certaines tâches répétitives, elle pourrait
intensifier et complexifier d’autres
versants de leur activité (générant
davantage de stress et d’anxiété
professionnelle), voire être source d’une
perte de sens au travail. |
|
|
|
|
|
|
6
|
|
|
Des risques à prévenir, des progrès à favoriser ... |
Pour la
CFTC, les solutions offertes par
l’intelligence artificielle ne doivent pas
mettre en péril les emplois des salariés ou
dégrader leurs conditions de travail. A cet
effet, la législation et les règlements
appliqués à cette technologie doivent
permettre de protéger les salariés des éventuels
effets négatifs de son utilisation. Les
entreprises et administrations
devraient symétriquement être
encouragées à favoriser l’usage de
solutions d’IA bénéfiques pour la
productivité et la qualité de vie au travail
(automatisation de certains actes pénibles,
etc…) Si la CFTC n’élude pas les risques
imputables à l’IA, elle considère donc qu’un
cadrage adéquat de son développement et de
ses usages peut favoriser l’épanouissement
professionnel et personnel des travailleurs.
Elle rejoint ainsi le constat de France Stratégie,
qui estimait dans une étude sur l’IA publiée
en 2018 que : « l’amélioration
des conditions de travail est une hypothèse
aussi crédible que l’intensification du
travail. Tout dépend de la manière dont les
gains de productivité permis par cette
technologie sont partagés. » |
|
|
|
|
|
|
Au
final, la
CFTC considère que les systèmes d’intelligence
artificielle doivent invariablement être supervisés
par des humains, plutôt que par l’automatisation.
Les travailleurs devraient ainsi être capables
d’assurer un contrôle efficient et raisonné
des systèmes d’IA dont ils ont l’usage. Une réelle
montée en compétence des salariés (liée
notamment à l’essor des tâches de supervision ou
à la spécialisation vers des missions plus
complexes) sera donc nécessaire, via le développement
de formations professionnelles qualifiantes.
|
|
|
|
|
|
|
|
|
|
|
|