| |
|
Les services
du Premier ministre ont publié une charte
de bonnes pratiques et d’utilisations proscrites
sur l’usage de l’intelligence artificielle générative.
Un document qui fait foi pour des outils
relevant d'intérêts privés, en attendant le déploiement
prochain d’une technologie sécurisée et
souveraine.
|
|
|
|
|
|
|
|
|
|
999999

|
Les services du Premier ministre
prennent, eux aussi, le pas de l’encadrement
de l’intelligence artificielle. Comme tous
les ministères, Matignon est tenu de
rendre, d’ici à la fin de l’année, sa
feuille de route numérique à la Dinum.
Une première étape a été
franchie avec la publication par la
direction des services administratifs et
financiers (Dsaf), avec l’aide du secrétariat
général du gouvernement, de la charte
relative à l’IA des services du Premier ministre.
Comme le reste de l’administration, ces
services ont conscience des opportunités que
représente l’intelligence artificielle au
sein d’une administration, mais mettent en
avant les risques engendrés également.
|
|
|
|
|
|
|
|
|
|
99


|
|

|
Des engagements
à tenir ... |
Gain de temps, de productivité, aide à la décision,
soutien sur les tâches répétitives :
Chaque agent pourra ainsi concentrer son
activité sur son cœur de métier et sur les
tâches pour lesquelles sa propre expertise
devra être mise à contribution. Côté
dangers, sans surprise, la charte rappelle le
risque d’erreur liée à la technologie,
mais aussi les risques de discrimination
intrinsèquement liés au fonctionnement des
algorithmes. Gros enjeu, aussi, pour
Matignon, la non‑divulgation des données,
qui peuvent être mises à risque par
l’utilisation d’IA extra-européennes, par
exemple.
La Dsaf couche ainsi
sur papier plusieurs engagements dans son
utilisation de l’intelligence artificielle :
la neutralité, c’est‑à‑dire la
veille à de potentiels biais dans les réponses
proposées ; la transparence, qui implique de
signaler systématiquement l’utilisation de
la technologie à toutes les personnes concernées
; le respect de la confidentialité des données
; la responsabilité, engagée par chaque
agent qui mobilise un contenu délivré par
une IA ; la prise en compte des enjeux
environnementaux, qui pousse les agents à
utiliser l’IA uniquement si aucune
alternative n’est identifiée (pour une
simple recherche, préférer un moteur de
recherche, par exemple) ; et enfin, un
engagement de concertation, qui doit être réalisée
en amont de toute mise en œuvre de façon à
identifier les besoins de formation et
d’accompagnement.
|
|
|
|
|
|
|
|
|
| 9


|
|

|
En attendant
la sécurité ... |
9
Trois utilisations de l’intelligence
artificielle sont définies comme proscrites
au sein des services du Premier ministre :
déléguer sa production ou sa prise de décision
à l’intelligence artificielle sans vérification
humaine, plagier un contenu et saisir des données
personnelles et/ou sensibles. À noter que
cette charte s’inscrit dans la perspective
du déploiement prochain d’IA souveraines
pour les services de l’État, qui lèveront
certains des risques ici évoqués.
Cette charte se présente
ainsi comme un encadrement visant à aiguiller
les agents dans l’attente du déploiement et
de la généralisation d’une IA souveraine.
Si le service n’a pas encore évoqué
les contours de cette dernière, l’État a
signé, cet été, un contrat avec la pépite
française Mistral AI, pour booster son
robot conversationnel, outil issu de la suite
Albert IA. Ce dernier, en phase de
test, devrait être déployé à tous les
agents d’ici à la fin de l’année. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|