On n'est pas des robots

A l’heure où l’illectronisme concerne toujours une personne sur trois (source ANLCI.gouv.fr) et où la fracture électronique laisse subsister des zones blanches en zones rurales ou montagneuses, affectant 700000 personnes (source Netscope.org), quid d’une société à plusieurs vitesses ? 🤔 Parlons de ce qui va vite, très vite. Et prenons le temps de nous pencher sur les conséquences des IA (intelligences artificielles) dans notre quotidien. 🧠 Au travail, dans nos Administrations et dans les liens avec nos collègues. 👩‍💻👨‍💻

L’IA s’invite progressivement dans nos administrations, promettant de transformer nos méthodes de travail. 💼 Entre simplification des tâches et amélioration des services aux citoyens, l’IA ouvre la voie à une modernisation profonde. 🚀 Pourtant, cette évolution soulève également des questions essentielles sur nos conditions de travail, la transparence des décisions et la protection de nos droits. ⚖️ C’est pourquoi un dialogue social ouvert et structuré est indispensable pour accompagner cette transition. 🗣️

Le SNT et plus largement la confédération à laquelle il appartient, prône un accompagnement des salariés, des managers, avec un débat constructif. 💬

L’actualité autour du numérique est très largement dominée par l’IA et particulièrement par les IA dites « génératives » : 5 évènements « phares »

    •    L’arrivée de Deepseek (l’IA générative produite par une startup chinoise) a provoqué un véritable coup de tonnerre. 🌩️ La suprématie américaine incarnée par Open AI, Google et Meta commence à vaciller. Deepseek démontre qu’il est possible de créer une IA performante à moindre coût en réalisant des optimisations logicielles et matérielles. A titre d’exemple, en comparaison avec ChatGPT, la puissance de calcul et donc le coût énergétique nécessaires à l’entraînement de DeepSeek sont environ 27 fois moindres. 🔋 Une nouvelle voie s’ouvre. 🌍
    •    Dans le même temps, une IA générative française nommée Lucie (notamment soutenue par le CNRS) est mise en ligne en version beta voire alpha et devient la risée du web. 🤦‍♀️ On ne compte plus les erreurs de calcul et les réponses farfelues données par Lucie qui ont alimenté et amusé les réseaux sociaux. A titre d’exemple, l’IA explique par le menu détail comment les vaches pondent leurs œufs. 🐄🥚 On assiste sur la toile à un concours de celui qui arriverait à faire dire à Lucie la plus grosse absurdité. C’est un véritable fiasco pour Lucie. 😅 Au bilan, ils ont dû retirer l’IA du web. Cet épisode qui prête à sourire n’a pas contribué à glorifier le travail français dans le domaine de l’IA (travail qui est pourtant globalement de qualité). 🇫🇷
    •    La meilleure preuve de cette qualité, 3e évènement, c’est incontestablement le coup de projecteur sur Mistral, une startup française qui vient de sortir son IA générative baptisée « le chat », concurrent très sérieux de ChatGPT et de DeepSeek qui montre enfin que la France n’est pas complètement dépassée dans le domaine de l’IA comme cela a pu être dit. 🐱 C’est plutôt rassurant. D’autant plus rassurant que les concepteurs sont français et initialement formés en France. Certes, ils ont tous une expérience internationale dans des grands groupes du numérique mais ils sont revenus en France pour créer ce projet en un temps record et avec des moyens restreints. Un peu à l’image de DeepSeek, ce qui est notable, là aussi, c’est l’excellent niveau d’optimisation de leur modèle qui s’avère plutôt frugale sans nuire à ses qualités intrinsèques. 👏
    •    4e point d’actualité, dans la même temporalité, se tenait en France, un sommet international sur l’intelligence artificielle du 6 au 11 février avec notamment :
o L’interview du Président de la République sur l’IA qui montre un vrai engagement, une vraie appétence de la France dans ce domaine 🇫🇷
o Engagement concrétisé par l’annonce d’un investissement de 109 milliards d’euros de fonds privés, sur le territoire français, dans les prochaines années 💰
o Donc une volonté clairement affichée par la France de rattraper son retard avec un objectif de souveraineté pour ne pas dépendre des EU ou de la Chine dans le domaine de l’IA. 🌍 La startup Mistral nous en montre la voie. 🚀
o En parallèle de ces annonces et de ces objectifs affichés, ce sommet est aussi l’occasion de discussions autour d’une régulation des IA jugée nécessaire (on va y revenir par la suite) à l’échelle européenne et idéalement à l’échelle mondiale 🌐. Mais, du point de vue de la France, cette régulation ne doit pas mettre des bâtons dans les roues à l’innovation du pays et semble donc passer en second plan. La priorité de la France étant de combler rapidement son retard. C’est là toute la complexité du sujet. ⚖️
    •    Dernier point d’actualité : l’annonce de l’intégration de l’IA dans les programmes de l’éducation nationale. 📚 Nous le constatons tous, l’IA s’invite dans nos sociétés et bientôt dans nos entreprises (publiques et privées) quoi qu’on en dise et quoi qu’on en pense. Cette présence sera de plus en plus généralisée et prégnante. Il nous faut prendre ce train en marche 🚂. Il est donc indispensable que la nouvelle génération s’approprie ses nouveaux outils. La formation est comme dans bien des domaines un enjeu majeur. 🎓 Cette annonce est une prise de conscience, un point de départ. A suivre… 👀

Valeurs et éthique :
Le constat est que les IA sont entraînées sans contrôle clair sur les valeurs philosophiques et éthiques qu’elles intègrent, ce qui peut conduire à des réponses biaisées ou contraires aux principes de liberté, d’égalité et de droits humains. ⚖️ D’où la nécessité d’une réflexion autour de la transparence et du contrôle des valeurs insufflées aux IA. 🧐

Contrôle social, inégalités et transformation du travail :
L’émergence d’IA généralistes (capacité de résolution de problème, de synthèse de création, de planification) pourrait transformer profondément le contenu des métiers, les compétences requises et les conditions de travail, nécessitant une réflexion sur la valeur du travail et l’organisation sociale. 🧑‍🏫💼

Libertés individuelles qui pourraient être menacées :
Par une sorte de surveillance algorithmique (que permet facilement l’IA). Un des exemples et celui de la vidéosurveillance, de la reconnaissance faciale qui pourrait se généraliser, menaçant les libertés individuelles. 🕵️‍♂️

Intégrité du savoir humain, valeur qui doit être considérée comme inaliénable :
L’auto-alimentation de données biaisées par les IA (contrefaçons, usurpation d’identité, fake-news) pourrait corrompre la bibliothèque des connaissances humaines. 📚❌ Ex fausses citations. D’où l’idée d’une protection du savoir humain comme valeur inaliénable. 🛡️

Temps :
Avec le constat d’une accélération dans l’évolution des technologies de l’IA. L’actualité nous le montre. Dans le même temps, la capacité des législateurs à réguler efficacement ces technologies (ce qui paraît nécessaire) n’augmente pas voire régresse. ⏳

Quelles sont les phases dans « l’éducation » d’un modèle d’IA :
    •    pré-entrainement : entraînez le modèle sur un large corpus de données pour apprendre des représentations générales. Cette phase inclut des processus d’évaluation et de validation. 🧠
    •    alignement : permet de s’assurer que l’IA agit conformément aux valeurs humaines, à l’éthique et aux lois. C’est probablement ici que se situe le cœur de la question posée. Car, bien-sûr, des dérives sont possibles. Les premiers modèles de ChatGPT avaient une coloration woke (terme qui signifie « éveillé » dans le sens de conscient et offensé des injustices ou discriminations subies par les minorités) assez prononcée, ce qui a été, en grande partie, corrigé depuis. Mais d’autres biais ou carences d’alignement existent peut-être ? 🤔
    •    fine-tuning : phase optionnelle permettant d’affiner le modèle sur un ensemble de données spécifiques pour améliorer ses performances dans un domaine ou dans des tâches particulières. 🔧

Ce qu’il faut retenir c’est que les IA génératives disponibles pour le grand public sont toutes pré-entrainées et alignées. ✅

Dans nos Administrations, un dialogue social de qualité est ESSENTIEL sur ces questions. 🗣️
Au sein de la Fonction publique territoriale, le CST (Comité social territorial) doit être consulté et permet de discuter des projets, d’identifier les risques, de proposer des mesures d’accompagnement adaptées. 🛠️
Un dialogue ouvert implique l’ensemble des agents. 👥
Vos retours d’expérience permettent d’adapter les projets à la réalité du terrain. C’est le « droit à la participation » de chaque agent par ses représentants du personnel. 👨‍👩‍👧‍👦

Béatrice Barrau

-texte écrit sans IA, issu d’une intelligence humaine collaborative mais illustré avec l’insertion de smileys grâce à une IA 🤣-



Une question ? --> Formulaire de contact

Nom

E-mail *

Message *