On ne va pas se mentir : qu’on le veuille ou non, l’IA est un devenu sujet incontournable. Et faire l’impasse sur ce sujet, c’est un peu comme ignorer la popularisation de l’électricité à la fin du 19e siècle. La formation autour de l’intelligence artificielle devient donc indispensable pour s’y retrouver dans ce buzz permanent inaudible. En conséquence, face à la demande, l’offre de formation sur ce sujet explose depuis deux ans.
Or la plupart de ces formations sont d’un niveau très médiocre, quand il ne s’agit pas carrément de désinformation. Il est en effet très facile de concevoir une formation sur ce sujet en demandant justement à ChatGPT d’en concevoir le programme et le contenu. Le résultat obtenu sera souvent insatisfaisant, incomplet et toujours très subjectif car il y a des sujets que ChatGPT n’aime pas aborder. C’est hélas ce qui est vendu en masse en ce moment.
Alors comment identifier une bonne formation d’une mauvaise ?
Chacun sa méthode. Pour ma part, j’ai identifié trois sujets que les IA génératives et les mauvais formateurs n’aiment pas du tout aborder.
Les voici ci-dessous. Si vous en trouvez d’autres, n’hésitez pas à m’écrire.
1/ Les différences technologique des Intelligence Artificielle
L’idée d’un cerveau artificiel est très ancienne. Des chercheurs ont depuis créé des courants différents (IA symbolique, IA connexionniste) et conçu toutes sortes d’outils (agents intelligents, systèmes experts, deep learning, etc.). Et puis ils ont découvert les LLMs (ChatGPT et consorts), des outils très faciles d’utilisation. C’est bien de celles-ci dont tout le monde parle aujourd’hui. Mais quid des autres technologies et courants d’IA ? Il semble indispensable quand on parle d’IA d’expliquer la façon dont fonctionnent les technologies, et comment elles se sont progressivement construites.
![](https://curiouser.fr/wp-content/uploads/2024/10/AI-work1-01-2741206119-530x172.jpg)
Mais beaucoup de formateurs n’aiment pas trop parler technologie, souvent par méconnaissance du sujet. Ils préfèrent généraliser « IA = chatGPT ». Ce qui leur permet de faire un cours de prompting sans se poser la question de comment ça marche et sans donner aucun élément de contexte historico-technologique. Pire, on en arrive à des raccourcis du genre « la machine pense ou la machine imagine… ». Ce qui peut complétement induire de la confusion voire une mécompréhension auprès des apprenants.
Ça me rappelle les années 2005, où des formateurs expliquaient qu’un « navigateur web servait à aller sur Google pour aller sur internet ». La conséquence aujourd’hui, c’est un retard en terme d’alphabétisation numérique dans les organisations qui génère de multiples trous de sécurité et de facteurs de sous-efficience (et donc au final, de sous performance). La techno devient de la magie. Et la magie, c’est pas le problème des collaborateurs.
Une formation sert à faire évoluer les collaborateurs, pas à les rendre dépendants d’une technologie.
La formation Ai sérieuse doit donc forcément intégrer un volet d’explications technologiques.
2/ Les véritables implications sociétales de l’utilisation de l’outil IA
![](https://curiouser.fr/wp-content/uploads/2024/09/ChatGPT-768x432-122283675-530x298.png)
En abordant les dangers sociétaux, beaucoup de formateurs expédient le sujet en vous montrant une photo du T-800 (du film Terminator) et en expliquant avec un sourire de connivence que : « Bien évidemment, ChatGPT n’a rien à voir avec le robot de Terminator et qu’il faudrait être idiot pour penser autrement« » » (les mauvais formateurs utilisent toujours l’insupportable expression « bien évidemment »).
C’est très agaçant…
D’abord, parce que c’est faux : dans le film Terminator, Skynet (à l’origine de la destruction de l’humanité) est une IA achetée par l’armée américaine qui fait n’importe quoi avec.
Or dans la vraie vie, l’armée américaine travaille avec OpenAi. Et on ne peut pas dire qu’ils savent ce qu’ils font avec. Il n’y a donc pas de quoi ricaner, mais plutôt s’inquiéter car ce ne serait pas la première fois qu’une œuvre de SF aurait des reflets prophétiques.
Ensuite (et surtout), cette simplification du danger des IA du langage dans cette image simpliste du robot tueur cache sous le tapis de l’ironie des problématiques sociétales en réalité beaucoup plus concrètes et réelles :
- Le chômage technologique inéluctable. Certains cabinets de conseil parlent de 30% de chômage en 2030 (pour mémoire, on est à 7.3% en France en ce moment). Et la plupart des formations sur le sujet de l’IA n’en parlent pas…
- La manipulation de l’information facilitée et la diffusion massive de désinformation. Tiens, on m’apprend justement que Bytedance vient de lancer une app pour créer des deepfakes vidéos en 2 clics avec une qualité assez bluffante. C’est tombé à point pour les élections américaines. Bravo Bytedance !
- La baisse du niveau intellectuel et de la créativité. Pourquoi devenir créatif ou intelligent quand la machine le fait pour vous ? Si la perspective d’une civilisation d’imbéciles vous semble lointaine, lisez le NovFut sur le sujet.
- Et évidemment un désastre environnemental. On apprend que Colossus, la dernière mythomanie de Elon Musk, consommerait 150 MW et 4,9 millions de litres d’eau par jour. Tout ça pour générer de fausses infos pour les campagnes électorales.
![](https://curiouser.fr/wp-content/uploads/2024/10/What-Are-The-Negative-Impacts-Of-Artificial-Intelligence-AI-1974643791-530x354.png)
La réflexion autour de ces différentes problématiques est indispensable pour accompagner l’essor de l’Intelligence Artificielle en bonne intelligence (non artificielle). Oui, c’est bien de générer de façon automatisée une présentation power point ou un email. Mais à quel prix ? Celui de l’environnement, de la qualité de nos démocraties, de notre quotient intellectuel ?
La formation Ai sérieuse doit faire réfléchir aux implications sociétales de ces technologies.
3/ Instaurer le DOUTE sur les actualités et informations sur le sujet de l’IA
L’Intelligence Artificielle dont on parle aujourd’hui est une technologie liquide. Ce n’est pas une technologie qui répond à un besoin défini, mais tout un tas de technologies différentes en cours de développement dont les usages, souvent inattendus, sont guidés par les investissements financiers et l’opportunisme des acteurs en place.
Car les sommes investies dans la recherche privée en IA sont tout simplement inimaginables. Avec autant d’argent, certains projets complètement fous peuvent réussir mais peuvent également échouer : rappelez-vous les investissements massifs dans la nouvelle économie en 2001 et ceux de la blockchain de 2020 (petit rappel : 96% des NFT sont morts).
![](https://curiouser.fr/wp-content/uploads/2024/10/11-920x398-3399601766-530x229.jpg)
Par conséquent, tout peut peut arriver quand on investit autant. Personne ne sait où ça va, et ceux qui vous disent le contraire essaient de vous vendre quelque chose. Et la conséquence de cet afflux d’argent, c’est de la désinformation qui dépasse toute mesure (lire à ce propos Vrais et faux risques de l’intelligence artificielle d’Irénée Régnauld).
Ainsi, la seule certitude que l’on peut avoir dans ce flot d’informations sur l’IA, ce brouhaha constitué de manipulations de l’information et d’enthousiasme forcé, c’est que certains essaient de vous vendre quelque chose, même si vous ne savez pas quoi.
![](https://curiouser.fr/wp-content/uploads/2024/09/image-530x329.png)
Faites une formation sur : comment devenir riche avec l’IA !
Au lieu de surenchérir sur ce flux de paillettes (et de claquettes), il serait plus utile de s’inquiéter de l’immensité de l’inconnu sur cette technologie : où sont hébergées les datas ? Qui les contrôle les données ? Quelles sont exactement les barrières « morales » programmées par les fabricants ? Quelles sont les garanties de fonctionnement des IA ? Leur durée de fonctionnement ? etc. Ces sujets, on en parle peu, voire pas car ils dérangent.
Ce qu’on ne sait pas sur l’IA aujourd’hui et les implications économiques, sociales, culturelles et politiques dépassent largement ce qu’on sait.
La formation sérieuse doit permettre de générer des questions, et d’instaurer le doute face au déferlement d’informations sur le sujet de l’IA.
Conclusion : choisir un bonne formation est un enjeu primordial
Si la plupart des formations IA sont en réalité de simples cours de prompting qui pourraient être rebaptisés “Comment générer un texte ou une belle image pour épater mes camarades de bureau”, d’autres vont plus loin en proposant à travers des arguments de performance et de rentabilité, d’implémenter l’outil dans les entreprises à travers des techniques d’automatisation d’e-mails, de calendrier, voire des tâches de collaborateurs. Bref, l’IA devient un outil de transformation du travail… Mais pour quel travail ?
![](https://curiouser.fr/wp-content/uploads/2024/09/image-1-530x249.png)
Le dirigeant qui veut former ses collaborateurs se retrouve donc devant un choix : partir sur une formation « effectuante » (au sens de « effectuation ») en espérant que son organisation soit suffisamment agile pour intégrer et digérer ce genre de pratiques, ou sur une formation de fond qui va permettre aux collaborateurs (et à lui-même) de réfléchir aux implications avant de commencer à utiliser l’outil n’importe comment.
Quelle que soit son approche, il devra choisir une formation sérieuse. Car l’utilisation d‘une technologie sans comprendre son fonctionnement ou ses limitations ne peut conduire qu’à des désastres. Même pour une formation prompting soi-disant inoffensive.
D’ailleurs, l’annonce de la nouvelle version de Copilot (l’assistant IA de coding de Microsoft) il y a quelques semaines a permis de délier des langues qui n’osaient se manifester avant face à la l’écrasante puissance publicitaire de Redmond. Pour faire simple, les utilisateurs trouvent que le rapport utilité VS cout (notamment du code généré par des non-programmeurs) n’est pas du tout intéressant.
Peut-être qu’une vraie formation objective, qui ne soit pas de l’avant-vente de Copilot, aurait évité à certaines sociétés de payer le prix fort pour s’en apercevoir.