Nous rentrons dans l’ère des machines qui jouent aux humains. Elles plaisantent, critiquent, s’excusent (même quand elles ont raison) et s’améliorent tous les jours à simuler des interactions humaines.
Évidemment, elles ne sont pas humaines. Elles n’ont pas de convictions (en dehors de celles programmées par leurs créateurs et celles qu’on trouve sur le web), aucune responsabilité (lisez leurs CGU), pas d’empathie (à part le simulacre programmé par leurs créateurs pour vous rendre dépendants), pas d’éthique, pas de curiosité, pas de courage…
Mais il y a pourtant plus d’humanité dans une IA qui génère un poème que dans un Trump qui génère un tweet.
Elles ne sont pas humaines, mais elles peuvent être utiles. Et même si les organisations ne se frottent pas aujourd’hui à l’IA pour “booster leur productivité”, elles le feront demain pour créer de nouveaux services internes ou externes et pour optimiser ou automatiser des processus.
Mais comment le faire intelligemment, comment implémenter cette technologie sans nourrir et subir sa face sombre ? Celle qui, aujourd’hui, dépasse largement ses bénéfices : dépendance technologique, chômage, perte de compétences et d’expertise, dépendance cognitive, déshumanisation, destruction environnementale, etc.

La solution existe. A l’opposée du mot d’ordre “IA partout, tout de suite”, du FOMO créé par le marketing technologique des constructeurs de modèles.
Une solution pas si simple. Car elle implique que l’organisation (direction et collaborateurs) soit suffisamment mature pour impliquer tout le monde dans un processus d’adoption technologique durable.
Ce fameux processus qui consiste à augmenter ses capacités grâce à la technologie en imposant ses valeurs humaines et sa vision long terme.
2026 sera donc l’année de la maturité de cette réflexion autour de l’usage de la technologie dans les organisations. Une réflexion qui impliquera sens critique, acculturation au sujet et implication des collaborateurs.
N’est-ce pas une année passionnante qui nous attend ?
Cyril