Fermer

Ce formulaire concerne l’abonnement aux articles quotidiens de Superception. Vous pouvez, si vous le préférez, vous abonner à la newsletter hebdo du site. Merci.

Fermer

Communication.Management.Marketing

Toute vérité n'est que perception

Un enjeu trop souvent ignoré de l’adoption de l’intelligence artificielle générative

Je souligne souvent que l’adoption de l’intelligence artificielle générative au sein d’une fonction Communication s’apparente au doublement de la taille de l’effectif de celle-ci.

S’il s’agit d’ajouter des algorithmes, et non des humains, à une équipe, les défis pour celle-ci sur les plans stratégique, opérationnel et humain ne sont pas moindres pour autant : ses membres doivent revoir leurs méthodes de travail collectives, mais aussi individuelles, afin d’intégrer au mieux leurs nouveaux collègues numériques. J’aurai l’occasion de traiter dans une prochaine édition des Cahiers de l’IA générative des conditions d’une transformation réussie à cet égard.

Je voudrais m’intéresser aujourd’hui à une dimension trop négligée de la collaboration avec des intelligences artificielles génératives : le désapprentissage de compétences et manières d’opérer, qui est beaucoup plus difficile que l’apprentissage.

Ce désapprentissage couvre au moins deux aspects majeurs : la culture et la chaîne de valeur.

Sur le plan culturel, celles et ceux qui travaillent avec l’intelligence artificielle générative doivent accepter sa nature aléatoire et veiller, à travers un contrôle qualité accru, à mitiger les risques induits par cette imprévisibilité. Ils doivent également accepter de ne pas tout savoir ni tout faire, et de confier à des machines une part de leur valeur ajoutée. J’ai l’habitude de dire que l’automatisation est une forme originale de délégation qui impose une approche inédite de la performance individuelle : elle n’est plus complètement personnelle au sens où elle doit désormais résulter de la maîtrise des algorithmes. C’est d’ailleurs ce rapport à une nouvelle performance, hybride, qui produit les peurs que j’évoquais dans mon précédent article : l’intelligence artificielle générative est perçue tour à tour comme un avantage injuste et comme une menace. Cette performance du troisième type, ni totalement humaine ni totalement artificielle, va nécessiter un désapprentissage des réflexes acquis depuis une éternité dans la production et, peut-être surtout, l’évaluation des résultats.

Toujours sur le plan culturel, les individus et les organisations vont devoir déconstruire leur rapport à l’expertise, consubstantiel à la structure de tant d’entreprises et d’institutions, et à l’identité professionnelle de tant de personnes. Il me semble que ce phénomène pourrait se traduire, sur le plan organisationnel, par un renforcement des hiérarchies implicites au dépens des échelons explicites. En particulier, il va devenir plus important de poser les bonnes questions à une intelligence artificielle que de détenir toutes les réponses. Dès lors, les managers vont devoir se départir de leur relation au savoir, qui sera un vecteur de pouvoir moins prégnant qu’il ne l’a été.

Ce sont donc tous les membres d’une organisation – collaborateurs et managers – qui vont devoir remettre en cause leur vision de leur valeur ajoutée.

Image créée avec ChatGPT et Midjourney – (CC) Christophe Lachnitt

Le deuxième aspect majeur en matière de désapprentissage relève de la chaîne de valeur.

L’intégration de l’intelligence artificielle générative dans les fonctions Communication va imposer une refonte complète de leur gouvernance, de leurs méthodes de travail et de leurs processus, et, partant, un renoncement, plus ou moins important selon les cas, à ceux qui prévalent aujourd’hui. Ce sont également certains rôles qui vont devoir être réexaminés. Dans ce domaine, il sera critique que l’ensemble d’une fonction Communication se transforme au même rythme, et donc désapprenne à l’unison pour éviter des désalignements qui affecteraient à la fois la performance et l’épanouissement des équipes concernées. Cet enjeu rejoint naturellement celui évoqué plus haut relatif à la vision de la valeur ajoutée des individus et du collectif.

Dans ce contexte, la mission des managers consistera à accompagner le désapprentissage, en en expliquant la nécessité, en aidant ceux qui ont du mal à faire le deuil du passé ou qui ont peur de leur déclassement, et en communiquant ouvertement sur leur propre réinitialisation. Il importe que cette remise en question des acquis soit un projet collectif, au sein d’une équipe, et non une somme de défis individuels.

En effet, le désapprentissage doit être solidaire pour que l’apprentissage soit transverse : en désapprenant ensemble, on identifie mieux les synergies potentielles des nouveaux modes d’action.

Superception est un média consacré aux enjeux de perception à travers la communication, le management et le marketing dans le contexte de l'intelligence artificielle. Il comprend un blog, une newsletter et un podcast. Il a été créé et est édité par Christophe Lachnitt.

www.superception.fr

2 commentaires sur “Un enjeu trop souvent ignoré de l’adoption de l’intelligence artificielle générative”

› Ajouter un commentaire

Cher Christophe,

C’est passionnant comme toujours mais cela soulève une question.

En communication de crise, si nous avons pris l’habitude de collaborer avec l’IA au quotidien, un des risques que l’on ajoute est … son indisponibilité (quand cette indisponibilité n’est pas elle-même la source de la crise).

Ne faut-il pas prendre des précautions vis-à vis de ce risque?.

Amicalement

Cher Jérôme,

Merci beaucoup.

Tu as raison, c’est effectivement un risque qu’il est difficile, comme avec toute technologie, de mitiger complètement. Cela dépend aussi de quelle partie de la crise l’IA éventuellement indisponible relève.

Amicalement.

Xophe

Ajouter un commentaire

Votre adresse email ne sera pas publiée

This site uses Akismet to reduce spam. Learn how your comment data is processed.