La responsabilité au coeur de l’IA : du paradoxe de l’IA aux différentes stratégies pour les organisations

AUTEUR DE LA PUBLICATION

Patrice Cailleba

author-avatar

Patrice Cailleba est professeur de management au sein de Paris School of Business et membre du PSB Research Lab. Diplômé de l’ESCP Business School, docteur en Philosophie de l’Université de la Sorbonne (Paris IV) et titulaire d’une HDR en sciences de gestion (Paris- Saclay), il est auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale). Ses thèmes de recherche concernent l’éthique des affaires, les comportements organisationnels et la philosophie politique.

Patrice Cailleba

Les travaux récents autour de l’IA commencent à peine à explorer le paradoxe qu’elle présente, mais aussi le type de responsabilité qu’elle implique. Pourtant, ils sont d’une importance cruciale dans la mesure où la stratégie des entreprises et la politique des États devront se définir à l’avenir autour de l’IA.

Il y a un caractère paradoxal, c’est-à-dire contradictoire, interdépendant et indépassable, au cœur de l’IA. Il s’agit du couple automatisation/augmentation qui la nourrit de manière dynamique et récursive. En outre, ce paradoxe ouvre sur des dialectiques subordonnées à l’idée particulière de responsabilité qu’implique l’IA.

L’IA est le produit du management dans la mesure où le management vise à rendre autonome une personne dans la réalisation de ses missions. Or, cette relative autonomie constitue bien le reproche qui lui est fait. Mais l’IA est aussi du management artificiel dans la mesure où elle accompagne et/ ou remplit les fonctions managériales classiques.

Il faut donc penser l’intégration homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire que cette notion paraît inextricable en raison du nombre d’acteurs impliqués et insondable en raison des capacités de l’IA à devenir autonome. Pourtant, la responsabilité est au cœur de l’IA : elle nous rend, sans le savoir, « otages d’autrui ».

À partir de la récursivité de l’IA, on peut identifier des stratégies managériales en distinguant les cercles vicieux potentiels des cercles vertueux envisageables pour les organisations qui s’y engagent.

Les cercles vicieux concernent les entreprises qui privilégient d’abord les tâches d’automatisation et de remplacement de l’activité humaine. Cherchant la rentabilité à court et moyen terme, elles surestiment les avantages financiers liés à la baisse du coût salarial, sans prendre en considération les investissements colossaux. Ces cercles vicieux concernent également les entreprises trop soucieuses de protéger des métiers qui deviennent progressivement obsolètes en les accompagnant artificiellement.

Les cercles vertueux passent par des travaux de prospectives par secteur ou métier qui permettront d’anticiper les besoins en formation des travailleurs et renforceront les dispositifs de sécurisation des parcours professionnels. Equilibrer l’automatisation et l’augmentation paradoxale de l’IA permettrait d’opérer une déqualification sélective de certains métiers en même temps qu’une stratégie de requalification pour d’autres en limitant – autant que faire se peut – les coûts sociaux et économiques d’une transition inévitable.

L’heure est à l’urgence tant une véritable géopolitique des IA se met déjà en place. Il faut donc mener cette bataille pour ne pas devenir une « colonie du monde numérique ».

Un investissement massif de l’État dans la recherche est nécessaire afin de permettre des « audits d’algorithme » pour comprendre ce qui se passe dans la blackbox. De même, la création de formations spécifiques à l’IA, la mise à jour obligatoire de certains diplômes ainsi que l’utilisation de manière prospective du Compte Personnel de Formation (CPF) constituent des facteurs clés de succès.

L’écueil du management de l’IA serait de la considérer comme une simple technique. Sous le couvert d’une « calculabilité intégrale » de son environnement, l’individu ne ferait que se déposséder de lui-même en croyant « arraisonner » le monde et en oubliant sa propre responsabilité au sein de l’IA.

AUTEUR DE LA PUBLICATION

Patrice Cailleba

author-avatar

Patrice Cailleba est professeur de management au sein de Paris School of Business et membre du PSB Research Lab. Diplômé de l’ESCP Business School, docteur en Philosophie de l’Université de la Sorbonne (Paris IV) et titulaire d’une HDR en sciences de gestion (Paris- Saclay), il est auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale). Ses thèmes de recherche concernent l’éthique des affaires, les comportements organisationnels et la philosophie politique.

AUTEUR DE LA PUBLICATION

Patrice Cailleba

author-avatar

Patrice Cailleba est professeur de management au sein de Paris School of Business et membre du PSB Research Lab. Diplômé de l’ESCP Business School, docteur en Philosophie de l’Université de la Sorbonne (Paris IV) et titulaire d’une HDR en sciences de gestion (Paris- Saclay), il est auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale). Ses thèmes de recherche concernent l’éthique des affaires, les comportements organisationnels et la philosophie politique.

Patrice Cailleba

AUTEUR DE LA PUBLICATION

Patrice Cailleba

author-avatar

Patrice Cailleba est professeur de management au sein de Paris School of Business et membre du PSB Research Lab. Diplômé de l’ESCP Business School, docteur en Philosophie de l’Université de la Sorbonne (Paris IV) et titulaire d’une HDR en sciences de gestion (Paris- Saclay), il est auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale). Ses thèmes de recherche concernent l’éthique des affaires, les comportements organisationnels et la philosophie politique.