Presse : L'IA, bientôt un collègue comme les autres ?

Si les technologies telles que ChatGPT menacent de détruire des millions d’emplois, elles pourraient aussi faire émerger des métiers encore insoupçonnés.

Par Gabriel Grésillon

Guillaume Buisson est radiologue dans la région lyonnaise. Le groupe Imvoc dont il est associé a fait appel à l’intelligence artificielle pour aider les praticiens dans la détection de certaines pathologies. Ce spécialiste du cancer du sein est convaincu d’avoir fait le bon choix et qu’à l’avenir, « les radiologues ne pourront pas se passer de l’IA » car celle-ci permet « un niveau de diagnostic constant ». Autrement dit, un praticien pourra d’autant plus se reposer sur cet outil dans une spécialité qui n’est pas la sienne.

« On a cru que le grand méchant loup allait nous manger, mais en fait l’IA est plutôt notre chien de garde », veut-il croire en estimant qu’il forme avec l’IA « un bon duo qui profite au patient » et qui lui a même permis de très légèrement augmenter le nombre de pathologies détectées. Dans un tout autre domaine de l’imagerie, la traumatologie, l’IA n’est pas loin d’être devenue autonome, ajoute-t-il : elle ne rate presque jamais une fracture en analysant une radio – il lui arrive parfois, en revanche, de voir des lésions qui n’existent pas. « L’IA est tout simplement en train de s’installer dans la pratique courante du métier de radiologue », résume-t-il.

Une nécessité démographique

Pour Philippe Coucke, un radiothérapeute auteur de deux livres sur l’IA et la médecine, la violente secousse que va provoquer cette technologie dans le monde de la santé peut aussi être salutaire, compte tenu du contexte démographique : « L’assistance des machines doit être perçue comme une chance alors que la population vieillit et que le nombre de soignants va diminuer ». D’autant qu’elle est rendue indispensable par le fait que la médecine « ne cesse de se complexifier et de se spécialiser », ajoute-t-il. Luca Massaron, un Italien auteur de nombreux livres sur l’IA, dont « L’IA pour les nuls », va plus loin en estimant que cet enjeu démographique dépasse le monde de la santé. Il parie que, contrairement à la voiture autonome dont le fantasme fit grand bruit mais ne correspondait à aucun besoin économique majeur, « l’IA répond à une réelle nécessité compte tenu de la diminution tendancielle de la population active dans nos pays ». Elle se répandra comme une traînée de poudre car notre avenir s’écrit nécessairement avec elle.

L’intelligence artificielle, une chance pour les travailleurs ? Certes, cette technologie aux progrès fulgurants a le potentiel de balayer des millions d’emplois. Mais à condition d’être intelligemment utilisée, elle porte également en germe de réelles opportunités. Au-delà de l’enjeu démographique, elle pourrait avoir des répercussions sociales inattendues.

Contrairement à d’autres technologies dont l’impact était concentré sur des tâches à faible valeur ajoutée, l’IA générative peut bénéficier à l’ensemble des travailleurs. Vinciane Beauchene, directrice associée au Boston Consulting Group, estime ainsi que les IA génératives telles que ChatGPT pourraient donner un coup de pouce aux travailleurs relativement peu qualifiés, comme « cet auto-entrepreneur qui n’est pas très à l’aise avec l’anglais ou la rédaction ». « L’IA générative permet à tout le monde d’accéder à un socle commun de connaissances », résume-t-elle. « Peut-être que le grand ponte en médecine ou le chercheur en laboratoire spécialiste des molécules vont se retrouver plus challengés que l’infirmière dont les qualités humaines sont impossibles à remplacer », s’interroge Vinciane Beauchene.

Une technologie au service d’une plus grande égalité sociale ? Quand on les questionne sur les conséquences de l’IA sur l’emploi, la plupart des économistes préfèrent éviter de sortir leur boule de cristal et optent pour un coup d’œil dans le rétroviseur.

L’Histoire, rappellent-ils, démontre que les innovations ont souvent créé plus d’emplois qu’elles n’en ont détruits. Les auteurs d’une étude de Goldman Sachs avançant le chiffre de 300 millions d’emplois supprimés refusent de céder au pessimisme et citent un travail de l’économiste David Autor selon lequel 60 % des actifs effectuent aujourd’hui des métiers qui n’existaient pas en 1940. Conclusion : depuis presque un siècle, l’immense majorité de la croissance de l’emploi a découlé, par ricochet, des conséquences de l’innovation.

Quand l’IA hallucine

Bien sûr, l’argument n’en est pas un : tant qu’aucune loi ne le démontre, un principe souvent vérifié n’a pas vocation à se répéter éternellement. Rien ne dit que l’IA ne va pas être l’exception qui confirme la règle. Mais ce coup d’œil à l’histoire peut aiguiser notre regard : il prouve que les innovations entraînent souvent la création de tâches jusqu’alors insoupçonnées. A quoi pourraient ressembler ces nouvelles missions confiées aux humains ?

Pour apporter de premiers éléments de réponse à cette question, rien de tel que de s’interroger sur les limites de la technologie elle-même. La première, évoquée par tous les spécialistes, porte un nom surprenant : les hallucinations. Ainsi ont été baptisées les erreurs commises par les IA.

Un phénomène fréquent et compréhensible quand on sait que ces dernières puisent essentiellement leur « savoir » dans un océan de données, le web, où se côtoient le meilleur et le pire. Selon une toute récente étude effectuée à l’Université de Hong Kong, seules 63 % des affirmations générées par Chat GPT se sont révélées exactes.

Pour Luc Julia, l’un des grands spécialistes français de l’IA, il est donc essentiel que les humains apprennent à utiliser l’outil avec la dose de recul qui s’impose. « Ceux qui disent qu’il faut bannir ChatGPT de l’école se trompent lourdement : il faut au contraire apprendre à s’en servir, comme de n’importe quel outil, en connaissant ses forces et ses lacunes », tranche-t-il.

Faire barrage aux « fake news »

Face à une technologie capable de produire très vite des contenus de qualité incertaine, on peut affirmer que le travail de vérification va s’avérer crucial. Exemple avec la finance : fondateur de la société 73 Strings, Yann Magnan estime « extrêmement compliqué d’auditer des données produites par l’intelligence artificielle ». Idéal pour produire rapidement une vision d’ensemble pertinente, l’IA est un outil « précieux mais sur lequel on ne peut pas s’appuyer les yeux fermés », a fortiori dans un monde où une erreur chiffrée peut avoir des conséquences catastrophiques, y compris au plan juridique. Face à des investisseurs ou à un régulateur boursier, mieux vaut faire confiance à des cerveaux humains – ou éventuellement à des IA exclusivement entraînées sur un corpus de données totalement irréprochables, à l’image de celle que l’agence Bloomberg met au point. La même vigilance s’impose dans les fonctions juridiques, dans la presse ou en matière de droits d’auteur. Si le temps consacré à la production de contenu est appelé à fondre, celui dédié à la vérification des faits – ou des images générées par l’IA – ne peut, lui, que croître.

Faute de quoi, notamment, la prolifération de « fake news » constatée depuis quelques années n’aura été qu’un avant-goût de ce qui nous attend. Cécile Dejoux, conférencière et auteure du livre « Ce sera l’IA ou/et moi », estime donc qu’il va falloir « développer un esprit critique face aux IA ».

Le corpus sur lequel elles se sont entraînées « a ses propres biais idéologiques, de même que les IA chinoises auront les leurs », pronostique-t-elle en appelant à se méfier de ces « boîtes noires » dont le principe, par son opacité, « est contraire à l’essence de la démarche scientifique ». Des boîtes noires qui ont même de quoi inquiéter certaines entreprises au plan de la confidentialité des données qu’on leur confie.

Le risque de la standardisation

Frédéric Messian, qui dirige la société Lonsdale, aide ses clients à « définir ou redéfinir la singularité de leur marque ». Il se réjouit de voir l’IA accélérer certaines fonctions au sein de son entreprise mais fixe aussi des limites : ses clients préfèrent parfois éviter l’utilisation des IA génératives dans leur réflexion stratégique, de peur que leurs requêtes tombent dans les mains de la concurrence. Le même Frédéric Messian relève une autre limite de l’IA. « Si vous demandez à un logiciel de vous représenter un concessionnaire automobile, vous obtiendrez une image splendide mais vous ne saurez pas si vous êtes chez Renault, Peugeot ou Mercedes », explique-t-il. « Les IA génératives sont des systèmes probabilistes qui ne produisent pas de la rupture, alors que nos clients veulent être différents les uns des autres », ajoute-t-il. Luca Massaron abonde : « Si vous vous appuyez sur ces technologies pour définir votre produit, vous pouvez être certain qu’il sera hautement standardisé ». D’autant que la machine apprend de vos propres attitudes, ce qui risque d’accentuer les phénomènes de « bulles cognitives » que les réseaux sociaux ont déjà mis en exergue : votre IA risque de vous donner à lire ou voir ce qui vous plaît, plutôt que ce qui vous surprend.

Au Boston Consulting Group, on résume ainsi la situation : certes, la création de contenu va être prodigieusement accélérée. Mais les tâches en amont et en aval de celle-ci vont, elles, devoir être musclées. En aval : vérifier les faits, élargir le spectre de réflexion pour rajouter une touche d’originalité et de singularité, assurer la solidité juridique. Et en amont ? Savoir manier l’outil. Ainsi commence à apparaître la science du « prompt », selon le terme anglais évoquant la façon de s’adresser aux IA.

Chez Lonsdale, on a vite identifié l’importance de cette discipline et une formation a été organisée pour tous les collaborateurs. Frédéric Messian affirme qu’avec « un prompt bien formulé », il est possible « de faire en deux ou trois heures ce qui se faisait jusqu’à présent en une journée ». Bien rédiger une requête, savoir l’affiner et même nourrir une IA de données pertinentes et bien comprises : désormais, celui qui saura murmurer à l’oreille des IA sera précieux sur le marché de l’emploi.

L’avenir appartient donc à des couples mihommes, mi-machines, baptisés « centaures » par certains experts de l’IA. Pour le directeur de la R&D sur le traitement des langages naturels au cabinet Bluenove Eric de la Clergerie, il est capital de s’orienter vers un monde où, dans ce binôme, « l’humain reste capable de diriger l’IA, ce qui suppose une réelle expertise, faute de quoi on pourrait aller au-devant de soucis relativement sérieux ». Certes, « il ne faut pas anthropomorphiser ces outils qui n’ont ni véritable raisonnement, ni désir, ni volonté, et sont loin de chercher à prendre le pouvoir ». Mais, ajoute l’expert, « ils seraient assez stupides pour faire des bêtises si on leur confiait plus d’autonomie que nécessaire ». Pour lui, il est donc rassurant de voir l’Europe chercher à fixer un cadre réglementaire.

Dans l’environnement qui se dessine, résume Luc Julia, « il va être compliqué de remplacer les humains car ils sont multicartes, tandis que les IA sont des outils destinés à être plus performants que nous sur certaines tâches bien précises ». L’IA, ajoute Cécile Dejoux, « crée des réponses tandis que seul l’homme sait trouver les questions parce qu’il a les capteurs qui lui permettent de comprendre les contextes ». Et lui seul sait quelle solution est « non pas la meilleure au plan rationnel, mais la plus acceptable au plan politique », juge l’enseignante. L’heure où les machines remplaceront les humains n’a peut-être pas (encore) sonné. Mais dans cet environnement en mutation accélérée, prévient Vinciane Beauchene, du Boston Consulting Group, « chacun va être contraint de se former tout au long de sa carrière et les entreprises vont devoir investir fortement dans le développement des compétences des collaborateurs ». Sa conclusion ? « à court et moyen termes, ça va quand même secouer. »

Source : Les Echos du 25 mai 2023

Précédent
Précédent

Webinaire : De la Transformation Digitale à l'IA : Le Prochain Défi des Ressources Humaines

Suivant
Suivant

Presse : IA, demain tous chômeurs ?