L’ « intelligence artificielle » en résolution des conflits : premier contact

Le lancement en fanfare de ChatGPT en novembre 2022 a réveillé craintes et fantasmes autour de l’« intelligence artificielle » (IA), chacun se demandant quel impact elle pourrait avoir dans sa vie et son activité. On pourrait penser de prime abord que la résolution des conflits, une matière éminemment « humaine », n’est pas concernée par ces technologies. Pourtant, les progrès révélés par ChatGPT autour du langage invitent à se poser sérieusement la question. Alors, Frankenstein ou robot médiateur ? Sans doute aucun des deux, mais un outil qu’il va s’agir de dompter !

Comme les 100 millions d’utilisateurs qui se bousculaient au portillon en deux mois d’ouverture au grand public, j’avais commencé par interroger ChatGPT comme la Pythie, et à lui demander tout et n’importe quoi.

Je n’avais alors obtenu qu’un filet d’eau tiède de banalités… d’autant qu’il s‘avérait plus proche d’un illusionniste mythomane que d’une divinité omnisciente : il « inventait » des informations de toutes pièces et avec un aplomb à vous couper le souffle !

C’est seulement lorsque j’entrepris de lui poser des questions plus cadrées et plus précises que ses réponses se révélèrent étonnantes, stimulantes mais aussi un peu effrayantes… J’ai donc cherché à comprendre si les technologies qui le fondent pourraient vraiment être utiles en résolution des conflits, puisque le langage et la communication y tiennent un rôle prépondérant.

Dans cette première partie, pour mieux comprendre comment l’IA pourrait avoir une utilité en résolution des conflits, testons déjà ce que sait faire ChatGPT, l’outil le plus facilement accessible à ce jour (A), pour voir ensuite ce qu’on peut attendre de l’IA (B).
Dans la seconde partie, il sera question des usages concrets en résolution des conflits et de la réaction à avoir pour en tirer parti tout en ayant conscience des risques.

Splendeurs et misères de ChatGPT

Dialogues avec mon Chatbot

Voici un « échange » (en intégralité, sans modification) que j’ai eu avec ChatGPT pour le tester sur sa capacité à analyser le ton et le sens d’un message, et qui m’a paru révéler un certain potentiel en résolution des conflits.

Ma demande (« prompt ») : Que penses-tu du texte suivant dans un contexte de conflit: « tu me réponds à ce mail stp ??? Ça fait combien de fois que je te demande !! Tu commences à me saouler là !! »

Réponse de ChatGPT : Dans un contexte de conflit, le texte original que vous avez fourni peut être considéré comme agressif, accusateur et peu constructif pour résoudre le problème à l’origine de l’e-mail. L’utilisation de mots comme « saouler » et les points d’exclamation multiples peuvent être perçus comme hostiles et intensifier davantage le conflit. Dans un contexte de conflit, il est important de communiquer de manière claire et respectueuse, même lorsque l’on est frustré ou contrarié. Il peut être plus efficace de décrire la situation de manière objective et de demander une réponse ou une solution spécifique de manière respectueuse et professionnelle. Par exemple, « Je comprends que tu es occupé, mais j’ai besoin d’une réponse à propos de ce e-mail. Peux-tu me dire quand tu pourras me répondre ? »

Quelques remarques à la lecture de cette réponse :

– La demande a été traitée de façon pertinente et fluide, alors qu’elle était formulée de façon « orale » et même « familière » ;
– l’outil est capable d’identifier le ton d’un texte et son effet potentiel sur un lecteur, et de le justifier en citant les éléments adéquats,
– il est capable d’établir un lien de causalité entre « ne pas répondre à un e-mail » et « être occupé »,
– il est capable de reformuler le texte (sans qu’on lui demande), avec un ton différent, qu’il « évalue » comme plus adapté – d’une façon assez satisfaisante,
– il se « lance » assez vite dans une dynamique de conseil, avec une optique relativement consensuelle – bien que convenue.

Dans d’autres tests effectués, il a été capable de structurer une réclamation de façon également adaptée à l’objectif assigné et d’identifier l’enjeu de la demande (qu’une vitre cassée représente un danger pour la sécurité des personnes) ou encore de faire le lien entre une situation (l’absence d’un logo sur un document) et un besoin sousjacent  (le besoin de reconnaissance).

Avons-nous donc affaire à une super-intelligence capable de prodiguer des conseils avisés sur tous les sujets ? Loin de là, comme nous allons le voir.

Ainsi parlait ChatGPT

Concrètement, ChatGPT produit une réponse comme on joue aux dominos2 : pour chaque mot ou séquence verbale, il calcule le mot suivant le plus probable statistiquement par rapport à ce dont il dispose dans son gigantesque corpus de données d’apprentissage (voir infra)3.

Comme le résume un spécialiste, cette IA « ne fait que broder un mot après l’autre, sans objectif prédéfini, sans plan, simplement pour que chaque mot posé respecte une cohérence statistique avec ceux qui le précèdent (…) Et si elle écrit souvent des vérités, ce n’est qu’un effet secondaire de son objectif premier d’imitation statistique»4

ChatGPT ne « pense » pas, ne « raisonne » pas et ne « comprend » strictement rien à sa réponse. Cet outil a été conçu principalement pour être capable de converser de façon fluide avec des humains sur n’importe quel sujet, et non pas pour être une référence… On est plus près de « TchatcheGPT » que d’un professeur d’université !

À cause de son fonctionnement statistique, ChatGPT connaît d’importantes limites :

• choix de mots qui lui paraissent « plausibles » mais qui, mis bout à bout, constituent une information totalement fausse, et qu’on appelle une « hallucination »5 ,
• absence de logique, de raisonnement, de discernement, de contexte, de métacognition6 mais aussi de possibilité de planifier les réponses,
• absence de stabilité dans les réponses : à chaque demande, l’outil refait son analyse statistique et peut tomber sur des informations ou formulations différentes… Souvent ChatGPT varie, bien fol est qui s’y fie !

Néanmoins, et bien que ChatGPT s’appuie sur des technologies connues des
spécialistes depuis plusieurs années, c’est la première fois que le grand public a accès à des fonctionnalités aussi concrètes et prometteuses de dialogue avec une machine. C’est donc l’occasion de regarder de plus près ce que les progrès en IA peuvent apporter, d’autant que l’engouement pour ChatGPT va nécessairement encore provoquer des avancées rapides.

Voyage au centre de l’IA

La machine à remonter l’information

Le terme « intelligence artificielle » désigne l’ensemble des travaux visant à faire réaliser par des machines des tâches que l’humain effectue grâce à son intelligence.

Alors qu’elle est apparue dans le milieu scientifique au cours des années 1950, cette appellation d’ « Intelligence artificielle » est aujourd’hui contestée par des spécialistes car elle charrie un imaginaire de science-fiction éloigné de la réalité. Certains lui préfèrent « Intelligence (humaine) Augmentée ou Amplifiée (par la machine)» – quitte à garder le terme « IA » qui s’est imposé7.

En effet, l’IA n’a rien de surnaturel et d’ailleurs nombre des innovations que nous utilisons quotidiennement peuvent comprendre des systèmes d’IA, tels que les filtres de courriels indésirables8.

L’ébullition actuelle autour de l’IA est liée aux progrès spectaculaires ces dernières années de l’une de ses branches, l’apprentissage par les machines (machine learning) et l’apprentissage profond (deep learning)9.

Afin d’apprendre à une machine à reconnaître les chats par exemple, on la « nourrit » avec un grand nombre de photos de chats et d’autres animaux (le « corpus de données d’apprentissage »). Grâce à des algorithmes et à un réseau de « neurones artificiels » inspiré du cerveau biologique (et à beaucoup de travail humain), la machine détermine les critères identifiant les chats (le « modèle »). Par la suite, si on lui présente une nouvelle photo, elle détermine s’il y a un chat ou non, selon ce qui est le plus vraisemblable statistiquement (la « prédiction »).

Les applications sont légion, et en particulier dans le domaine du traitement automatisé de la langue naturelle (TALN) où on « apprend » à des machines à traiter un message écrit par un humain quelle que soit sa formulation. C’est le cas de ChatGPT, entraîné avec un nombre stratosphérique de sources textuelles (livres, articles, pages web, etc.), et d’autres IA dites « génératives » de contenus.

L’IA ne s’arrête pas aux méthodes statistiques, d’autres approchent existent, mais nombre de systèmes actuellement en développement utiliseront peu ou prou cette méthode d’apprentissage des machines, combinée avec d’autres.

On perçoit immédiatement ce qui fait la force (ou la faiblesse, voire le danger) d’un tel système : la qualité et la pertinence du corpus d’apprentissage, et ses conditions d’entraînement sont cruciales pour espérer obtenir une analyse adéquate.

Des bottes de sept lieues intellectuelles

Grâce à la puissance de calcul des ordinateurs et à la collecte d’énormes quantités de données, l’IA peut réaliser un certain nombre de tâches plus vite, massivement et avec une somme de connaissances inaccessible pour un simple mortel, comme si ce dernier était équipé de bottes de sept lieues.

L’IA permet schématiquement de fouiller dans des masses d’informations et d’y détecter celle recherchée, de traduire à grande vitesse (entre les langues, de la voix au texte, du texte à l’image), de retranscrire, de proposer des centaines de formulations ou d’alternatives etc.

Récemment, une IA a permis d’attribuer à un auteur, Lope de Vega (1562-1635), une pièce jusque-là inconnue cachée au fond des archives de la Bibliothèque nationale d’Espagne depuis 1882. L’IA a reconnu le style de l’auteur parmi les 1300 manuscrits qui venaient d’être retranscrits. Son analyse a été confirmée ensuite par une expertise humaine10 mais rien n’aurait été possible sans sa capacité à ingurgiter d’énormes quantités de données en un temps record.

Il faut s’attendre à voir l’IA faire irruption sur tous les terrains où une tâche peut être « apprise » par une machine, où des étapes de raisonnement peuvent guider une série d’instructions, où peuvent émerger des caractéristiques. Seules les tâches qui ne « s’apprennent pas », parce que trop liées à l’émotion ou à la personnalité, pourraient lui échapper durablement…

Et encore, l’IA pourrait « imiter » certaines qualités humaines en apprenant ce qui est récurrent ou prévisible. Par exemple, si elle apprend que la plupart des gens ressentent de la colère lorsqu’elles sont ignorées par un collègue, elle pourrait « resservir » cette information, donnant l’illusion d’avoir compris. Même dénuée de sens commun, ChatGPT a bien détecté les deux sens possibles de la phrase « je suis au lit avec le docteur »… !

L’enjeu est important car il n’a jamais été aussi simple de développer un outil fondé sur l’IA avec l’apparition des « modèles de fondation »11 pré-entraînés qui permettent de ne pas repartir de zéro (comme le modèle GPT « Generative Pre-trained Transformer »). On peut les personnaliser en les entraînant avec son propre corpus de connaissances thématiques (« fine tuning »), afin d’obtenir un produit performant dans tel ou tel domaine…

Avec un corpus d’apprentissage pertinent et ciblé, l’IA pourrait offrir un accès inédit et convivial à la connaissance humaine accumulée sur tout sujet. Comment l’IA peut-elle alors nous être utile en résolution des conflits ? Et comment réagir à son irruption dans ce domaine avec les risques associés ? À suivre dans la seconde partie…

Après avoir testé ChatGPT et tenté de comprendre le fonctionnement de l’IA, penchons-nous sur les usages prévisibles en résolution des conflits et les risques associés, pour savoir comment réagir.

À la recherche du « bon usage » en résolution des conflits

C’est arrivé près de chez nous

En matière de négociation et de résolution de conflits, des initiatives intéressantes ont déjà commencé à émerger et devraient se multiplier12 :

· Des projets d’automatisation des négociations (faibles montants en ligne) ou aide à la négociation (offres à l’aveugle, négociations multiples etc.) se développent notamment outre-Atlantique13,
· La Chambre de commerce internationale (ICC) et la Conférence des Nations Unies sur le Commerce et le Développement (CNUCED) ont présenté en 2018 un outil d’aide à la négociation des traités internationaux, le Cognitive Trade Advisor (CTA) qui analyse et interprète des milliers de dispositions complexes dans les accords commerciaux pour faciliter le travail de préparation des négociateurs14,
· La Cour de cassation cherche à utiliser l’IA pour détecter les divergences d’interprétation dans les décisions de justice, ce qui a donné lieu à des recherches avec Etalab et l’INRIA15,
· Une IA serait déjà capable de jouer à Diplomacy en prédisant les mouvements des autres joueurs, et surtout en négociant et collaborant avec eux, mêlant le traitement du langage naturel et le jeu stratégique (qui a déjà permis à l’IA de gagner au Go ou aux échecs)16,
· Des chercheurs de l’Institut de neurosciences de Barcelone travaillent sur un projet d’outil de résolution des conflits en réalité virtuelle pour les expériences immersives, conçu sur la base de modèles théoriques existants enneurosciences et psychologie sociale. Il s’agirait d’un agent « invité » (« guest ») capable d’identifier un conflit entre participants et d’apporter des changements (activité, musique, décor) pour stimuler la résolution (coopération, relaxation)17
· Des chercheurs américains ont testé une IA dans le cadre d’un débat enflammé sur le port d’armes, où elle proposait diverses reformulations des réponses que les participants étaient libres d’adopter ou non. Ils n’ont pas changé d’opinion mais auraient trouvé la discussion plus agréable et se seraient sentis plus respectés et entendus18.

Ces usages en sont aux prémices, mais on peut imaginer des usages variés et réalistes de l’IA tant au stade de la prévention que de la résolution des conflits, en médiation comme en négociation.

De grandes espérances

En prévention des conflits, l’IA pourrait :

· Faciliter la sensibilisation et la formation à la gestion des conflits (exercices de simulations par exemple)
· Faciliter la modération des forums et réseaux sociaux,
· Détecter des signaux faibles de conflit ou de difficultés dans les échanges de courriers, au sein de milliers de commentaires en ligne sur une entreprise etc.,
· Détecter des schémas répétitifs à grande échelle (un nombre anormal de conflits avec des clients sur une thématique donnée etc.),
· Identifier dans un texte les opinions positives, négatives ou neutres,
· Alerter en présence de facteurs de risques de conflit,
· Répliquer des procédures récurrentes de dialogue avec les clients qui font appel à un service après-vente,
· Servir de « correcteur sémantique » (comme les actuels correcteurs orthographiques) qui pourrait « relire » les e-mails avant envoi et alerter l’utilisateur sur la façon dont le message pourrait être compris, sur le ton employé, et proposer des formulations alternatives …

L’utilisation de l’IA pour faciliter le dialogue peut sembler déshumanisante mais il n’est pas toujours possible de faire appel à un tiers lorsqu’on doit traiter des milliers de demandes ou besoins simultanés, notamment sur les réseaux sociaux.

En outre, demander de l’aide dans un conflit n’est pas toujours naturel19 : commencer par une interaction avec une machine dénuée d’opinion et d’émotion pourrait être une porte d’entrée vers une prise de conscience de l’intérêt des méthodes de gestion amiable des conflits.

L’IA peut surtout être un outil au service du médiateur et du négociateur20 :

· Générer des options, varier les angles et points de vue, proposer des critiques constructives,
· Proposer des solutions intégrant de nombreux paramètres (ex. les dates de vacances dans un service qui comprend des couples divorcés etc.), faciliter l’utilisation de la théorie des jeux,
· Faciliter l’accès à la mémoire des expériences passées : et si la solution à un conflit actuel pouvait être trouvée en s’inspirant d’une négociation du 15ème siècle ?
· Susciter de nouvelles questions, proposer de nouvelles reformulations,
· Aider à la recherche d’informations dans un corpus documentaire,
· Simplifier ou vulgariser des points techniques,
· Traduire automatiquement en temps réel dans une autre langue,
· Favoriser l’inclusion (synthèse vocale, transcription écrite etc.),
· Générer des images lorsque les personnes veulent utiliser la créativité mais sont intimidées par le dessin,
· Compiler et transmettre des bonnes pratiques construites sur la base des retours des utilisateurs pour renforcer la formation continue des médiateurs…

Cela peut donner le tournis : est-ce vraiment un progrès ou une fuite en avant ?
Quels sont les risques et comment réagir pour garder la main ?

L’humain contre-attaque

La machine infernale : les risques de l’IA

L’IA pose des problèmes plus immédiats qu’un hypothétique soulèvement de robots désireux de se débarrasser de l’humanité : consommation d’énergie et d’eau préoccupantes, travail humain pénible lors de l’apprentissage, enjeux accrus pour les données personnelles, défis pour les droits de propriété intellectuelle, risques majeurs pour les informations confidentielles, biais importants dans les données d’apprentissage, risques liés aux informations erronées générées par la machine, manipulations et autres fake news en tout genre, etc.

Outre ces chausse-trappes, le fait de « dialoguer » avec une IA n’est pas anodin : si ChatGPT ne manque jamais une occasion de rappeler qu’il n’est qu’un modèle de langage, les progrès récents font craindre qu’une IA puisse être conçue afin de se faire passer pour un humain et de tromper l’utilisateur, avec toutes les conséquences possibles en termes de manipulation.

Même lorsque l’on a conscience d’avoir affaire à un robot, une dépendance émotionnelle peut s’installer du fait de la fausse relation créée par le « dialogue ». Le phénomène a été constaté dès 1966 avec les travaux autour du robot « Eliza », un imitateur de « psychologue rogérien » (!) qui reformulait les dires de l’utilisateur sous forme de question. Son créateur, un chercheur en informatique du MIT, a été alarmé de constater que les utilisateurs attribuaient des sentiments humains à son programme21.

Plus généralement, l’IA est-elle toujours apte à produire un résultat signifiant dans des domaines non stables et mus par des relations aussi imprévisibles que les phénomènes sociaux et humains, non réductibles en équations22 ?

Mais surtout, veut-on vivre entourés de thermostats qui mesurent, pèsent et sous- pèsent toutes nos activités pour nous proposer des mesures correctrices dans un jeu infini de boucles de rétroaction23 ?

Veut-on être équipés d’assistants virtuels qui nous enverront une décharge électrique si on dit un mot plus haut que l’autre ? Quelle autonomie, quel libre-arbitre nous resterait-il ?

Des robots et des hommes

L’IA est certainement une arme puissante mais comme toujours, le danger se situe entre la chaise et le clavier. C’est pourquoi l’enjeu est de se doter rapidement d’un cadre juridique adapté24, et de miser sur l’éducation pour que les citoyens cernent les risques et les limites de l’outil.

Pour les médiateurs et les négociateurs, l’enjeu sera de savoir utiliser le bon outil pour le bon usage (des tâches circonscrites en gardant toujours la main), et de savoir lui poser les bonnes questions pour en tirer le meilleur avantage. En effet, ce sont ceux qui s’y connaissent le mieux dans un domaine qui bénéficient le plus des apports de l’IA : elle représente pour eux une aide, et ils sont capables d’en identifier les limites et les erreurs.

Cela suppose aussi de s’investir collectivement pour nourrir des IA avec des informations pertinentes en matière de gestion des conflits (et non pas le courrier du cœur des magazines), et d’en surveiller le mode de fonctionnement (protection des données personnelles, confidentialité, respect de l’autonomie des personnes, transparence, consentement, etc.).

Doit-on craindre d’être « remplacés » par l’IA ? Difficile de faire des prédictions mais la technologie peut rencontrer le mur de l’acceptabilité : on peut certes piquer un petit somme dans un métro automatique, sur rails dédiés et sachant qu’une équipe humaine surveille le réseau, mais quid dans un engin lâché dans la nature et livré à sa seule IA ?

Un certain nombre de tâches intellectuelles seront effectivement automatisables et la plupart des métiers intellectuels connaîtront sans doute une forme d’hybridation – on a tendance à sous-estimer la part de tâches répétitives d’une activité.

Pour autant, le travail ne se résume pas à une série de tâches à accomplir, et c’est d’autant plus vrai en médiation et en négociation car la relation humaine ne se limite ni à la maîtrise du langage, ni à l’échange des idées, ni même au raisonnement, mais touche quelque chose de plus profond, instinctif et grégaire.

En outre, une machine ne pourra pas remplacer le fait de se sentir écouté et compris par une autre personne, ou encore le fait d’avoir un « vrai » interlocuteur envers qui on se sent personnellement engagé dans un processus.

Plus généralement, l’esprit humain n’est pas comparable avec le fonctionnement d’une IA pour Noam Chomsky, Ian Roberts et Jeffrey Watumull, dans une tribune sur ChatGPT : «(…) l’esprit humain est un système étonnamment efficace, et mêmeélégant, qui fonctionne avec de petites quantités d’informations ; il ne cherche pas à déduire des corrélations brutes entre les points de données, mais à créer des explications »25.

Finalement, ce qui fait la différence, c’est l’intelligence émotionnelle, la flexibilité, le sens commun, la compréhension de l’implicite. Autrement dit, la qualité de présence et la capacité à se placer dans l’ici et maintenant… et non pas à conduire les yeux rivés sur le rétroviseur26 !

Je remercie tous celles et ceux avec qui j’ai discuté de cet article et en particulier Hervé Mignot, expert en science des données et R&D et Thomas Solignac, entrepreneur et conférencier en IA qui m’ont permis de mieux appréhender les réalités et les perspectives de l’IA.

Sylvia Israel


1 Version accessible gratuitement sur le site chat.openai.com
2 L. Devillers, intervention dans l’émission Intelligence artificielle : révolution ou cauchemar ? C ce soir, 2 février 2023
3 S. Nachez, Chat me if you can : le réel talent de ChatGPT, Actu IA janvier-mars 2023 p. 54
4 F. Fleuret, Il faut qu’on parle de ChatGPT , Le Temps, 28 février 2023 ; F. Suchanek et G. Varoquaux, Beau parleur comme une IA, The Conversation, 26 décembre 2022
5 https://fr.wikipedia.org/wiki/Hallucination_(intelligence_artificielle)
6 Sur plusieurs de ces points voir Y. Bengio, Actu IA janvier mars 2023 p. 44
7 L. Julia, L’intelligence artificielle n’existe pas, éd. First, J’ai lu, 2019, p. 96 ; G. Kasparov : «L’ intelligence artificielle nous rendra plus humains», Le Parisien, 9 mai 2019
8 https://edps.europa.eu/data-protection/our-work/subjects/intelligence-artificielle_fr
9 Voir ChatGP T ou la percée des modèles d’IA conversationnels , Pôle d’expertise de régulation numérique (peren.gouv.fr) ; Y. Le Cun, Quand la machine apprend, la révolution des neurones artificiels et de l’apprentissage profond, O. Jacob, 2019
10 M. de Taillac, Une intelligence artificielle découvre une pièce inédite de Lope de Vega, Le Figaro, 2 février 2023
11 https://fr.wikipedia.org/wiki/Mod%C3%A8le_de_fondation
12 Voir aussi : Mediation and artificial intelligence, notes for the future of international conflict resolution, DiploFoundation, 2019
13 J. McKendrick, Your Next Negotiating Partner: Artificial Intelligence, Forbes, 17 mars 2023
14 https://unctad.org/news/small-economies-welcome-ai-enabled-trade-tool-worries-remain
15 Voir sur le site de la Cour de cassation ; A. Vitard, La Cour de cassation veut éliminer les divergences de jurisprudence grâce à l’IA 26 Septembre 2022 ; Thibault Charmet, Inès Cherichi, Matthieu Allain, Urszula Czerwinska, Amaury Fouret, et al.. Complex Labelling and Similarity Prediction in Legal Texts: Automatic Analysis of France’s Court of Cassation Rulings. LREC 2022 – 13th Language Resources and Evaluation Conference, Jun 2022, Marseille, France. hal-03663110
16 R. Koller, CICERO: une IA qui sait persuader les humains pour parvenir à ses fins, ICT Journal, 1er décembre 2022
17 Vonintsoa, Machine learning : améliorer la gestion des conflits dans le metaverse , Intelligence-artificielle.com, mai 2022; https://guestxr.eu/
18 N. Gauvrit, Quand ChatGPT apaise les réseaux sociaux, Cerveau & psycho, n°154, mai 2023, p. 72
19 A. Bliszczyk citant C. Pope, AI Writing Too ls Like ChatGPT Are the Future of Learning & No , It’s Not Cheating, Vice.com, 18 janvier 2023
20 Mediation and artificial intelligence, notes for the future of international conflict resolution, DiploFoundation, 2019
21 A. Devillard, IA consciente, le retour d’un fantasme, Sciences et Avenir – La Recherche, avril 2023, n°914, p. 30
22 Y. Meneceur, L’intelligence artificielle en procès, Bruylant, 2020, p. 85-86
23 C. Benavent, Comment l’apprentissage artificiel change notre monde, Pouvoirs, 2023/2 p. 185
24 Première réglementation de l’intelligence artificielle, Parlement européen, 14 juin 2023

25 N. Chomsky, I. Roberts et J. Watumull, Les fausses promesses de ChatGPT, NY Times, 8 mars 2023, publié en français dans Philosophie Magazine, Hors-série, IA le mythe du XXIème siècle (trad. O. Larmagnac-Matheron)
26 J. Poitras, Médiateurs et IA : valoriser l’expertise humaine pour garder l’avantage, conflits-stratégies.com, avril 2023

Vous aimerez aussi...