
« Le projet des grands capitaines d’industrie de la Tech, de Zuckerberg à Musk, n’est plus de permettre à l’humanité de se parler ni même de dialoguer avec des robots, mais de permettre à des robots de nous indiquer quoi faire, que dire et où regarder. »
À l’heure de ChatGPT, la langue elle-même est devenue une production industrielle, accompagnant l’émergence d’un capitalisme linguistique. Olivier Ertzscheid part des usages de ce qu’on appelle abusivement « intelligence artificielle » pour en démonter les mécanismes. Il s’agit avant tout d’artefacts remplaçant le sens par la statistique, industrialisant la production documentaire et développant un Web synthétique. Sommes-nous à l’aube d’une nouvelle « lutte de classes linguistique » ?
Olivier Ertzcheid est chercheur en sciences de l’information et de la communication. Il enseigne en tant que maître de conférences à l’université de Nantes. Il analyse en temps réel les évolutions du Web sur son blog affordance.info.
GPT-4 : c’est toi le chat
Demandez et vous recevrez
Et du côté de l’enseignement ?
Aux origines des LLM
Un agencement collectif d’énonciation(s)
C’est toi le chat
Achever Babel
Tentative d’épuisement du langage
Vers l’épuisement, et au delà
La parabole Pinocchio
Apostille
Générateurs d’images et « d’oeuvres d’art »
Générer n’est pas nécessairement oeuvrer
L’IA est-elle l’avenir de l’art ?
L’oeuvre ouverte
Inpainting et outpainting
Prompte fut la bourse des prompts
Jeux interdits
Jeux de données, datasets (et match)
Naissance d’un capitalisme sémiotique
One More Thing
Mobilis in mobile
Command Control
Stop ou encore ?
Qui a le droit ?
Technologies du défaire
Artificialiser ou augmenter l’intelligence ?
Technologies de l’à ta place
Passer à l’échelle ou sous une échelle
Entre mythologie et mythomanie
Dissémination
Du fact-checking impossible au fact-making halluciné
Une lutte des classes linguistique ?
Révolution sous assistance
Nombre de pages
142
Langue
Française
Année de publication
2024
Éditeur
C&F éditions
ISBN
978-2376-620853
Les IA à l’assaut du cyberespace est un essai éclairant et vulgarisateur de l’IA, accessible (Olivier Ertzscheid est enseignant) et agréable à lire. Si l’ouvrage peut se lire en deux ou trois heures (142 pages), cela n’enlève rien à la pertinence du propos de l’auteur et aux nombreuses références qui viennent nourrir sa démonstration.
Dans son livre, Olivier Ertzscheid s’intéresse à l’impact des artefacts numériques – il refuse, à juste titre, le terme volontairement ambiguë d’Intelligence dite Artificielle – et à leur impact sur notre capacité langagière.
Dans nos univers numériques, les machines sont responsables de plus de la moitié de la production de contenu et ont le potentiel d’influencer la manière dont nous interagissons et dont nous nous informons au quotidien. Si l’auteur démystifie la magie des IA conversationnelles qui malgré les illusions ne font essentiellement que produire du contenu de manière probabiliste, il remet surtout en cause leur généralisation et leur impact sur la structuration même du Web … Avec comme conséquence de nous faire basculer d’un web sémantique (une structuration des données du web permettant un accès à la connaissance) vers un web synthétique, ou le naturel des échanges et des informations serait en train de disparaitre au profit d’interactions avec les machines (bots, agents IA, algorithmes etc…).
Et l’auteur de préciser qu’il ne s’agit pas de minorer les changements que les Large Langage Models peuvent inaugurer dans notre société mais de les inscrire dans une double temporalité souvent antagoniste. Celle du numérique et de la technique d’une part, et celle de notre rapport au(x) savoir(s) et à la langue d’autre part.
Comment ? En nous fiant de manière inconsidérée aux systèmes numériques qui fonctionnent sur la base de mise en équation probabilistes (comme ChatGPT), alors ce qui fonde notre libre arbitre et notre capacité de choix est menacée et entravée. Pourtant, le rôle du langage est constitutif de nos sociétés et l’un des éléments les plus essentiels.
Bien qu’il ne soit pas explicitement mentionné par l’auteur, il me semble opportun de convoquer ici le père de la sociobiologie Edward Osborn Wilson qui dans les origines de la créativité nous rappelait très justement qu’aucune espèce animale, du moins aucune sur plus d’un million connue, n’a de langage. Les linguistes le définissent comme la forme la plus élevée de communication, une combinaison infinie de mots traduisibles en symboles, et (c’est la partie importante) choisie arbitrairement pour conférer un sens.
Arbitrairement, c’est-à-dire loin des modèles statistiques sur lesquels fonctionnent les artefacts génératifs, ce qui donne à l’espèce humaine son caractère d’unicité. Pour cette raison, si les artefacts numériques pourront contribuer à augmenter la créativité humaine, il ne pourront jamais s’y substituer.
Les IA à l’assaut du cyberespace est un ouvrage d’Olivier Ertzscheid à découvrir chez C&F éditions.
Si les études scientifiques et techniques convergent pour signaler que presque la moitié du trafic de l’Internet mondial est désormais assurée par des bots, on observe également que la part des bots dans la production d’informations (vraies ou fausses) et dans les interactions en ligne au sein des plateformes est de plus en plus importante et nous conduit vers ce qui pourrait rapidement devenir une hémiplégie non seulement navigationnelle, mais aussi informationnelle et interactionnelle. Un Web dans lequel nous naviguerions, discuterions et interagirions au moins autant avec des programmes informatiques qu’avec des individus […] C’est un Web synthétique également car dans l’ombre d’usines de l’autre bout du monde, à Madagascar, aux Philippines, au Kenya, se trouvent des travailleurs et des travailleuses qui à l’instar de l’industrie textile, œuvrent dans des conditions misérables pour que nous jouissions de toujours plus de contenus « modérés » afin de nous éviter d’être confrontés au pire, et pour que les agents conversationnels soient de mieux en mieux « contrôlés », à l’opposé du grand récit solutionniste qui voudrait nous faire croire que « l’intelligence artificielle » serait une forme de transcendance qui n’aurait besoin d’aucune intervention ou régulation humaine. (p.11)
Dans une tribune pour le journal Le Monde, Philippe Meirieu indiquait : Le danger majeur de ChatGPT n’est donc pas dans la fraude qu’il autoriserait, mais plutôt dans le rapport aux connaissances que promeut un robot conversationnel conçu pour donner le sentiment de parler à un humain et qui inverse complètement le sens de la relation pédagogique. En effet, ChatGPT, bien plus encore que les traditionnels moteurs de recherche, comble le désir de savoir et tue le désir d’apprendre. Il donne des réponses immédiates objectives et abolit ainsi la dynamique du questionnement. Il produit des certitudes qui enkystent la pensée… Tout le contraire de ce qui incombe au professeur : susciter des interrogations pour libérer des préjugés. (p.26)
Il est assez troublant de penser que des enceintes connectées à ChatGPT en passant par l’ensemble de nos commandes vocales, nous nous adressons et nous entraînons principalement des artefacts techniques qui sont autant de faits énonciatifs plus ou moins performatifs ou assertifs. Et qu’une part de plus en plus significative de notre expérience du monde se noue dans ces espaces essentiellement extractivistes dans lesquels la question du langage n’a de sens que par sa prévisibilité calculatoire. (p.42)
Avec ces artefacts génératifs capables de générer des images sur une échelle perceptive s’étendant de l’imitation figurative à l’artistique, capables aussi de générer du texte sur une échelle interprétative de l’analytique au symbolique, et avec des mêmes artefacts capables de générer des séquences audio ou vidéo, la question n’est plus seulement celle des technologies de l’artefact, des fake news et des deep fakes. (p.45)
Et je complète cette référence par cet autre article de Laura Weidinger et al. sur les risques sociaux et éthiques des modèles de langage (ML) dans lequel les auteurs, (tous chercheurs chez DeepMind, société appartenant à Google), pointent, documentent et discutent une série de 21 risques répartis en 6 grandes catégories : Nous présentons six domaines de risque spécifiques : le premier domaine concerne la perpétuation des stéréotypes, de la discrimination injuste, des normes d’exclusion, du langage toxique et des performances inférieures par groupe social pour les modèles de langage. Le deuxième porte sur les risques de fuites de données privées ou de déductions correctes d’informations sensibles par les ML. Le troisième aborde les risques découlant d’informations médiocres, fausses ou trompeuses, y compris dans les domaines sensibles, et les risques en chaîne tels que l’érosion de la confiance dans les informations partagées. La quatrième partie traite des risques liés aux acteurs qui tentent d’utiliser les indicateurs de performance pour nuire. La cinquième partie se concentre sur les risques spécifiques aux ML utilisés pour étayer les agents conversationnels qui interagissent avec les utilisateurs humains, notamment l’utilisation dangereuse, la manipulation ou la tromperie. La sixième partie aborde les risques liés à l’environnement, à l’automatisation des emplois et à d’autres défis susceptibles d’avoir un effet disparate sur différents groupes sociaux ou communautés. (p.54)
En Juillet 1958, sous le titre « un nouvel appareil apprend en faisant », le New York Times écrit : « Un psychologue présente l’embryon d’un ordinateur électronique qui devrait pouvoir marcher, parler, voir , écrire, se reproduire et être conscient de son existence. »; Ce psychologue c’est Frank Rosenblatt, le père des réseaux de neurones, et cet ordinateur c’est le Perceptron, premier réseau de neurones capable d’apprendre.
Moins de 10 ans après le Perceptron, il y eut ELIZA, le premier programme conversationnel formalisé entre 1964 et 1966 par Joseph Weizenbaum. Celui-ci simulait un échange avec un thérapeute. Le programme ELIZA opérait par reformulation des questions ou des assertions qui lui étaient adressées. ELIZA est considéré comme le premier programme capable de passer le test de Turing.
Un demi-siècle après le teste de Turing et trente-cinq ans après ELIZA, à l’orée des années 2000, la branche militaire de la société Thales (alors Thomson-CSF) développe une série de logiciels portant des noms de philosophes : Schopenhauer, Gorgias, Isocrate et Perelman. Ces logiciels visent à aider à mettre en œuvre des stratégies d’influence et de désinformation sur les terrains de la guerre informationnelle. (p.95)
Il n’est guère étonnant que le linguiste Noam Chomsky, pourtant considéré comme le père de la grammaire générative et transformationnelle, soit si critique dans un récent entretien accordé au New York Times : L’esprit humain n’est pas, à l’instar de ChatGPT et de ses semblables, un moteur statistique encombrant destiné à la recherche de modèles, se nourrissant de centaines de téraoctets de données et extrapolant la réponse conversationnelle la plus probable ou la réponse la plus vraisemblable à une question scientifique. Au contraire, l’esprit humain est un système étonnamment efficace et même élégant qui fonctionne avec de petites quantités d’information; il ne cherche pas à déduire des corrélations brutes entre les points de données, mais à créer des explications. […] En bref, ChatGPT et ses frères sont constitutionnellement incapables d’équilibrer créativité et contrainte. Soit ils surgénèrent (produisant à la fois des vérités et des mensonges, approuvant des décisions éthiques et non éthiques), soit ils sous-génèrent (ne s’engageant dans aucune décision et se montrant indifférents aux conséquences). Compte tenu de l’amoralité, de la fausse science et de l’incompétence linguistique de ces systèmes, on ne peut que rire ou pleurer de leur popularité. (p.100)
En 2011, deux théoriciens de l’intelligence artificielle, Bostrom et Yudowsky, expliquaient dans leur article « The Ethics of Artificial Intelligence » : Les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, pour autant qu’ils restent transparentes à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation. (p.105)
Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. Hannah Arendt. (p.118)
Sundar Pinchai, le directeur général de Google, parlait à propos du moteur de recherche de sa volonté de créer, non pas une intelligence « artificielle » mais plutôt une intelligence « augmentée ». Cette métaphore de l’augmentation est consubstantielle des travaux sur l’intelligence artificielle et avait été posée par Douglas Engelbart, l’un des pionniers du domaine, lorsqu’en 1962 il proposait un cadre conceptuel pour augmenter l’intelligence humaine (« Augmenting Human Intellect : A Conceptual Framework ») dans le cadre du Stanford Research Institute (SRI). (p.112)
Les groupes industriels derrière ces technologies disposent d’un agenda dans lequel le mensonge sur les gains de potentialité permis par ces technologies est une stratégie de conquête de l’opinion. Il s’agit de nous mentir pour nous convaincre de la dimension transcendante de produits technologiques en dissimulant à la fois leurs travers et leurs biais, mais aussi le fait que chaque « saut » technologique dissimule une réalité d’exploitation de travailleurs et de travailleuses pauvres. Avec l’arrivée des enceintes connectées on nous promettait des dispositifs « intelligents » en omettant de préciser que des gens étaient (mal) payés pour retranscrire l’ensemble de nos conversations, y compris celles captées sans notre consentement. Avec l’arrivée des réseaux et médias sociaux ce n’est que depuis très récemment que l’on a découvert l’existence de ces modérateurs et modératrices exploités, aux Philippines notamment, et œuvrant pour modérer les propos, photos et vidéos les plus immondes que l’espèce humain soit en capacité de produire, et de le faire au prix d’une détresse psychologique les condamnant pour la plupart à vivre dans leur chair des syndromes de stress post-traumatique. Avec l’arrivée de ces intelligences artificielles conversationnelles et notamment pour ChatGPT, on omettait de s’attarder sur le fait que la supervision leur permettant de ne pas générer des propos racistes, sexistes, homophobes, négationnistes et j’en passe, reposait en fait sur des micro-travailleurs au Kenya notamment. (p.119)
[…] Souvenez-vous que depuis des années, lorsque vous remplissez les différents CAPTCHA vous demandant de cocher les zones d’une image où se trouve un vélo, une voiture, un feu rouge ou différents panneaux de signalisation, vous êtes en réalité travailleur bénévole du projet Maven entre Google et le ministère de la Défense américain, projet consistant à fournir des technologies d’intelligence artificielle permettant de faire du guidage de drones de combat sur des terrains d’opérations militaires. Chacun de vos clics pour reconnaître une image servait en fait à entraîner des drones pour les rendre plus efficaces dans le cadre de reconnaissances ou de frappes militaires. Il a fallu toute la détermination de lanceurs d’alerte, d’employés de la firme et de journalistes pour que cela soit mis au jour. (p.126)
Expert en cybersécurité et en marketing (ex-directeur des Réseaux Sociaux chez Microsoft) et fervent défenseur des libertés numériques, Clément partage ses coups de cœur littéraires. Et vous, que pensez-vous de ce livre ?