Logo Clement Donzel

ACCUEIL
A PROPOS
RESSOURCES GRATUITES

Ne reproduisons pas avec l'IA les erreurs commises avec les réseaux sociaux

L'AI Pin vous promet de vous garder en bonne santé

L’AI Pin est un appareil portable alimenté par l’IA, qui se connectent directement à un chatbot sans nécessiter d’applications ni d’écran tactile.

L'évolution non réglementée des médias sociaux au cours de la dernière décennie offre de nombreuses leçons applicables directement aux entreprises et technologies d'intelligence artificielle. Ne reproduisons pas les mêmes erreurs et anticipons dès maintenant les facteurs clefs - j'en dénombre au moins cinq - pour tirer le meilleur de cette formidable opportunité qu'est l'IA.

Le micro-ciblage publicitaire

La publicité s’est imposée comme le modèle économique dominant sur Internet et les réseaux sociaux, en raison notamment de la philosophie de l’accès libre aux origines de l’Internet et à notre réticence à accepter les modèles par abonnement. Cette situation a conduit à privilégier l’engagement des utilisateurs et le temps passé par dessus tout autre mesure. Google et Facebook voient dans l’intelligence artificielle (IA) une opportunité pour maintenir leur domination sur le marché publicitaire en ligne, tandis que des entreprises traditionnellement moins dépendantes de la publicité, telles que Microsoft et Amazon, voient dans l’IA un moyen de conquérir une plus grande part de ce marché de la publicité en ligne, évalué aujourd’hui à 300 milliards de dollars et espéré en forte croissance.

Malgré des affirmations sur l’efficacité du marketing ciblé, les preuves de l’impact réel des publicités en ligne sont difficiles à établir. Des entreprises majeures ayant considérablement réduit leurs dépenses publicitaires en ligne ont constaté peu ou pas d’impact sur leurs ventes. D’autres annonceurs ont décidé de demander réparation devant les tribunaux et réclament 7 milliards à Méta pour avoir gonflé artificiellement et donc facturé un reach (nombre de personnes ayant vu votre publicité) frauduleux. 

Les publicités optimisées par l’IA sont présentées comme une amélioration significative, capables d’ajuster le contenu publicitaire en temps réel et de personnaliser les campagnes pour maximiser le succès. Toutefois, l’intégration de publicités par des IA, notamment dans les chatbots, soulève des inquiétudes quant aux risques de manipulation potentiel pour les utilisateurs, car il devient difficile de distinguer si les recommandations faites par les chatbots sont véritablement pertinentes ou motivées par des intérêts financiers, voir par des tentatives d’ingérences étrangères.

Les risques de surveillance et de manipulation

La dépendance des médias sociaux à la publicité, comme principal moyen de monétisation, a conduit à une personnalisation accrue et, par conséquent, à une surveillance toujours plus invasive pour prouver aux annonceurs leur capacité à cibler les publicités de manière optimale pour chaque individu. Une analyse récente de Consumer Reports et dont je vous ai parlé il y a un tout juste un mois révèle que chaque utilisateur de Facebook est surveillé par plus de 2,200 entreprises différentes.

Les plateformes alimentées par l’IA, soutenues par la publicité, seront soumises aux mêmes incitations de marché perverses que les réseaux sociaux. Il est envisageable que les opérateurs de chatbots puissent demander des tarifs premium en affirmant que leur chatbot peut cibler les utilisateurs selon leur emplacement, leurs préférences ou leur historique de discussion pour les encourager à acheter divers produits ou services.

Le risque de manipulation augmente avec notre dépendance à l’IA pour des services personnels, notamment avec l’émergence des assistants digitaux personnels générés par IA ou d’amis virtuels, promettant une relation bien plus intime qu’avec nos moteurs de recherche traditionnels. Ces assistants, devant être omniprésents et tout connaître de nous pour être efficaces, pourraient être perçus à tort comme des amis dignes de confiance. Et cette confiance pourrait s’avérer très problématique, surtout lorsqu’elle est donnée par des enfants à des agents conversationnels, sans mesure de contrôle des plateformes.

Même sans fournir volontairement des informations à un assistant IA, la technologie peut faciliter pour les entreprises l’apprentissage sur les individus. Les démonstrations préliminaires montrent comment les chatbots peuvent subrepticement extraire des données personnelles en posant des questions banales, rendant l’exposition à ce type de récolte de données inférentielles pratiquement inévitable avec leur intégration croissante dans les systèmes de service clientèle et les interfaces de recherche sur les sites web. Des efforts de recherche sont en cours pour permettre une plus grande immersion de ces technologies dans notre quotidien, comme je vous l’indiquais récemment avec Apple qui souhaite réinventé l’interaction avec Siri.

La viralité du contenu comme boussole

Ça pourrait vous intéresser :

Les médias sociaux offrent la possibilité à n’importe quel utilisateur d’exprimer n’importe quelle idée avec un potentiel de portée mondiale instantanée. Alors que nous étions nombreux à penser que cette viralité rapprocherait les gens et garantirait l’accès à des vérités partagées par tous, il s’avère que les réseaux sociaux favorisent le contenu susceptible d’engendrer le plus de clics et de partages, souvent outrageant, clivant et provocateur. Les recherches montrent que les contenu les plus extrêmes et polémiques reçoivent le plus d’engagement, alimentant et récompensant la désinformation.

L’IA a le potentiel d’exacerber ce problème en facilitant, accélérant et automatisant la production et la propagation de contenu, y compris la fabrication de fake news et deepfakes vidéo et audio. Des outils d’IA générative peuvent créer un nombre infini de mensonges sur n’importe quel individu ou thème, relayés par des comptes de réseaux sociaux contrôlés par des bots IA. Les générateurs de texte IA puissants commencent déjà à influencer les réseaux sociaux, comme le montre la découverte d’un réseau de plus de 1,100 comptes Twitter/x semblant opérés par ChatGPT.

L’IA va renforcer le contenu viral émanant des médias sociaux, créer des sites web, des contenus web, des virus et codes malveillants, des avis d’utilisateurs et des applications pour smartphones, et simuler des milliers de faux profils pour donner l’impression erronée qu’une idée, une position politique ou l’utilisation d’un produit est plus répandue qu’elle ne l’est réellement. Ce qui pourrait paraître comme un débat animé pourrait n’être que des bots s’adressant à d’autres bots. Et ces capacités ne seront pas uniquement accessibles à ceux ayant de l’argent; les outils d’IA nécessaires se démocratisent et deviennent facilement disponibles pour tous.

Un droit à la portabilité des données limité

Les réseaux sociaux déploient beaucoup d’efforts pour éviter toutes tentatives de quitter leur plateforme, en complexifiant la portabilité des données sauvegardées comme les connexions, publications, et photos vers d’autres plateformes. Chaque interaction ajoute à la difficulté de changer de service, rendant particulièrement difficile de quitter une plateforme comme Facebook si tous vos amis y sont.

De même, les entreprises développant des assistants personnels alimentés par l’IA rendront difficile le transfert de cette personnalisation vers une autre IA. Si ces assistants deviennent extrêmement utiles, c’est parce qu’ils connaissent intimement les détails de votre vie, et abandonner cette commodité pour un nouveau service peut sembler inenvisageable. Dans des cas extrêmes, certaines personnes développent même des liens étroits, presque familiaux, avec des chatbots IA, renforçant encore ce verrouillage.

Le verrouillage est préoccupant car il mène à des produits et services moins sensibles aux demandes des consommateurs. Sans possibilité d’imposer l’interopérabilité, les entreprises auront moins d’incitations pour innover et auront plutôt tendance à être tenté par des pratiques peu éthiques comme la surveillance des utilisateurs.

Le droit à l'oubli difficilement applicable

Les idées et propos, plus ou moins articulés que vous teniez lorsque vous étiez jeune ont pu évoluer depuis vos années lycées. Et pourrait potentiellement vous desservir lorsque vous candidaterez pour ce poste dont vous rêvez, cette élection locale ou vous vous présentez ou cette intervention publique que vous préparez. Mais la mémoire d’Internet est indélébile et rien ne s’efface. Les réseaux sociaux comme Twitter / X, en encourageant la spontanéité et l’impulsivité des réponses, en polarisant les débats, a poussé certains utilisateurs et influenceurs à adopter des positions et des postures extrêmes. Ces mêmes prises de position pouvant se retrouver des années plus tard, toujours visible en ligne, malgré les tentatives de suppression, rendant l’application du droit à l’oubli caduque.

Côté IA, de nombreuses recherches indiquent qu’il n’est aujourd’hui pas possible de supprimer facilement des données sensibles nous concernant et ayant servies à entrainer des modèles d’Intelligence Artificielle. Cela nécessiterait de passer par une phase de ré-entrainement du modèle de données à partir de zéro, ce qui est difficilement concevable (tant techniquement que pour le coût financier que cela engendrerait). La gestion du droit à l’oubli pourrait donc être encore plus complexe à gérer. En effet, il est extrêmement difficile d’identifier les différentes sources de contenu ayant nourries le modèle statistique. Contrairement à Google qui peut assez facilement désindexer certains liens de son moteur de recherche, il faudrait dans les modèles d’IA retirer les sources qui ont été utilisées pour prédire la réponse, hors ce retro-engineering est loin d’être chose facile

Cela pose également un problème du point de vue du respect de la vie privée pour toute personne ou organisation qui souhaiterait voir supprimer certains contenus non pertinents, erronés, ou obsolètes, mais pourtant toujours accessibles en ligne.

Ne reproduisons pas avec l'IA les mêmes erreurs commises avec les Réseaux Sociaux

Contrairement aux médias sociaux, qui restent largement non réglementés malgré leurs méfaits connus, l’intégration de l’IA dans divers aspects de la vie quotidienne nécessite des actions préventives pour éviter des pièges similaires.
 

Des mesures réglementaires devront proposer des restrictions sur l’intégration de l’IA, la transparence dans le développement des modèles et une surveillance rigoureuse pour faire respecter la responsabilité des éditeurs de plateformes. La régulation devra encourager la concurrence, encadrer le contenu publicitaire, assurer des moyens de modération et prévenir le contrôle monopolistique.

Ces mesures proactives seront les seules à même de garantir que le développement et le déploiement de l’IA servent l’intérêt public. Il y a urgence, compte tenu des défis mondiaux actuels et du stade encore naissant des applications d’IA.

Et vous, qu’en pensez-vous? Voyez-vous d’autres caractéristiques ou dérives liées aux réseaux sociaux et qui devront être considérées pour assurer un développement éthique et éclairé des IA?

Ce blog post prend sa source dans l’essai écrit par Natan Sanders et Bruce Schneier intitulé « AI and the Evolution of Social Media » publié sur le MIT Technology Review et a été traduit, augmenté et adapté par votre serviteur 🙏🏻

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

huit − 4 =