Ingénierie cognitive

appliquée à la cybersécurité

L' ingénierie cognitive, c'est quoi ?

L’ingénierie cognitive est un ensemble de techniques visant à concevoir des systèmes informatiques capables de comprendre, reproduire, prédire, influencer ou altérer certaines fonctions exécutives cérébrales tel que la capacité de raisonnement, de pensée, de perception, de résolution de problèmes et de décision.

Dans le domaine de la cybersécurité, l’ingénierie cognitive constitue un domaine d’étude récent, dont l’enjeu et de comprendre comment l’exploitation de fragilités humaines (biais cognitifs, perception du réel, gestion des émotions, dissonance cognitive…) peut induire des risques de manipulation des individus dans le but d’accéder de manière illégale à un système informatique.

Les étapes ayant permis l’émergence de l’ingénierie cognitive

L'avènement des sciences cognitives

L'antiquité

Photo d'une statue représentant le buste de Platon

PLATON
Les premières interrogations à propos du cerveau humain sont apparues dans l’Antiquité : Platon : le cerveau puisse être le siège des processus mentaux.

Au XVIIe Siècle

Portrait de René Descartes par Francis Hals

René Descartes met en place le concept de dualisme corps-esprit, ainsi que celui d’inné et d’acquis

1890's


TRAVAUX DE PAVLOF

Travaux sur les réflexes conditionnés

Fin XIXe Siècle

Wilhelm Wundt fonde le premier laboratoire de psychologie expérimentale à Leipzig en 1879

PSYCHOLOGIE EXPÉRIMENTALE
Wilhelm Wundt fonde le premier laboratoire de psychologie expérimentale à Leipzig en 1879 qui a pour objet l’étude des comportements directement observables.

Début XXe Siècle

PSYCHOLOGIE COMPORTEMENTALE
L’approche comportementaliste ou behavioriste s’axe sur une démarche scientifique s’appuyant sur des faits observables. Cette psychologie vise à modifier des comportements inadaptés ou problématiques chez les patients. Son développement et son rayonnement international sera notamment portée par l’École de Palo Alto, fondée par Gregory Bateson.

Ouvrage référent :
La réalité de la réalité de Watzlawick, figure de l’école de Palo Alto

Fin 1950

PSYCHOLOGIE COGNITIVE
L’approche cognitive viendra compléter les thérapies comportementales vers la fin des années 50. C’est Albert Ellis, un docteur en psychologie aux Etats-Unis qui développera le concept fondateur de cette approche : ce n’est pas l’environnement, le contexte ni les éléments qui entourent l’individu qui sont responsables de ses troubles, mais plutôt leur interprétation. La psychologie cognitive est apparue dans les années 1950 aux US et 1970 en France, et étudie le champ des fonctions mentales, telles que l’attention, le langage, la mémoire, la perception, le raisonnement, la résolution de problèmes, l’intelligence, la perception, la créativité ou l’attention. Le terme « cognition » renvoie à tous les processus par lesquels le stimuli sensoriel est transformé, élaboré, mémorisé, retrouvé et réutilisé.

Ouvrages référents :
Thinking, Fast & Slow de Daniel Kahneman, prix Nobel d’économie
The age of Surveillance Capitalism de Shoshana Zuboff, professeur à Harvard
Hooked de Nir Eyal, sur l’addiction aux aplications

1990's

PSYCHOLOGIE ÉMOTIONNELLE
La conscience fine de nos ressentis, émotions et pensées, ainsi que l’acceptation de ceux-ci, sont des moyens de gérer au mieux nos émotions et de reconsidérer nos pensées et représentations.

Les développements fulgurants de l'Intelligence Artificielle

Alan Turing, mathématicien et informaticien britannique reconnu comme l’un des pères de l’informatique moderne, proposera en 1950 une définition de l’Intelligence Artificielle, bien qu’il n’utilise pas le terme d’Intelligence Artificielle en tant que tel, mais parle de « machine pensante » ou « signalisation artificielle » (Turing, 1950). Il s’interroge sur le fait qu’il soit possible d’imaginer une machine qui imite si bien un être humain qu’on ne puisse pas faire la différence entre ses réponses et celles d’une personne ? ». Cette question formera le fameux « test de Turing » encore utilisé aujourd’hui pour évaluer la performance des IA actuelles et déterminer si une machine peut être considérée comme intelligente ou non.

Il faudra attendre l’été 1956 et la Conférence de Dartmouth avec John McCarthy et Marvin Minsky pour entendre parler pour la première fois d’Intelligence Artificielle et d’une « machine capable de rivaliser avec l’humain ». McCarthy travaille notamment sur des algorithmes utilisés dans les programmes de jeu d’échecs et fonde au MIT le langage Lisp qui sera utilisé notamment en IA. En 1962, il quitte le MIT pour monter un laboratoire dédié à l’Intelligence Artificielle à l’université de Stanford et confirme ainsi son statut de pionnier dans l’IA.

Puis les progrès s’accélèrent, en 1957 avec la création du perceptron, le premier réseau de neurones, mis en place par Frank Rosenblatt, qui essaie d’imiter les processus biologiques cérébraux… Mais c’est réellement au début du 21e siècle que l’IA connait des progrès spectaculaires avec les GANs (Goodfellow et al. 2014), l’apprentissage en profondeur, les réseaux Transformers (Vaswani & al., 2017), l’augmentation de la puissance de calcul informatique… Certains événements comme la défaite du numéro un mondial d’échecs Garry Kasparov contre Deep Blue d’IBM et la défaite de Lee Sadol contre AlphaGo de DeepMind au jeu de GO marqueront les esprits et participeront à matérialiser les progrès incroyables des IA modernes.

Les progrès de l’IA sont à mettre en étroite relation avec l’augmentation tout aussi incroyable de la puissance de calcul des ordinateurs et la miniaturisation des puces électroniques.

Augmentation de la puissance de calcul des ordinateurs

Cette partie est en cours de rédaction.

Comprendre et stimuler les émotions humaines

L'informatique affective

L’informatique affective (ou affective computing) est un champ d’étude qui s’intéresse à la communication non verbale. Elle vise à reconnaitre, analyser, comprendre et simuler les émotions humaines, comme le clignement des yeux, la transpiration, le rythme cardiaque, température et pression corporelle, pour qu’elles soient interprétables par les machines, qui pourront également les reproduire.

On estime à 10 000 le nombre d’expressions faciales qu’un humain est susceptible d’exprimer, dont 3 000 sont porteuses de sens (Ekman, 2003). Les marqueurs culturels peuvent également être importants (un sourire japonais est par exemple différent d’un sourire européen).

Le traitement automatique du langage naturel


D’autres domaines d’études s’intéressent à la communication verbale et à l’étude du langage naturel, c’est-à-dire à la manière dont les humains s’expriment verbalement, pour créer des outils capables de comprendre et reproduire le langage naturel. À la manière de du chatbot ChatGPT de la société OpenAI qui grâce au traitement automatique du langage naturel (ou Natural Langage Processing) est capable d’imiter la compréhension humaine et fournir des réponses précises à des questions complexes. On verra par la suite que ces robots conversationnels peuvent être victimes d’hallucinations – terme anthropomorphique s’il en est utilisé par certains médias – qui exprime et propose avec conviction des réponses tout à fait imaginaires ou incorrectes, nécessitant une vigilance particulière des utilisateurs.

La recherche avancée en sciences cognitives, les progrès en robotique, associée à des modèles d’Intelligence Artificielle utilisant le NLP et l’Affective Computing pourraient ainsi permettre à l’ingénierie cognitive de contribuer de manière décisive aux grands enjeux de nos sociétés modernes, tant sur le plan médicale, récréatif, qu’éducatif et même nous sortir de notre condition humaine de simple mortel, en nous affranchissant de nos propres limites biologiques.