Illustration by ChatGPT
Des chercheurs Apple travaillent sur la possibilité d’éliminer la nécessité de prononcer « Siri » pour activer l’assistant vocal, en utilisant l’intelligence artificielle pour détecter automatiquement lorsque l’utilisateur parle à son iPhone ou enceinte connectée, soulevant de nouvelles inquiétudes quant à la confidentialité des données.
Selon l’article publié sur Arxiv, cette étude implique un modèle de langage entraîné avec des données vocales et de bruit de fond pour identifier les moments où l’utilisateur sollicite de l’aide. Le modèle, basé sur une version allégée de GPT-2 d’ OpenAI, a montré une précision supérieure aux modèles se basant uniquement sur l’audio ou le texte. Cependant, Apple n’a pas confirmé son intention d’abandonner complètement l’activation vocale « Siri ».
La suppression de l’activation via une phrase de déclenchement comme « Siri » soulève des préoccupations sur la confidentialité, exacerbant les craintes que les appareils connectés soient constamment à l’écoute. Les pratiques d’Apple en matière de gestion des données audio ont déjà été critiquées, notamment après des révélations en 2019 sur l’écoute involontaire de conversations privées par les sous-traitants d’Apple. Bien que des mesures aient été prises pour améliorer la confidentialité, l’élimination de la phrase de déclenchement vocale pourrait réduire la transparence de l’interaction utilisateur-appareil, selon certains experts.
Cet effort s’inscrit dans une tendance plus large d’Apple à intégrer davantage d’IA dans ses produits, signalant une volonté de rattraper son retard dans le domaine de l’intelligence artificielle par rapport à des concurrents comme Amazon, Google et Facebook (qui s’est fait prendre la main dans le sac à utiliser des interfaces truquées pour enrichir son modèle IA). En espérant que les anticipations pessimistes de Shoshana Zuboff ne deviennent pas réalité.