Illustration by ChatGPT
Selon l’article publié sur Arxiv, cette étude implique un modèle de langage entraîné avec des données vocales et de bruit de fond pour identifier les moments où l’utilisateur sollicite de l’aide. Le modèle, basé sur une version allégée de GPT-2 d’ OpenAI, a montré une précision supérieure aux modèles se basant uniquement sur l’audio ou le texte. Cependant, Apple n’a pas confirmé son intention d’abandonner complètement l’activation vocale « Siri ».
La suppression de l’activation via une phrase de déclenchement comme « Siri » soulève des préoccupations sur la confidentialité, exacerbant les craintes que les appareils connectés soient constamment à l’écoute. Les pratiques d’Apple en matière de gestion des données audio ont déjà été critiquées, notamment après des révélations en 2019 sur l’écoute involontaire de conversations privées par les sous-traitants d’Apple. Bien que des mesures aient été prises pour améliorer la confidentialité, l’élimination de la phrase de déclenchement vocale pourrait réduire la transparence de l’interaction utilisateur-appareil, selon certains experts.
Cet effort s’inscrit dans une tendance plus large d’Apple à intégrer davantage d’IA dans ses produits, signalant une volonté de rattraper son retard dans le domaine de l’intelligence artificielle par rapport à des concurrents comme Amazon, Google et Facebook.
Merci de nous rejoindre dans cette aventure. Ensemble, favorisons un usage éclairé de la technologie, respectueux de la vie privée.