La technologie de reconnaissance vocale d’Alexa, l’assistant virtuel d’Amazon, utilisé notamment dans la gamme de haut-parleurs Echo est largement automatique. Mais, dans un certain nombre de cas, les extraits audio enregistrés sont transmis à de vrais humains, employés d’Amazon ou de sous-traitants, qui écoutent l’extrait. Il seraient des milliers à se livrer à cette activité, ceci afin d’améliorer la reconnaissance vocale de l’assistant. Quelque par, de vrais humains écoutent.

Des milliers d’employés et de contractants

Ces employés travaillent dans différents endroits, « de Boston au Costa Rica, en Inde et en Roumanie », note Bloomberg. Les sessions de travail durent 9 heures, durant lesquelles chaque salarié écoute environ un millier d’extraits audio. L’idée, globalement, est d’améliorer la reconnaissance vocale. Par exemple, un employé explique avoir accumulé des extraits audio de personnes demandant à écouter des morceaux de « Taylor Swift », afin de mieux cerner les différentes prononciations du nom de l’artiste, qui varient selon les pays et les langues pratiquées.

Si le travail des employés est souvent répétitif, des extraits audio plus problématiques, plus privés, sont également concernés. Dans ce cadre, les employés chargés de la reconnaissance peuvent échanger les extraits audio sur une chat room interne. Ceux-ci éventuellement échangent aussi des extraits jugés amusants, ou discutent d’enregistrements problématiques. Si certains exemples prêtent à sourire – un extrait audio de cette dame qui chante comme une casserole sous sa douche – d’autres sont nettement plus problématiques. L’un des employés interviewés assure, par exemple, avoir écouté deux extraits audio de ce qui s’apparentait à une agression sexuelle. « Après avoir demandé quoi faire, il lui a été répondu par Amazon que ce n’était pas le rôle de l’entreprise « d’interférer » dans ces matières », rapporte Bloomberg.

La vie privée en question

Amazon de son côté assure que cette procédure d’écoute physique tient compte de la vie privée des utilisateurs, qui ne peuvent être pas identifiés. «  »Nous prenons au sérieux la sécurité et la confidentialité des informations personnelles de nos clients », a déclaré un porte-parole d’Amazon dans un communiqué. «Nous n’annotons qu’un très petit échantillon d’enregistrements vocaux Alexa afin d’améliorer l’expérience client. Par exemple, ces informations nous aident à former nos systèmes de reconnaissance de la parole et de compréhension du langage naturel, ce qui permet à Alexa de mieux comprendre vos demandes et de veiller à ce que le service fonctionne pour tout le monde. Nous appliquons des mesures de protection techniques et opérationnelles strictes et appliquons une politique de tolérance zéro en cas d’abus de notre système. Les employés n’ont pas directement accès aux informations permettant d’identifier la personne ou le compte dans le cadre de ce flux de travail. Toutes les informations sont traitées avec une grande confidentialité et nous utilisons une authentification multi-facteurs, le chiffrement des services et des audits de notre environnement de contrôle pour le protéger ».

La chose ne semble pas parfaitement exacte : les extraits audio sont associés à un numéro de compte Amazon, le prénom du possesseur est associé, de même que le numéro de série de l’assistant concerné. Google, qui procède d’une manière similaire pour améliorer son assistant anonymise complètement les extraits audio enregistrés.

Mais il semble tout de même très clair que si vous êtes soucieux de votre vie privée, il vaut mieux ne pas utiliser ces services, ou désactiver la possibilité que des extraits audio soient utilisés pour « améliorer » Alexa. Une option, trop peu connue, le permet.

AUCUN COMMENTAIRE

À vous la parole !

Fermer
*
*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.