Apple a publié une nouvelle page de questions fréquentes (FAQ) autour de Siri et de son programme d’amélioration, dit « Grading », au cœur d’une des polémiques de l’été. Au titre de ce programme, des extraits audio des utilisateurs étaient écoutés par des centaines de sous-contractants d’Apple – dégagés sans plus d’égard depuis – sans que les utilisateurs en aient connaissance. Apple s’est excusée et a annoncé dans la foulée revisiter en profondeur ses procédures. La nouvelle FAQ reprend pour l’essentiel les arguments déjà déployés.

Les écoutes concernaient 0,2% des requêtes

« Avant de suspendre le « Grading », notre processus impliquait d’examiner un petit échantillon d’audio provenant de demandes Siri – moins de 0,2% – et leurs transcriptions générées par ordinateur afin de mesurer le niveau de réponse de Siri et d’améliorer sa fiabilité. Par exemple, l’utilisateur avait-il l’intention de réveiller Siri ? Siri a-t-il bien entendu la demande ? Et Siri a-t-il répondu de manière appropriée à celle-ci ? En utilisant progressivement un petit échantillon de demandes Siri, Apple peut apporter de grandes améliorations qui permettent de garantir à nos clients du monde entier la meilleure expérience possible de Siri », précise Apple, en préambule.

Les nouvelles mesures : opt-in et retranscriptions

À l’automne, explique Apple, elle relancera son programme de Grading, lequel deviendra volontaire – opt-in : les utilisateurs devront expressément accepter la potentialité d’une écoute humaine pour participer à ce programme. La Pomme, par contre, continue de générer des retranscriptions textes des requêtes. « Les transcriptions générées par ordinateur sont utilisées pour améliorer Siri et sa fiabilité. Ces transcriptions sont utilisées dans la formation par apprentissage automatique pour améliorer Siri, déterminer les modèles d’utilisation courants, mettre à jour les modèles de langage et comprendre. Les transcriptions peuvent également être utilisées pour résoudre des problèmes critiques affectant la fiabilité de Siri. Des transcriptions générées par ordinateur de vos demandes audio peuvent être utilisées pour améliorer Siri. Ces transcriptions sont associées à un identifiant aléatoire, et non à votre identifiant Apple, pendant six mois maximum. Si vous ne souhaitez pas que les transcriptions de vos enregistrements audio Siri soient conservées, vous pouvez désactiver Siri et la dictée dans les paramètres », détaille la Pomme.

De « Dis Siri » au traitement des requêtes

À travers cette FAQ, Apple détaille les étapes du fonctionnement de Siri :

  • Lors de l’utilisation de « Dis Siri », le traitement audio est local : nous traitons l’audio uniquement sur le périphérique à travers plusieurs étapes d’analyse afin de déterminer si l’audio correspond au modèle «Dis Siri». Ce n’est que lorsque l’appareil reconnaît le motif « Dis Siri » que votre audio est envoyé au serveur. Sur le serveur, nous effectuons des mesures d’atténuation supplémentaires pour analyser la demande complète afin de confirmer qu’elle est destinée à Siri. Concernant les faux-positifs – le processus « Dis Siri » est déclenché alors que l’utilisateur a dit autre chose, Apple s’engage à réduire drastiquement le nombre de mauvaises détection.
  • Le traitement de le demande se fait via un processus qui garanti un relatif anonymat : « Siri utilise un identifiant aléatoire (une longue chaîne de lettres et de chiffres associée à un seul appareil) pour garder une trace des données en cours de traitement, plutôt que de les associer à votre identité via votre identifiant Apple ou votre numéro de téléphone. Ce processus est selon nous unique parmi les assistants numériques utilisés de nos jours. Pour plus de protection, après six mois, les données de l’appareil sont dissociées de l’identifiant aléatoire. »

AUCUN COMMENTAIRE

À vous la parole !

Fermer
*
*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.