Quantcast
Channel: Next - Flux Complet
Viewing all articles
Browse latest Browse all 2946

Apple reconnait que Siri a enregistré des conversations sans consentement

$
0
0
Dis Siri, n'écoute pas s'il te plait
Apple reconnait que Siri a enregistré des conversations sans consentement

Le concepteur de l’iPhone a accepté de payer 95 millions de dollars pour sceller une action en justice. Des Américains accusaient l’entreprise d’avoir laissé Siri enregistrer des conversations privées sans leur consentement et de les avoir partagées à des tiers. Elle ne reconnait pas cependant que ces messages ont été utilisés pour des publicités ciblées.

Apple a proposé de sceller une « class action » qui court aux États-Unis depuis 2019. Elle était accusée d’avoir laissé son assistant Siri s’activer de façon accidentelle et d’avoir enregistré et partagé avec des entreprises tierces des conversations privées sans le consentement des personnes. L’entreprise accepte, dans cette proposition [PDF], de payer 95 millions de dollars à partager entre toutes les personnes qui se sont jointes à l’action en justice.

Des sous-traitants du contrôle qualité de Siri accédaient à des conversations confidentielles

Cette affaire a commencé après la publication en juillet 2019 d’un article du Guardian révélant que des sous-traitants d’Apple « entendaient régulièrement des détails confidentiels » via des enregistrements effectués par Siri. Le journal britannique expliquait que certaines entreprises qui travaillaient avec Apple pouvaient entendre « régulièrement » des informations médicales confidentielles, des deals de drogue et des enregistrements de couples en train de faire l’amour dans le cadre de leur travail de contrôle de qualité ou de classification qu’ils effectuaient pour Siri.

Le Guardian faisait remarquer qu’Apple ne mentionnait pas explicitement dans sa politique de confidentialité qu’une petite proportion d’enregistrement de Siri était transmise à des sous-traitants pour évaluer les réponses de l’assistant vocal. « Apple précise que ces données « sont utilisées pour aider Siri et la dictée … à mieux vous comprendre et à reconnaître ce que vous dites » », expliquait le journal.

L’entreprise avait répondu : « Une petite partie des demandes de Siri est analysée pour améliorer Siri et la dictée. Les demandes des utilisateurs ne sont pas associées à leur identifiant Apple. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les exigences strictes d’Apple en matière de confidentialité ».

Mais un lanceur d’alerte y pointait aussi « la fréquence à laquelle les activations accidentelles [recueillaient] des informations personnelles extrêmement sensibles » lorsque Siri entendait par erreur sa phrase de réveil « Hey Siri », notamment sur les Apple Watch.

S’appuyant sur cette enquête du journal britannique, des citoyens américains ont porté une action de groupe (« class action ») devant la justice américaine [PDF] la même année, accusant Apple de les enregistrer sans leur consentement.

20 dollars par appareil

Cinq ans après, l’entreprise reconnait donc que Siri a enregistré des conversations sans que les utilisateurs des appareils l’aient toujours activé, et donc sans leur consentement. Elle accepte de payer à chaque personne entrant dans les conditions du recours collectif 20 dollars par appareil (des clients américains ayant acheté un appareil Apple entre le 17 septembre 2014 et le 31 décembre 2024), portant la somme totale à 95 millions de dollars.

Mais Apple refuse de reconnaître explicitement sa responsabilité. Dans une note du document, il est noté : « bien que les plaignants pensent qu’ils seraient en mesure d’obtenir gain de cause si l’affaire était portée devant les tribunaux, Apple conteste toute responsabilité ou l’existence de dommages-intérêts recouvrables et se défendrait vigoureusement ».

L’accord note qu’Apple confirme avoir bien supprimé les enregistrements et qu’elle doit expliquer aux utilisateurs leurs choix concernant le stockage de données collectées par l’assistant s’ils acceptent d’aider Apple à améliorer Siri. Le juge saisi dans l’affaire doit encore accepter l’accord, dont le brouillon propose la date du 14 février 2025 comme point final à l’affaire.

Pas utilisé pour de la publicité ciblée

Il faut noter qu’Apple ne reconnait pas que ces messages ont été utilisés pour des publicités ciblées. Si les plaignants ont évoqué la concomitance de conversation privées à propos de marques comme « Olive Garden », « Easton bats », « Pit Viper » et « Air Jordan » dans un document de l’affaire [PDF], le sujet n’est même pas évoqué dans le document d’accord proposé. Le ciblage publicitaire ne fonctionne pas en utilisant l’audio, d’autres méthodes sont déjà très efficaces.

Dans une affaire similaire, Amazon avait accepté, en 2023, un accord avec l’Agence américaine de protection des consommateurs (Federal Trade Commission, FTC) sur le règlement de deux paiements pour un total d’un peu plus de 30 millions de dollars. Ils concernaient des violations de la vie privée des produits Ring et Alexa de l’entreprise.


Viewing all articles
Browse latest Browse all 2946

Trending Articles