Lutte contre la pédopornographie: Apple répond aux craintes concernant le respect de la vie privée

  •  Vous appréciez FranceSoir, soutenez son indépendance, faites un don !

Lutte contre la pédopornographie: Apple répond aux craintes concernant le respect de la vie privée

Publié le 17/08/2021 à 16:31
© Lionel BONAVENTURE / AFP/Archives
PARTAGER CET ARTICLE :
Auteur(s): FranceSoir
-A +A

Quelques jours après l'annonce d'un système de détection automatique des contenus pédopornographiques sur ses appareils, Apple s'empresse de calmer le tollé. Pour limiter les abus potentiels, l'entreprise prévoit un seuil de correspondance avec des images issues de bases de données gérées par différents États avant d'agir.

Une technologie pour scanner du contenu potentiellement pedopornographique

Alors que depuis des années Apple met en avant la confidentialité comme un avantage par rapport à ses concurrents, le 6 août dernier, la marque de smartphones a informé du déploiement d’une solution pour repérer contenus pédopornographiques présents sur les iPhones et iPads, solution déjà mise en place par ses concurrents. Apple a expliqué que la technologie serait capable de scanner les images et vidéos des utilisateurs directement sur leurs appareils pour détecter des contenus pédopornographiques. Appelé "NeuralMatch", le système analysera en permanence les photos stockées sur le téléphone et sur l’iCloud. À travers l’assistant numérique Siri, et la messagerie, la société pourrait également détecter des faits de maltraitance des enfants. S'il s'avère qu'un utilisateur possède du contenu audio, photo, vidéo ou texte, Apple sera alerté, pour procéder à un examen humain pour vérifier le contenu, puis signalera l'utilisateur aux forces de l'ordre.

Selon les critiques, la technologie conçue par Apple pour détecter la propagation de la pédopornographie serait un outil intrusif de surveillance

Pour les experts, le balayage non consensuel des photos et son analyse par machine learning ne permettra pas de résoudre le problème, et cette technologie pourrait être utilisée pour suivre des choses autres que la pedopornographie. Pour Eva Galperin, directrice de la cybersécurité de l'Electronic Frontier Foundation (EFF), un tel système d'analyse qui ne serait soit disant utilisé que pour les images sexuellement explicites impliquant des enfants, est impossible à concevoir.

Un auditeur indépendant pour superviser les nouvelles mesures contre l’abus sexuel d'enfants

Apple a expliqué avoir prévu une formation de ses employés sur la façon de traiter les questions des consommateurs concernés, et a fait appel à un auditeur indépendant pour superviser les nouvelles mesures pour la regulation de matériel d'abus sexuel d'enfants. Apple a également précisé vendredi que le système ne signalerait que les utilisateurs ayant environ 30 images potentiellement illicites ou plus. Apple a également répondu aux préoccupations concernant les gouvernements espionnant les utilisateurs ou traçant des photos qui ne sont pas de la pornographie enfantine. L’entreprise a déclaré que sa base de données serait composée d'images provenant de plusieurs organisations de sécurité des enfants, pas seulement du Centre national pour les enfants disparus et exploités, comme cela avait été initialement annoncé. La société prévoit également d'utiliser les données de groupes dans des régions gérées par différents gouvernements et a déclaré que l'auditeur indépendant vérifiera le contenu de sa base de données. Apple a aussi déclaré qu'il refuserait toute demande des gouvernements d'utiliser sa technologie comme moyen d'espionner les clients. Le système est disponible uniquement aux États-Unis et ne fonctionne que si un utilisateur a activé le service Photos iCloud. 

Les experts, pas rassurés par les mesures de contrôle d’Apple

L’EFF n'a pas été rassuré par le processus de supervision de la technologie, car, selon la fondation, cela n' empêchera pas de saper le cryptage qui protège la vie privée des utilisateurs. "Tout système qui permet la surveillance affaiblit fondamentalement les promesses du cryptage".

Auteur(s): FranceSoir

PARTAGER CET ARTICLE :

Chère lectrice, cher lecteur,
Vous avez lu et apprécié notre article et nous vous en remercions. Pour que nous puissions poursuivre notre travail d’enquête et d’investigation, nous avons besoin de votre aide. FranceSoir est différent de la plupart des medias Français :
- Nous sommes un média indépendant, nous n’appartenons ni à un grand groupe ni à de grands chefs d’entreprises, de ce fait, les sujets que nous traitons et la manière dont nous le faisons sont exempts de préjugés ou d’intérêts particuliers, les analyses que nous publions sont réalisées sans crainte des éventuelles pressions de ceux qui ont le pouvoir.
- Nos journalistes et contributeurs travaillent en collectif, au dessus des motivations individuelles, dans l’objectif d’aller à la recherche du bon sens, à la recherche de la vérité dans l’intérêt général.
- Nous avons choisi de rester gratuit pour tout le monde, afin que chacun ait la possibilité de pouvoir accéder à une information libre et de qualité indépendamment des ressources financières de chacun.

C’est la raison pour laquelle nous sollicitons votre soutien. Vous êtes de plus en plus nombreux à nous lire et nous donner des marques de confiance, ce soutien est précieux, il nous permet d’asseoir notre légitimité de media libre et indépendant et plus vous nous lirez plus nous aurons un impact dans le bruit médiatique ambiant.
Alors si vous souhaitez nous aider, c’est maintenant. Vous avez le pouvoir de participer au développement de FranceSoir et surtout faire en sorte que nous poursuivions notre mission d’information. Chaque contribution, petite ou grande, est importante pour nous, elle nous permet d'investir sur le long terme. Toute l’équipe vous remercie.




Apple refusera toute demande des gouvernements d'utiliser sa technologie comme moyen d'espionner les clients

Newsletter


Fil d'actualités Culture




Commentaires

-