Le nombre d’abus sexuels sur mineurs ne cesse d’augmenter et les autorités usent de tous les moyens pour coincer les criminels. Le géant américain des produits électroniques Apple a souhaité participer à la lutte contre ce fléau à sa manière.

Publicité

La responsable de la confidentialité d’Apple, Jane Horvath, a en effet déclaré que les grandes entreprises technologiques ont le devoir de fournir plus d’efforts afin de traquer les pédophiles et aider les forces de sécurité à les mettre hors d’état de nuire.

C’est pourquoi la firme a donc décidé de scanner des photos iCloud à la recherche d’images liées à des abus sexuels sur des enfants.

Pour débusquer ces malfrats, une technique de filtrage est utilisée par Apple dans le but de détecter toute illustration suspecte ou illégale.

Cependant, la société ne révèle pas comment ces photos sont découvertes, elle précise seulement que les comptes sont systématiquement désactivés en cas de présence de preuves. 

Ce début de coopération survient après de nombreux affrontements entre Apple et les autorités policières et judiciaires américaines. Pour cause, l’entreprise refusait catégoriquement de pénétrer dans les smartphones des criminels en évoquant le droit à la protection de la vie privée. 

Apple Inc. / Pixabay

Mme Horvath continue à mettre toute son énergie pour défendre la décision d’Apple visant à empêcher les services de sécurité de déverrouiller les iPhone en les codant.

Cette prise de position est arrivée suite à une affaire qui a fait la une des journaux et durant laquelle le FBI a demandé, en vain, le déblocage du téléphone d’un homme après qu’il ait tué 3 personnes en Floride. 

Jane Horvath a d’ailleurs affirmé qu’il ne s’agissait pas là d’éradiquer le cryptage des données des utilisateurs Apple, mais d’introduire une technologie capable d’identifier et de supprimer des comptes comportant des photos à caractère pédopornographique pour prévenir les abus sexuels sur mineurs.

Publicité

Comme nous l’avons mentionné plus haut, la société n’a pas voulu dévoiler la façon dont les images de maltraitance sur enfants sont repérées.

Un autre cadre de la firme a parlé d’un système qui fonctionne comme les filtres antispam pour les e-mails utilisant des signatures électroniques de détection. 

Cependant, tout porte à croire que cette technique d’identification est similaire à celle adoptée par diverses entreprises comme Facebook, Google ou encore Twitter.

Il pourrait donc s’agir de PhotoDNA, un dispositif de filtrage qui compare les images trouvées à d’autres qui sont déjà présentes dans une base de données.


Partagez l'article

>