Photo de Bangyu Wang sur Unsplash
ActualitésFrançais

Lutte contre la pédopornographie : Apple se rétracte momentanément ✋

Face aux inquiétudes et à une opposition grandissante, Apple a annoncé repousser le déploiement d’une mise à jour. Elle contient pourtant de nouvelles fonctionnalités relatives à la lutte contre la pédopornographie

En effet, ce retard intervient alors que des défenseurs de la vie privée s’étaient inquiétés du déploiement de ces nouvelles fonctionnalités. Baptisées Child Sexual Abuse Material (CSAM), elles auraient pu, selon eux, créer de véritables risques en ce qui concerne la vie privée et l’utilisation des données personnelles.

 « Sur la base des remarques des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de mettre en service ces importantes fonctionnalités de protection des enfants », a indiqué le groupe dans une note publiée sur son site.

Une Forte Opposition et une remise en cause du cryptage des données 🛑

Le géant américain de l’informatique, qui a fait de la protection des données de ses utilisateurs un argument de vente majeur ces dernières années, avait dévoilé début août de nouveaux outils conçus pour mieux repérer les images à caractère sexuel impliquant des enfants, sur ses serveurs iCloud et sur la messagerie iMessage. Pour rappel, avec le CSAM, si le téléchargement de telles images dans iCloud devait être effectué, alors Apple serait averti. Le National Center for Missing and Exploited Children (NCMEC), une ONG américaine de lutte contre les abus sexuels sur mineurs, serait à son tour averti par la marque à la pomme pour prévenir les autorités.

Cette approche crée un véritable tollé chez les défenseurs de la vie privée. Certains pensent que l’action d’Apple représenterait une rupture significative par rapport aux protocoles de confidentialité voire une infrastructure de surveillance et de censure, qui serait vulnérable aux abus et aux dérives. Par ailleurs, les détracteurs ont plusieurs craintes. Certains ont peur que ce logiciel n’interprète mal certaines photographies privées. D’autres encore s’inquiètent qu’un tel système ne soit potentiellement utilisé par des organisations politiques.

Apple réaffirme son engagement 🤗

Face à cette levée de boucliers, l’entreprise réputée pour sa position très stricte à l’égard de la protection des données, a notamment refusé plusieurs fois de fournir les données personnelles d’utilisateurs aux forces de l’ordre et renvoie aux pratiques d’autres fournisseurs de Cloud.

En effet, certains scanneraient l’ensemble de vos données sans votre consentement. Tandis que, d’après ses dires, Apple utiliserait un moyen de ne regarder que les contenus signalés comme illégaux. Ainsi, si le contenu illégal n’est pas téléchargé dans le Cloud, son système ne peut pas le signaler. Mais ce n’est pas tout. Pour tout utilisateur qui téléchargerait des images à caractères sexuels impliquant des enfants, la firme prévoyait d’envoyer un avertissement informant, par Siri, de l’illégalité de ces images.

En repoussant ce moment, la marque à la pomme semble faire une nouvelle concession à ses critiques alors qu’elle est attaquée sur plusieurs fronts et se retrouve sous la pression des régulateurs et tribunaux de plusieurs pays.

Alors, qu’en pensez-vous ? Êtes-vous pour une suspension ou un abandon ?

 

Source: Frandroid

Qu'en avez-vous pensé?

Excité
0
Joyeux
0
Je suis fan
0
Je me questionne
0
Bof
0

Vous pourriez aussi aimer

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Actualités