iPhone 12 Pro
Photo de Travis sur Unsplash
ActualitésFrançais

Comment Apple compte protéger les enfants sur ses appareils ⛔

Apple continue le développement d’iOS 15. La firme de Cuppertino vient d’annoncer de nouvelles fonctions pour iOS 15. Et ces nouvelles fonctionnalités concerne surtout les enfants, et notamment leur protection. Deux principaux aspects sont pour l’instant évoqués :

  • Le floutage des messages sexuellement explicites
  • La lutte contre pédopornographie
Flouter les messages pour protéger les enfants

L’application concernée ici est Messages, associé à un compte iCloud familial. Imaginez qu’un enfant de la famille reçoive ou tente d’envoyer des photos sexuellement explicites, l’image sera floue et un message d’avertissement sera affiché à l’écran. D’un côté l’enfant sera protégé d’un éventuel prédateur sexuel, et d’un autre, l’enfant a moins de chances de voir ses photos fuiter avec les conséquences désastreuses qu’on connaît. Et là vous vous demandez surement si Apple pourra voir ces photos avant de les flouter. Et bien non. Il est faut rappeler qu’iMessage est chiffré de bout en bout et Apple n’a de ce fait aucun accès aux messages analysés. Comme précisé dans un communiqué de presse, Apple précise que Messages utilise l’apprentissage automatique directement sur l’appareil pour analyser les pièces jointes et déterminer si une photo est sexuellement explicite.

Image : Apple

Et la lutte contre la pédopornographie dans tout ça ?

En suivant le même principe présenté ci-dessus, ce n’est plus l’application messages, mais toutes les images de l’iPhone synchronisées ou sauvegardées sur iCloud, qui seront scannées pour détecter automatiquement les images à caractère pédopornographique.  En cas de détection, ces image seront déchiffrées et envoyés directement par Apple aux autorités. L’utilisateur ne sera pas prévenu et des éléments d’identification nécessaire pour l’enquête seront aussi envoyés.

Image : Apple

Et ça fonctionne comment cette détection automatique ?

Sans rentrer dans tous les détails techniques (si ça vous intéresse, voici la documentation officielle), Apple prend comme images de référence une base de données de photographies connues fournies par le National Center for Missing and Exploited Children. L’iPhone analyse alors les images en recherche de correspondance avec cette base. Si un certain seuil de correspondances est atteint, Apple examinera manuellement les données pour confirmer la correspondance, ensuite désactivera le compte de l’utilisateur et enverra un rapport au National Center for Missing and Exploited Children.

Les analyses se font sur l’iPhone mais comme précisées plus haut, seules les photos stockées dans iCloud Photos sont concernées, et non celles stockées entièrement localement. L’objectif est de garder le système respectueux de la confidentialité des utilisateurs. Mais on peut se demander si ce type de fonctionnalités ne seront pas étendues à d’autres questions

Image : Apple

Et vous ? Que pensez-vous de cette mesure d’Apple ? N’hésitez pas à vous exprimer dans les commentaires

Sources : Apple, Frandroid

Qu'en avez-vous pensé?

Excité
0
Joyeux
1
Je suis fan
0
Je me questionne
0
Bof
0

Vous pourriez aussi aimer

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Actualités