Les images pornographiques floutées par défaut
Pixabay/DariuszSankowski
La première nouveauté d’Apple iOS 15 concerne iMessage : grâce à l’intelligence artificielle, les messages sexuellement explicites, qu’ils soient volontairement reçus ou non (dans ce dernier cas, il s’agit d’agression sexuelle) ou qu’ils soient envoyés, seront floutés automatiquement. Un paramètre de sécurité qui s’appliquera pour les comptes iCloud familiaux, au niveau de l’accès des enfants.
Une bonne nouvelle pour la protection des mineurs, de plus en plus tôt exposés à des images pornographiques contre leur gré. Apple rappelle que la messagerie iMessage reste chiffrée de bout en bout et que l’entreprise n’a pas accès au contenu du message : c’est une Intelligence artificielle intégrée qui se chargera de flouter les images jugées dangereuses.
Une bonne nouvelle pour la protection des mineurs, de plus en plus tôt exposés à des images pornographiques contre leur gré. Apple rappelle que la messagerie iMessage reste chiffrée de bout en bout et que l’entreprise n’a pas accès au contenu du message : c’est une Intelligence artificielle intégrée qui se chargera de flouter les images jugées dangereuses.
Fouiller les photos iCloud à la recherche de pédopornographie
Mais c’est une autre annonce d’Apple qui inquiète : la volonté du groupe d’analyser les photos iCloud de ses utilisateurs. L’objectif affiché est d’identifier les images pédopornographiques potentielles, en recoupant les données avec la base de données américaine du National Center for Missing and Exploited Children. Là aussi, Apple assure que l’analyse se fera automatiquement et que l’entreprise n’aura pas accès aux données.
Lorsque des images correspondant à cette base de données sont identifiées, Apple analysera la situation au cas par cas et annonce que l’entreprise bloquera l’accès au compte iCloud dès lors qu’il contient un certain nombre de ces images, sans plus de précisions. Apple communiquera alors les données au National Center for Missing and Exploited Children qui prendra, le cas échéant, des mesures.
L’analyse des photos iCloud sera déployée aux États-Unis, pour l’instant : en Europe, une telle mesure pourrait contrevenir au RGPD et n’a pas été annoncée. Mais ce qui inquiète les spécialistes de la protection de la vie privée est la possibilité, pour Apple, d'appliquer ce type d'analyse à d'autres crimes et délits, voire à des activités non problématiques. Ce qu'Apple n'a pas annoncé.
Lorsque des images correspondant à cette base de données sont identifiées, Apple analysera la situation au cas par cas et annonce que l’entreprise bloquera l’accès au compte iCloud dès lors qu’il contient un certain nombre de ces images, sans plus de précisions. Apple communiquera alors les données au National Center for Missing and Exploited Children qui prendra, le cas échéant, des mesures.
L’analyse des photos iCloud sera déployée aux États-Unis, pour l’instant : en Europe, une telle mesure pourrait contrevenir au RGPD et n’a pas été annoncée. Mais ce qui inquiète les spécialistes de la protection de la vie privée est la possibilité, pour Apple, d'appliquer ce type d'analyse à d'autres crimes et délits, voire à des activités non problématiques. Ce qu'Apple n'a pas annoncé.