La pédopornographie n’est plus tolérée sur iPhone

Publié le Aucun commentaire sur La pédopornographie n’est plus tolérée sur iPhone

Internet à de bien, le rapprochement des gens, l’entraide, l’échange et le savoir. Pourtant, il y a aussi des côtés plus pervers, ou tout est permis. Entre la désinformation, et la pédopornographie, cette impression d’intouchabilité et d’anonymat révèle parfois le pire de certain utilisateur. Si nous ne sommes pas câbles de voir le bien ou le mal, tous les géants de la tech peuvent intervenir de façon tout à fait intéressante. Chez Apple, la pédopornographie n’est plus tolérée sur iPhone et c’est une très bonne chose qui ne devrait pas être discuté et pourtant !

De la 5G au capteur photo, les smartphones sont des amplificateurs

Ne cherchez pas, nous faisons tous des choses sur nos smartphones qui peuvent nous étonner. Le téléphone est tellement omniprésent dans nos vies, qu’il est devenu simplement le reflet de notre vie réelle.

Montre-moi ton smartphone je te dirais qui tu es ! »

Aujourd’hui si je prends votre téléphone est que vous me laissez regarder son contenu je pourrais entrevoir le moindre de vos petits secrets. Certains ne sont pas coupables ! Entre échangent intime avec son ou sa partenaire et photo dénudé, rien n’est intimement grave. Mais, en poussant les recherches, nous pouvons connaitre votre orientation sexuelle, vos pensés les plus profondes, mais aussi vos travers les moins avouables.

Malheureusement si le smartphone est un outil qui à su bouleverser le monde pour le meilleur, il a aussi amplifié les travers et les zone d’ombre de certains utilisateurs. Pire encore, à présent tout le monde peut prendre une photo, vidéo discrètement et avec la 5G, la partager à travers le monde en quelques secondes. Cette image peut devenir un fardeau pour la personne.

L’une des pratiques qui s’amplifie avec la puissance des smartphones ce sont les images pédopornographiques. Ces images abjectes pullulent sur le net à l’insu évident des enfants concernés. Ce sujet est devenu tellement important que les géants du net le prennent à bras-le-corps.

La pédopornographie n’est plus tolérée sur iPhone

Nous le savons Apple est toujours le fervent défenseur de la vie privée sur ses iPhones. Pour protéger nos enfants, le géant de Cupertiono lance trois mesures importantes sur son OS mobile.

Messages sera plus prévenant

La première mesure prise par Apple concerne l’application Messages. Cette application va bénéficier de nouveaux outils qui préviendront l’enfant que tel contenu partagé est potentiellement sensible. À la réception d’une image jugée inadaptée pour l’enfant, elle sera automatiquement floutée et l’enfant recevra une alerte. Si malgré cette alerte le mineur décide de visualiser l’image, les par les parents recevront une notification. Cette vérification sera également applicable si l’enfant décide de partager une photo intime. La mise en place de ces vérifications parentales ne sont applicables que sur les enfants de moins de 13 ans.

Apple ne rompt pas le pacte de confiance avec ses utilisateurs, car tout le traitement sera réalisé sur l’appareil. L’application Messages utilise un traitement d’apprentissage automatique sur la base d’image ne souffrant d’aucune équivoque sur le sujet.

Cette fonction sera disponible sur tous les OS d’Apple, iOS 15, iPadOS 15 et macOS Monterey. Pour y accéder il faudra au préalable configurer le partage familial.

Détection d’images pédophile avant synchronisation

La technologie de détection d’images pédophiles (CSAM pour Child Sexual Abuse Material) arrivera sur iOS et iPadOS. Avec cette nouvelle technologie, Apple va détecter les images CSAM connues stockées dans iCloud Photos. Grâce à cela le géant Américain pourra signaler les cas au National Center for Missing and Exploited Children (NCMEC). Le NCMEC agit comme un centre de rapport complet pour CSAM et travaille en collaboration avec les organismes d’application de la loi à travers les États-Unis.

Cette partie de l’annonce à fait couler beaucoup d’encre. Mais, je peux vous assurer qu’elle n’a rien d’intrusif. En effet, Apple effectue un scan du « Hache » de vos photos avant la mise en ligne sur iCloud. Un « Hach » n’est pas la photo, mais une empreinte numérique de cette dernière. Une fois l’empreinte faite, celle-ci est comparée aux empreintes numériques des photos présente dans la base de données du CSAM.

Si le résultat ne montre aucune correspondance, l’application génère un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.

Confidentialité assurée jusqu’à un certain niveau chez Apple

Lié à une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu CSAM connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.

Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.

Google et les autres géants sont aussi sur le front de la pédopornographie

Apple n’est pas la seule entreprise sur le front de la protection de l’enfance. En 2013, Le PDG de Google de l’époque, Eric Schmidt, avait déjà annoncé la mise au point d’une technologie pour lutte contre la pédopornographie. Cette technologie permet à la firme de Mountain View de bloquer un grand nombre de recherches de pornographie pédophile sur interne.

À l’époque Eric Schmitt explique qu’il ne sera jamais possible d’éliminer toutes les dépravations de la société ! Quoi qu’il en soit, Google devrait tout faire pour protéger les enfants du mal.

En 2014, dans un e-mail adressé à l’AFP, un porte-parole de Google a déclaré : « Malheureusement, toutes les sociétés Internet doivent faire face à des abus sexuels sur des enfants.

C’est pourquoi Google supprime activement les images illégales de nos services, y compris la recherche et Gmail, et signale immédiatement les abus au NCMEC. » […] « Chaque image d’abus sexuel d’enfant reçoit une empreinte numérique unique qui permet à nos systèmes d’identifier ces images, y compris dans Gmail », a ajouté le porte-parole, qui n’a pas divulgué de détails techniques sur le processus.

D’autres comme Dropbox, Instagram, ou encore Facebook essais d’enrailler la propagation d’image pédopornographique. Soit en supprimant l’accès ou en interdisant certain hastags.

Comment déclarer un contenu pédopornographique

Ce problème, ce n’est pas sous la seule responsabilité des géants d’internet. Nous sommes tous responsables, et nous pouvons agir chacun de notre côté. En effet, toute personne peut signaler aux services de police et de gendarmerie un contenu illégal (site, vidéo…) se trouvant sur internet. Pour cela l’état met à notre disposition le site internet PHAROS. Ce site internet et géré par des policiers et des gendarmes spécialisés.

Oui, la pédopornographie n’est plus tolérée sur iPhone ou chez les autres géants d’internet ! Oui, Apple se doit de rompre un contrat de confiance avec des utilisateurs qui ne respectent la dignité de nos enfants. Certains crieront à la censure ou la dictature. Personnellement, je me fiche qu’Apple scrute ce que je place sur leur Cloud pour protéger vos enfants, nos enfants, mes enfants !

Évidemment, il faudra prendre garde aux excès comme a pu nous le montrer l’épisode 2 de la saison 4 de black mirror

Cela étant dit, nous pouvons tous ensemble lutter contre cela, et nous nous devons de le faire. La pédopornographie n’est plus tolérée sur iPhone est, c’est une bonne chose, mais je sais que certains vont s’offusquer de nos pertes de liberté. Dites-moi dans la suite de cet article à travers vos commentaires ce que vous pensez de

Si vous avez trouvé une faute d’orthographe, informez-nous en sélectionnant le texte en question en appuyant sur Ctrl + Entrée s’il vous plaît,.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Rapport de faute d’orthographe

Le texte suivant sera envoyé à nos rédacteurs :