Les entreprises technologiques devront redoubler d’efforts pour protéger les jeunes des contenus dangereux, conformément aux nouvelles mesures de sécurité annoncées par l’autorité de régulation des médias.
Une étude de l’Ofcom a révélé que 59 % des jeunes de 13 à 17 ans interrogés avaient consulté du « contenu potentiellement dangereux » en ligne au cours du mois précédent.
Que signifie la loi sur la sécurité en ligne pour les enfants ?
Dans le cadre de l’application de la loi sur la sécurité en ligne, l’autorité de régulation a finalisé une série de politiques de sécurité des enfants qui entreront en vigueur le 25 juillet 2025 pour les applications et sites web de médias sociaux, de recherche et de jeux vidéo.
L’Ofcom affirme que ces réglementations empêcheront les jeunes d’accéder aux contenus les plus dangereux concernant le suicide, l’automutilation, les troubles de l’alimentation et Pornographie.
Elles sont également conçues pour protéger les jeunes contre les contenus misogynes, horribles, inhumains ou violents, l’intimidation en ligne et les menaces dangereuses.lire à ce sujet application Qustodio pour contrôle parental de nos articles
Les entreprises qui souhaitent poursuivre leurs activités au Royaume-Uni doivent prendre plus de 40 mesures concrètes, notamment :
- modifier les règles qui définissent le contenu des flux pour enfants afin de supprimer le contenu dangereux ;
- appliquer des méthodes de vérification de l’âge plus strictes pour vérifier si une personne a moins de 18 ans ;
- éliminer plus rapidement les produits dangereux reconnus et aider les jeunes qui y ont été exposés ;
- identifier une personne responsable de la sécurité des enfants au sein de l’entreprise et évaluer chaque année la manière dont elle gère les menaces envers les enfants sur ses plateformes.
Le non-respect de ces règles peut entraîner des amendes supplémentaires pour les entreprises. 18 millions de dollars, soit 10 % de leurs bénéfices mondiaux, ou l’incarcération de leurs dirigeants.
Dans les cas très graves, l’Ofcom déclare pouvoir demander une ordonnance du tribunal pour interdire la disponibilité du site ou de l’application au Royaume-Uni.
Que contient d’autre la loi sur la sécurité en ligne ?
La loi exige également que les entreprises démontrent leur engagement à supprimer les contenus web illégaux, notamment :
- abus sexuels sur mineurs
- comportement agressif ou dominateur
- violences sexuelles graves
- incitation au suicide ou à l’automutilation
- commercialisation de substances ou d’outils réglementés
- terrorisme
La loi a également créé de nouvelles infractions, telles que Comme :
- cyber-exhibitionnisme : envoi d’images sexuelles non sollicitées en ligne
- partage de pornographie « deepfake », où l’intelligence artificielle est utilisée pour insérer l’image d’une personne directement dans du contenu classé X
Combien de temps les enfants britanniques passent-ils en ligne ?
Selon une étude de l’Ofcom, les enfants âgés de 8 à 17 ans passent entre 2 et 5 heures en ligne par jour.
Cette étude révèle que presque tous les enfants de plus de 12 ans possèdent un téléphone portable et regardent presque tous des vidéos sur des plateformes comme YouTube ou TikTok.
Selon l’Ofcom, près de la moitié des enfants de plus de 12 ans estiment qu’être en ligne est bénéfique pour leur santé mentale.
Néanmoins, la Commissaire à l’enfance a déclaré que la moitié des jeunes de 13 ans interrogés par son équipe ont déclaré avoir vu Contenu classé X « hardcore et misogyne » sur les sites de médias sociaux. Les enfants ont également déclaré que les contenus sur le suicide, l’automutilation et les problèmes alimentaires étaient « respectés », tandis que les contenus violents étaient « inévitables ».
Quels sont les contrôles parentaux en ligne proposés ?
La NSPCC affirme qu’il est essentiel que les parents parlent à leurs enfants de sécurité en ligne et qu’ils soient attentifs à leurs activités en ligne.
Deux tiers des parents déclarent utiliser des contrôles pour limiter le contenu que leurs enfants voient en ligne, selon Web Issues, une organisation de sécurité créée par plusieurs grandes entreprises du web britanniques.
L’organisation propose une liste de contrôles parentaux et des guides détaillés sur leur utilisation.
Ces contrôles comprennent des conseils sur la gestion des comptes d’adolescents ou d’enfants sur les réseaux sociaux, les plateformes vidéo comme YouTube et les plateformes de jeux vidéo comme Roblox ou Fortnite.
Cependant, l’Ofcom publie des informations Les données suggèrent qu’environ un jeune sur cinq peut désactiver le contrôle parental.
Instagram n’autorise pas les utilisateurs de 13 à 15 ans à rendre leur compte public, sauf s’ils incluent un parent ou un tuteur sur leur compte adolescent.
Instagram a déjà introduit des « comptes adolescents » qui activent par défaut de nombreux paramètres de confidentialité, bien que certains chercheurs aient affirmé pouvoir contourner ces protections garanties.
Quels contrôles sont disponibles sur les téléphones portables et les consoles de jeux ?
Les réseaux téléphoniques et haut débit peuvent bloquer certains sites web jusqu’à ce que l’utilisateur prouve avoir plus de 18 ans.
Certains appareils disposent également d’un contrôle parental permettant de limiter les sites que les enfants peuvent consulter sur leur téléphone.
Les appareils Android et Apple offrent également des options permettant aux parents de bloquer ou de restreindre l’accès à des applications spécifiques, de limiter certains contenus, de bloquer les achats et de surveiller Surfer.
Les manettes de jeux vidéo permettent également aux parents de garantir des jeux adaptés à l’âge et de contrôler les achats intégrés.


