Applications
Meta s’engage pour la protection des mineurs avec de nouvelles mesures
Instagram, Messenger et les contrôles parentaux gagnent en sécurité.
Au début du mois dernier, le Wall Street Journal publiait une étude. Celle-ci portait sur les difficultés des plateformes sociales, telles que Facebook, Instagram, ou TikTok, à garantir un endroit sans danger pour les plus jeunes. Durant la même période, et d’après nos confrères de TechCrunch, l’Union Européenne avait par ailleurs demandé à l’entreprise de « fournir plus de détails sur les efforts de l’entreprise pour empêcher le partage de matériels d’abus sexuels sur enfants auto-générés (SG-CSAM). »
La maison mère de Facebook fait également face à plus de 40 États américains en Californie, après qu’ils aient intenté une action en justice à son égard. Les États en question accusent l’entreprise de « concevoir des produits d’une manière qui nuit à la santé mentale des enfants ». Plus d’un mois après, Meta met en place plusieurs actions visant à protéger les mineurs.
Limitation de la messagerie sur Instagram
Jusqu’à présent, il existait déjà certaines mesures visant à protéger les plus jeunes sur la plateforme. Instagram empêche par exemple un adulte d’envoyer un message à un mineur, si ce dernier n’est pas abonné à l’adulte en question. Cette mesure vient d’être modifiée par Meta.
Dorénavant, « les nouvelles limites s’appliqueront par défaut à tous les utilisateurs de moins de 16 ans — et dans certaines zones géographiques de moins de 18 ans », comme le rapporte TechCrunch.
Messenger et les contrôles parentaux gagnent en sécurité
L’application Messenger renforce également la vie privée des utilisateurs en empêchant qu’ils reçoivent des messages de personnes ne figurant pas dans leur liste d’amis ou de contacts.
Du côté des contrôles parentaux, ils permettent dorénavant aux tuteurs « d’autoriser ou de refuser les modifications des paramètres de confidentialité par défaut effectuées par les adolescents. Auparavant, lorsque des adolescents modifiaient ces paramètres, les tuteurs recevaient une notification, mais ils ne pouvaient prendre aucune mesure à leur égard.»
Les équipes de Mark Zuckerberg prévoient également d’empêcher tout type de contenu considéré comme inapproprié d’atteindre la boîte de réception des adolescents, et ce peu importe si le contenu en question a été envoyé par un proche ou pas.
Voir aussi :