Comment la modération de contenu aide-t-elle à prévenir le cyber-harcèlement ?
Publié: 2022-08-12La croissance des plateformes de médias sociaux avec l'expansion de l'internet mobile s'est accélérée grâce à la création et à la consommation de contenu généré par l'utilisateur (UGC). Les plateformes de médias sociaux sont devenues un moyen majeur de diffusion, de circulation et d'échange de connaissances pour des milliards de personnes dans le monde. Cependant, en raison de l'énorme quantité d'informations partagées via les plateformes de médias sociaux, les incidences de harcèlement en ligne ont augmenté, d'où la nécessité de modérer le contenu en ligne.
Qu'est-ce que le cyberharcèlement ?
C'est l'intimidation qui se produit via l'utilisation des technologies numériques. Cela peut se produire sur les sites de réseaux sociaux, les systèmes de chat, les plateformes de jeux et les téléphones mobiles. Il s'agit d'un comportement répétitif destiné à effrayer, mettre en colère ou faire honte aux personnes ciblées. Ceci comprend:
- Diffuser de fausses informations et statistiques sur les incidents et les utilisateurs ou télécharger des photos ou des vidéos bouleversantes de quelqu'un sur les sites de médias sociaux
- Utiliser des plateformes de médias sociaux pour envoyer des messages malveillants, abusifs ou menaçants, des illustrations graphiques, des photos ou des vidéos
Effets de la cyberintimidation :
Les notes des élèves ont souffert du fait d'avoir été victimes de cyberintimidation. Environ 41 % des victimes ont déclaré être devenues moins actives en classe, 24 % ont déclaré que leurs résultats scolaires avaient chuté et 35 % ont déclaré avoir dû redoubler après avoir été victimes de cyberintimidation.
Une étude de recherche a révélé que 31 % des victimes de harcèlement en ligne ont déclaré être très ou extrêmement bouleversées, 19 % avaient très ou extrêmement peur et 18 % étaient très ou extrêmement gênées. Ils ont également découvert que des actes répétés de cyberintimidation mettaient en péril le développement sain de l'estime de soi et contribuaient à l'échec scolaire, au décrochage et à l'augmentation des symptômes psychologiques comme la dépression et l'anxiété.
Comment le cyberharcèlement est-il contrôlé ?
Lorsqu'une publication répréhensible apparaît dans le fil d'actualité d'un site de partage social, la plateforme prend des mesures rapides pour supprimer la publication ou, dans des situations extrêmes, avertir et interdire l'accès à l'utilisateur du site. Les sites de partage social et les utilisateurs peuvent désormais signaler les incidents d'intimidation sur les réseaux sociaux en utilisant les boutons de signalement, qui se trouvent quelque part sur les sites de réseaux sociaux, très probablement dans la zone "Aide". Ils évalueront le contenu et détermineront sa légitimité en fonction de la nature du message publié sur le site. La solution réside dans la modération du contenu, et c'est ainsi que la cyberintimidation sera contrôlée.
Qu'est-ce que la modération de contenu ?
La modération du contenu est la façon dont la plateforme en ligne filtre et surveille le contenu généré par les utilisateurs pour déterminer si le contenu doit ou non être publié sur la plateforme en ligne. En d'autres termes, lorsqu'un utilisateur soumet du contenu à un site Web, ce contenu passe par une procédure de filtrage (le processus de modération) pour s'assurer qu'il respecte les règles du site Web, qu'il n'est pas inapproprié, harcelant, illégal, etc.
Chaque jour, des quantités incroyables de textes, de photos et de vidéos sont téléchargées, et les entreprises ont besoin d'un mécanisme pour surveiller le matériel hébergé sur leurs plateformes. Ceci est essentiel pour assurer la sécurité et la confiance de vos clients, pour surveiller les impacts sociaux sur la perception de la marque et pour respecter les exigences légales. La meilleure façon de faire tout cela est de modérer le contenu. Il permet aux entreprises Internet d'offrir à leurs clients un environnement sécurisé et sain. Les médias sociaux, les sites Web et applications de rencontres, les marchés, les forums et autres plates-formes similaires utilisent tous largement la modération de contenu.
Pourquoi la modération de contenu ?
Les plateformes de médias sociaux ont des réglementations qui empêchent les utilisateurs de télécharger certains types d'informations, telles que la violence graphique, l'exploitation sexuelle des enfants et les contenus ou discours hostiles. Selon la gravité des infractions des utilisateurs, un opérateur peut les interdire temporairement ou définitivement.
Plusieurs sources sont utilisées par les opérateurs de médias sociaux pour
- Le contenu des utilisateurs qui semble abusif ou offensant de quelque manière que ce soit doit être signalé ou supprimé
- Empêcher les utilisateurs d'accéder au site Web
- Impliquer les autorités gouvernementales dans la prise de mesures contre ces utilisateurs dans les cas extrêmes d'intimidation
Pour les raisons ci-dessus, la modération de contenu est apparue pour ouvrir la voie à une meilleure expérience client sans se tromper.
Avantages de la modération de contenu :
Vous avez besoin d'une procédure de modération de contenu extensible qui vous permette d'évaluer la toxicité d'une remarque en examinant son contexte environnant. L'importance majeure de la modération consiste à
- Protégez les communautés et les annonceurs
- En prévenant les comportements toxiques tels que le harcèlement, la cyberintimidation, les discours de haine, les spams et bien plus encore, les plateformes peuvent favoriser une communauté accueillante et inclusive. Avec des politiques et des procédures de modération de contenu bien pensées et appliquées de manière cohérente, vous pouvez aider les utilisateurs à éviter les expériences en ligne négatives ou traumatisantes.
- Augmenter la fidélité à la marque et l'engagement
- Des communautés sûres, inclusives et engagées ne sont pas nées. Ils sont créés et maintenus à dessein par des membres dévoués de la communauté et des professionnels de la confiance et de la sécurité. Lorsque les plateformes peuvent offrir une excellente expérience utilisateur sans toxicité, elles se développent et prospèrent.
Défis de la modération de contenu :
La technologie la plus récente et une armée de modérateurs de contenu humains sont aujourd'hui utilisées par plusieurs sociétés pour surveiller les médias sociaux et traditionnels à la recherche de matériel viral frauduleux produit par les utilisateurs. Pendant ce temps, les défis de la modération de contenu incluent
Type de contenu
- Un système qui fonctionne bien pour le mot écrit peut ne pas être utile pour la surveillance en temps réel de la vidéo, du son et du chat en direct. Les plateformes doivent rechercher des solutions leur permettant de contrôler le contenu généré par les utilisateurs dans différents formats.
Volume de contenu
- Gérer l'énorme quantité de contenu publié quotidiennement - chaque minute - est bien trop difficile à gérer en temps réel pour une équipe de modération de contenu. En conséquence, plusieurs plates-formes expérimentent des solutions automatisées et alimentées par l'IA et dépendent des personnes pour signaler les comportements en ligne interdits.
Interprétations basées sur le contexte
- Lorsqu'elles sont examinées dans différents contextes, les informations générées par l'utilisateur peuvent avoir des significations très différentes. Sur les plates-formes de jeux, par exemple, il existe une culture du "trash talk", dans laquelle les utilisateurs communiquent et se donnent du fil à retordre pour renforcer leur compétitivité.
À faire de la modération de contenu.
Puisque la modération du contenu est importante, son besoin l'est tout autant. Découvrez ce qu'il faut faire pour prévenir une telle cyberintimidation et ceux-ci incluent,
- Se familiariser avec la nature de l'entreprise
- Comprendre votre marché cible
- Établir des règles internes et des directives communautaires
- Comprendre vos méthodes de modération
- Soyez prudent lorsque vous utilisez l'auto-modération ou la modération distribuée
- Mettre l'accent sur la communication ouverte
- Capacité en affaires
Ce qu'il ne faut pas faire avec la modération de contenu
Comme il faut le faire, il existe aussi des choses à ne pas faire. Examinez les choses à ne pas faire que nous devons garder à l'esprit.
- Mal interpréter ce qu'est un bon contenu
- Prenez beaucoup de temps avant de commencer la modération de votre contenu
- Gaspillage des ressources
- Faire trop confiance aux filtres automatisés
- Négliger la rétroaction
Sommaire
À travers cet article, la modération du contenu est très éclairante puisque le monde s'est avéré être un endroit dangereux pour les gens qui veulent se mettre en retrait avec la culture des médias sociaux. Néanmoins, la cyberintimidation se produit avec ou sans l'intervention des gens. Dans l'ensemble, la façon dont les modérateurs de contenu régissent la cyberintimidation s'explique par cela.
En conclusion, les gens devraient être conscients des normes de cybersécurité et de la portée de la cybersécurité, qui a évolué pour empêcher les gens d'obtenir leurs renseignements personnels. Pour en savoir plus, consultez Skillslash pour ses cours, tels que le cours de certification en science des données à Delhi.