¿Cómo ayuda la moderación de contenidos a prevenir el ciberacoso?
Publicado: 2022-08-12El crecimiento de las plataformas de redes sociales con la expansión de Internet móvil se ha incrementado por la creación y el consumo de contenido generado por el usuario (UGC). Las plataformas de redes sociales se han convertido en una importante vía para transmitir, hacer circular e intercambiar conocimientos a miles de millones de personas en todo el mundo. Sin embargo, debido a la gran cantidad de información que se comparte a través de las plataformas de redes sociales, los incidentes de acoso en línea han aumentado, lo que genera la necesidad de moderar el contenido en línea.
¿Qué es el ciberacoso?
Es el acoso que ocurre a través del uso de tecnologías digitales. Puede ocurrir en sitios de redes sociales, sistemas de chat, plataformas de juegos y teléfonos móviles. Es un comportamiento repetitivo destinado a asustar, enojar o avergonzar a las personas objetivo. Esto incluye:
- Difundir información y estadísticas falsas sobre incidentes y usuarios o cargar fotografías o videos molestos de alguien en sitios de redes sociales
- Usar plataformas de redes sociales para enviar mensajes, ilustraciones gráficas, fotos o videos maliciosos, abusivos o amenazantes
Efectos del ciberacoso:
Las calificaciones de los estudiantes sufrieron como resultado de ser víctimas de acoso cibernético. Alrededor del 41% de las víctimas dijeron que se volvieron menos activas en clase, el 24% dijo que su rendimiento escolar había disminuido y el 35% dijo que tuvo que repetir un grado después de ser víctima de ciberacoso.
Un estudio de investigación encontró que el 31% de las víctimas de acoso en línea informaron estar muy o extremadamente molestos, el 19% estaban muy o extremadamente asustados y el 18% estaban muy o extremadamente avergonzados. También descubrieron que los actos repetidos de acoso cibernético ponían en peligro el desarrollo saludable de la autoestima y contribuían al fracaso escolar, la deserción escolar y el aumento de los síntomas psicológicos como la depresión y la ansiedad.
¿Cómo se controla el ciberacoso?
Cuando aparece una publicación objetable en las noticias de un sitio para compartir en redes sociales, la plataforma toma medidas inmediatas para eliminar la publicación o, en situaciones extremas, advertir y prohibir que el usuario acceda al sitio. Tanto los sitios para compartir en redes sociales como los usuarios ahora pueden denunciar incidentes de intimidación en los canales de las redes sociales utilizando los botones de informe, que se encuentran en algún lugar de los sitios de redes sociales, muy probablemente en el área de "Ayuda". Evaluarán el contenido y determinarán su legitimidad según la naturaleza de la publicación publicada en el sitio. La solución está en la moderación de contenidos, y así se controlará el ciberacoso.
¿Qué es la moderación de contenido?
La moderación de contenido es la forma en que la plataforma en línea filtra y supervisa el contenido generado por el usuario para determinar si el contenido debe publicarse o no en la plataforma en línea. Dicho de otro modo, cuando un usuario envía contenido a un sitio web, ese contenido pasará por un procedimiento de selección (el proceso de moderación) para garantizar que cumple con las reglas del sitio web, que no es inapropiado, acosador, ilegal, etc.
Todos los días se suben cantidades increíbles de texto, fotos y videos, y las empresas necesitan un mecanismo para monitorear el material alojado en sus plataformas. Esto es esencial para mantener a sus clientes seguros y confiables, para monitorear los impactos sociales en la percepción de la marca y para cumplir con los requisitos legales. La mejor manera de hacer todo eso es a través de la moderación de contenido. Permite a las empresas de Internet ofrecer a sus clientes un entorno seguro y saludable. Las redes sociales, los sitios web y las aplicaciones de citas, los mercados, los foros y otras plataformas similares hacen un uso extensivo de la moderación de contenido.
¿Por qué la moderación de contenido?
Las plataformas de redes sociales tienen regulaciones que impiden que los usuarios carguen cierto tipo de información, como violencia gráfica, explotación sexual infantil y contenido o discurso hostil. Dependiendo de la gravedad de las infracciones de los usuarios, un operador puede prohibirlos temporal o permanentemente.
Los operadores de redes sociales utilizan varias fuentes para
- El contenido de los usuarios que parezca abusivo u ofensivo de alguna manera debe marcarse o eliminarse.
- Impedir que los usuarios accedan al sitio web
- Involucrar a las autoridades gubernamentales en la toma de medidas contra dichos usuarios en casos extremos de intimidación.
Por las razones anteriores, la moderación de contenido surgió para allanar el camino hacia una mejor experiencia del cliente sin juzgar mal.
Beneficios de la moderación de contenido:
Necesita un procedimiento de moderación de contenido extensible que le permita evaluar la toxicidad de un comentario examinando el contexto que lo rodea. La mayor importancia de la moderación consiste en
- Salvaguardar comunidades y anunciantes
- Al prevenir comportamientos tóxicos como el acoso, el ciberacoso, la incitación al odio, el spam y mucho más, las plataformas pueden fomentar una comunidad acogedora e inclusiva. Con políticas y procedimientos de moderación de contenido bien pensados y aplicados de manera consistente, puede ayudar a los usuarios a evitar experiencias en línea negativas o traumáticas.
- Aumento de la lealtad y el compromiso de la marca
- No nacen comunidades seguras, inclusivas y comprometidas. Son creados y mantenidos a propósito por miembros de la comunidad dedicados y profesionales de confianza y seguridad. Cuando las plataformas pueden proporcionar una excelente experiencia de usuario libre de toxicidad, crecen y prosperan.
Desafíos de la moderación de contenido:
Varias corporaciones están utilizando la tecnología más nueva y un ejército de moderadores de contenido humano para monitorear los medios sociales y tradicionales en busca de material viral fraudulento producido por los usuarios. Mientras tanto, los desafíos de la moderación de contenido incluyen
Tipo de contenido
- Un sistema que funciona bien para la palabra escrita puede no ser útil para el monitoreo de video, sonido y chat en vivo en tiempo real. Las plataformas deben buscar soluciones que les permitan controlar el contenido generado por los usuarios en varios formatos.
Volumen de contenido
- Administrar la enorme cantidad de contenido que se publica diariamente, cada minuto, es demasiado para que un equipo de moderación de contenido lo maneje en tiempo real. Como resultado, varias plataformas están experimentando con soluciones automatizadas y basadas en IA y dependen de las personas para denunciar conductas prohibidas en línea.
Interpretaciones basadas en el contexto
- Cuando se examina en diferentes contextos, la información generada por el usuario puede tener significados significativamente diferentes. En las plataformas de juegos, por ejemplo, existe una cultura de 'charla basura', en la que los usuarios se comunican y se hacen pasar un mal rato para impulsar la competitividad.
Qué hacer con la moderación de contenido.
Dado que la moderación del contenido es importante, también lo es su necesidad. Echa un vistazo a lo que se debe hacer para prevenir este tipo de acoso cibernético, que incluye,
- Familiarícese con la naturaleza del negocio.
- Comprenda su mercado objetivo
- Establecer reglas de la casa y lineamientos de la comunidad
- Comprenda sus métodos de moderación
- Tenga cuidado al usar la automoderación o la moderación distribuida
- Enfatice la comunicación abierta
- Capacidad en los Negocios
Lo que no se debe hacer con la moderación de contenido
Como tiene que hacer, también existen los que no. Mire los no hacer que debemos tener en cuenta.
- Malinterpretar qué es un buen contenido
- Tómese mucho tiempo antes de comenzar su moderación de contenido
- Desperdicio de recursos
- Poner demasiada confianza en los filtros automatizados
- Descuidar la retroalimentación
Resumen
A través de este artículo, la moderación del contenido es muy esclarecedora, ya que el mundo se ha convertido en un lugar inseguro para que las personas se mezclen con la cultura de las redes sociales. Sin embargo, el ciberacoso ocurre con o sin la intervención de las personas. En general, la forma en que los moderadores de contenido rigen el ciberacoso se ha explicado por esto.
En conclusión, las personas deben conocer los estándares de seguridad cibernética y el alcance de la seguridad cibernética, que ha ido evolucionando para proteger a las personas de obtener su información personal. Para obtener más información, consulte Skillslash para conocer sus cursos, como el curso de Certificación de ciencia de datos en Delhi.