Ir al contenido principal

Protegiendo y moderando tu plataforma

Nola Moreau avatar
Escrito por Nola Moreau
Actualizado esta semana

Vista general de la protección y moderación de tu plataforma

Su plataforma ha construido en protecciones y herramientas de moderación para asegurar una participación segura y respetuosa.

Los mecanismos clave incluyen:

  • Denuncia comunitaria de por contenido inapropiado

  • filtrado de pulseras para bloquear el lenguaje ofensivo

  • Detección impulsada por IA mediante procesamiento del lenguaje natural (PLN)

  • Prevención de spam y limitación de tráfico para bloquear el abuso malicioso o automatizado

  • Términos & Condiciones, Política de privacidad y cumplimiento del RGPD

Juntas, estas herramientas ayudan a los administradores a mantener un ambiente saludable y constructivo con una intervención manual mínima.

Sistemas de protección de plataformas

Cada plataforma GoVocal incluye:

  • Spam y detección de aceleración: Detener automáticamente el comportamiento sospechoso, como las presentaciones masivas de ideas o las respuestas repetidas de spammy.

  • Monitoreo de IP: Marca actividad inusual, como múltiples cuentas creadas rápidamente desde la misma dirección IP, al tiempo que contabiliza las redes compartidas.

  • Automoderación basada en votos negativos: El contenido mal recibido naturalmente baja en el ranking, lo que ayuda a mantener discusiones constructivas.

  • Correos electrónicos de resumen de administración: Resúmenes semanales del contenido enviado para un fácil seguimiento y una rápida identificación de problemas.

  • Marcación manual de spam: Tanto los usuarios como los administradores pueden marcar las ideas como spam y especificar una razón para reportar.

  • Verificación de correo electrónico y ciudadano: La verificación de correo electrónico está habilitada de forma predeterminada para confirmar registros válidos. En ciertas regiones, la verificación de ciudadanos (por ejemplo, a través de ItsMe) también es soportada, lea más al respecto en este artículo de soporte.

  • Aplicación de los términos de uso: Los administradores pueden eliminar cuentas, ideas o comentarios cuando se detecta un uso indebido.

  • Política de privacidad & alineamiento GDPR: Protege los datos del usuario y garantiza el cumplimiento de las normas europeas de protección de datos.

Cómo se detecta el contenido inapropiado

Su plataforma utiliza tres métodos de detección complementarios:

  1. Informe de la comunidad: Cualquier participante puede marcar una publicación, propuesta o comentario como inapropiado.

  2. Filtro de blasfemias: Bloquea palabras ofensivas comunes en los idiomas admitidos y solicita a los usuarios que editen antes de publicar.

  3. Detección AI/NLP: Utiliza automáticamente el procesamiento del lenguaje natural para detectar el lenguaje abusivo, tóxico o inapropiado.

Nota: La detección de NLP está disponible en inglés, francés, alemán, español y ese.

¿Cómo revisar y moderar el contenido inapropiado?

  1. Vaya a la pestaña Notificaciones en el panel de administración.

  2. Haga clic en la advertencia de contenido o reportar notificación.

  3. Revisar el elemento reportado (mensaje, comentario, propuesta).

  4. Tome medidas de moderación basadas en sus directrices:

    • Editar o eliminar entradas/propuestas.

    • Publica una actualización oficial o un comentario clarificador.

    • Ocultar los elementos (para los proyectos de cronología) deseleccionando sus fases asociadas.

Notas importantes:

  • Si elimina entradas/propuestas, los autores no recibirán un correo electrónico (notificarlo por separado si es necesario).

  • Los comentarios no pueden ser editados, sólo borrados. Si se elimina, el autor recibirá un correo electrónico explicando el motivo.

¿Qué puede ser editado vs eliminado?

  • entradas (ideas, contribuciones) & Propuestas: Puede ser editado o eliminado por los administradores/administradores.

  • Comentarios: No se puede editar — sólo eliminado.

    • Cuando se elimina, el autor recibe una notificación por correo electrónico.

  • Ocultar contenido: En proyectos de línea de tiempo, puede ocultar elementos en lugar de eliminarlos deseleccionando todas las fases asociadas.

¿Cómo activar/desactivar las funciones de moderación?

  1. Ve a Ajustes de una plataforma .

  2. Activar o desactivar:

    • filtro de autenticidad (bloquea palabras ofensivas comunes).

    • Detectar contenido inapropiado (escaneo IA/PNL).

  3. Guardar cambios.

Puedes activar o desactivar estas funciones en cualquier momento.

¿Cómo añadir palabras inapropiadas personalizadas?

  1. Prepara una lista de palabras únicas (las frases no están soportadas).

  2. Contacte con soporte técnico a través de la burbuja de chat.

  3. Enviar la lista (para listas más largas, preparar un archivo .xlsx o similar).

El soporte añadirá las palabras al filtro de tu plataforma.

¿Ha quedado contestada tu pregunta?