Vista general de la protección y moderación de tu plataforma
Su plataforma ha construido en protecciones y herramientas de moderación para asegurar una participación segura y respetuosa.
Los mecanismos clave incluyen:
Denuncia comunitaria de por contenido inapropiado
filtrado de pulseras para bloquear el lenguaje ofensivo
Detección impulsada por IA mediante procesamiento del lenguaje natural (PLN)
Prevención de spam y limitación de tráfico para bloquear el abuso malicioso o automatizado
Términos & Condiciones, Política de privacidad y cumplimiento del RGPD
Juntas, estas herramientas ayudan a los administradores a mantener un ambiente saludable y constructivo con una intervención manual mínima.
Sistemas de protección de plataformas
Cada plataforma GoVocal incluye:
Spam y detección de aceleración: Detener automáticamente el comportamiento sospechoso, como las presentaciones masivas de ideas o las respuestas repetidas de spammy.
Monitoreo de IP: Marca actividad inusual, como múltiples cuentas creadas rápidamente desde la misma dirección IP, al tiempo que contabiliza las redes compartidas.
Automoderación basada en votos negativos: El contenido mal recibido naturalmente baja en el ranking, lo que ayuda a mantener discusiones constructivas.
Correos electrónicos de resumen de administración: Resúmenes semanales del contenido enviado para un fácil seguimiento y una rápida identificación de problemas.
Marcación manual de spam: Tanto los usuarios como los administradores pueden marcar las ideas como spam y especificar una razón para reportar.
Verificación de correo electrónico y ciudadano: La verificación de correo electrónico está habilitada de forma predeterminada para confirmar registros válidos. En ciertas regiones, la verificación de ciudadanos (por ejemplo, a través de ItsMe) también es soportada, lea más al respecto en este artículo de soporte.
Aplicación de los términos de uso: Los administradores pueden eliminar cuentas, ideas o comentarios cuando se detecta un uso indebido.
Política de privacidad & alineamiento GDPR: Protege los datos del usuario y garantiza el cumplimiento de las normas europeas de protección de datos.
Cómo se detecta el contenido inapropiado
Su plataforma utiliza tres métodos de detección complementarios:
Informe de la comunidad: Cualquier participante puede marcar una publicación, propuesta o comentario como inapropiado.
Filtro de blasfemias: Bloquea palabras ofensivas comunes en los idiomas admitidos y solicita a los usuarios que editen antes de publicar.
Detección AI/NLP: Utiliza automáticamente el procesamiento del lenguaje natural para detectar el lenguaje abusivo, tóxico o inapropiado.
Nota: La detección de NLP está disponible en inglés, francés, alemán, español y ese.
¿Cómo revisar y moderar el contenido inapropiado?
Vaya a la pestaña Notificaciones en el panel de administración.
Haga clic en la advertencia de contenido o reportar notificación.
Revisar el elemento reportado (mensaje, comentario, propuesta).
Tome medidas de moderación basadas en sus directrices:
Editar o eliminar entradas/propuestas.
Publica una actualización oficial o un comentario clarificador.
Ocultar los elementos (para los proyectos de cronología) deseleccionando sus fases asociadas.
Notas importantes:
Si elimina entradas/propuestas, los autores no recibirán un correo electrónico (notificarlo por separado si es necesario).
Los comentarios no pueden ser editados, sólo borrados. Si se elimina, el autor recibirá un correo electrónico explicando el motivo.
¿Qué puede ser editado vs eliminado?
entradas (ideas, contribuciones) & Propuestas: Puede ser editado o eliminado por los administradores/administradores.
Comentarios: No se puede editar — sólo eliminado.
Cuando se elimina, el autor recibe una notificación por correo electrónico.
Ocultar contenido: En proyectos de línea de tiempo, puede ocultar elementos en lugar de eliminarlos deseleccionando todas las fases asociadas.
¿Cómo activar/desactivar las funciones de moderación?
Ve a Ajustes de una plataforma .
Activar o desactivar:
filtro de autenticidad (bloquea palabras ofensivas comunes).
Detectar contenido inapropiado (escaneo IA/PNL).
Guardar cambios.
Puedes activar o desactivar estas funciones en cualquier momento.
¿Cómo añadir palabras inapropiadas personalizadas?
Prepara una lista de palabras únicas (las frases no están soportadas).
Contacte con soporte técnico a través de la burbuja de chat.
Enviar la lista (para listas más largas, preparar un archivo .xlsx o similar).
El soporte añadirá las palabras al filtro de tu plataforma.





