Vai al contenuto principale

Proteggere e moderare la tua piattaforma

Nola Moreau avatar
Scritto da Nola Moreau
Aggiornato questa settimana

Panoramica della protezione e moderazione della tua piattaforma

La vostra piattaforma ha integrato protezioni e strumenti di moderazione per garantire una partecipazione sicura e rispettosa.

I principali meccanismi comprendono:

  • Community reporting for inappropriate content

  • Filtro Profanità per bloccare il linguaggio offensivo

  • Rilevamento basato su AI utilizzando la lavorazione del linguaggio naturale (NLP)

  • Spam and throttling prevention to block malicious or automated abuse

  • Termini forti & Condizioni, Privacy Policy e GDPR compliance

Insieme, questi strumenti aiutano gli amministratori a mantenere un ambiente sano e costruttivo con un intervento manuale minimo.

Sistemi di protezione della piattaforma

Ogni piattaforma GoVocal comprende:

  • Rilevamento spam e throttling: Ferma automaticamente il comportamento sospetto, come i messaggi di idea di massa o le risposte spam ripetute.

  • Monitoraggio IP: Flags inusuale attività, come account multipli creati rapidamente dallo stesso indirizzo IP, mentre la contabilità per le reti condivise.

  • Auto-moderazione basata su Downvot: Il contenuto scarso ricevuto naturalmente affonda in classifica, contribuendo a mantenere discussioni costruttive.

  • Admin digest emails: Sintesi settimanali dei contenuti inviati per un facile monitoraggio e una rapida identificazione dei problemi.

  • Manual spam flagging: Sia gli utenti che gli amministratori possono contrassegnare idee come spam e specificare un motivo per la segnalazione.

  • Verifica Email e cittadino: La verifica email è abilitata di default per confermare le registrazioni valide. In alcune regioni, la verifica dei cittadini (ad esempio, tramite ItsMe) è anche supportata, per saperne di più su di essa in questo articolo di supporto.

  • Termini di utilizzo forzato: Gli amministratori possono rimuovere account, idee o commenti quando viene rilevato un uso improprio.

  • Privacy Policy & Allineamento GDPR: Protegge i dati degli utenti e garantisce il rispetto delle norme europee in materia di protezione dei dati.

Come viene rilevato un contenuto inappropriato

La tua piattaforma utilizza tre metodi di rilevamento complementari:

  1. Community Reporting: Ogni partecipante può contrassegnare un post, una proposta o un commento come inappropriato.

  2. Profanity Filter: Blocca le parole offensive comuni nelle lingue supportate e richiede agli utenti di modificare prima di pubblicare.

  3. AI/NLP Detection: Utilizza la lavorazione del linguaggio naturale per rilevare automaticamente un linguaggio abusivo, tossico o inappropriato.

Nota: il rilevamento NLP è disponibile in inglese, francese, tedesco, spagnolo e portoghese.

Come rivedere e moderare contenuti inappropriati?

  1. Vai alla scheda Notifiche nel pannello di amministrazione.

  2. Fare clic sull'avviso di contenuto o sulla notifica del rapporto.

  3. Riesaminare la voce riportata (posta, commento, proposta).

  4. Adottare un'azione di moderazione in base alle vostre linee guida:

    • Modifica o elimina input/proposals.

    • Pubblica un aggiornamento ufficiale o un commento chiarificatore.

    • Nascondi gli elementi (per i progetti della timeline) deselezionando le fasi associate.

Note importanti:

  • Se elimini input/proposals gli autori non riceveranno un'email (notifica separatamente se necessario).

  • I commenti non possono essere modificati, solo eliminati. Se eliminato, l'autore riceverà un'e-mail in cui verrà spiegato il motivo.

Cosa può essere modificato vs cancellato?

  • Input (idee, contributi) & Proposte: Può essere modificato o cancellato da admin/manager.

  • Commenti: Impossibile modificare — solo cancellato.

    • Quando è stato eliminato, l'autore riceve una notifica email.

  • Nascondere il contenuto: Nei progetti della timeline, puoi nascondere gli elementi invece di eliminarli deselezionando tutte le fasi associate.

Come abilitare/disabilitare le funzioni di moderazione?

  1. Vai su Impostazioni Piattaforma.

  2. Abilita o disabilita:

    • Filtro Profanity (blocca parole offensive comuni).

    • Rileva contenuti inappropriati (scansione AI/NLP).

  3. Salva modifiche.

È possibile attivare o disattivare queste funzionalità in qualsiasi momento.

Come aggiungere parole inappropriate personalizzate?

  1. Preparare una lista di singole parole (le frasi non sono supportate).

  2. Contatta il supporto tramite la bolla di chat.

  3. Inviare la lista (per elenchi più lunghi, preparare un file .xlsx o simile).

Il supporto aggiungerà le parole al filtro della piattaforma.

Hai ricevuto la risposta alla tua domanda?