Zum Hauptinhalt springen

Schützen und Moderieren Ihrer Plattform

Nola Moreau avatar
Verfasst von Nola Moreau
Diese Woche aktualisiert

Übersicht über den Schutz und die Moderation Ihrer Plattform

Ihre Plattform verfügt über eingebaute Schutz- und Moderationswerkzeuge, um eine sichere und respektvolle Teilnahme zu gewährleisten.

Schlüsselmechanismen beinhalten:

  • Community Berichterstattung für ungeeignete Inhalte

  • Profanity Filter um beleidigende Sprache zu blockieren

  • KI-basierte Erkennung mit natürlicher Sprachverarbeitung (NLP)

  • Spam und Drosseln der Prävention um bösartigen oder automatisierten Missbrauch zu blockieren

  • Starke Bedingungen & Bedingungen, Datenschutzerklärung und DPR-Konformität

Zusammen helfen diese Tools Administratoren bei einer gesunden und konstruktiven Umgebung mit minimalem manuellen Eingriff.

Plattform-Schutzsysteme

Jede GoVocal Plattform enthält:

  • Spam und Drosseln Erkennung: stoppt automatisch verdächtiges Verhalten, wie Massenideeneinreichungen oder wiederholte Spamantworten.

  • IP-Überwachung: Markiert ungewöhnliche Aktivitäten, wie z. B. mehrere Konten, die schnell aus der gleichen IP-Adresse erstellt wurden, während sie für geteilte Netzwerke verantwortlich sind.

  • Selbstmoderierung nach unten vote: Schlecht empfangene Inhalte erhalten naturgemäß sinken beim Ranking, was dazu beiträgt, konstruktive Diskussionen aufrechtzuerhalten.

  • Admin digest emails: wöchentliche Zusammenfassungen der eingereichten Inhalte zur einfachen Überwachung und schnellen Identifizierung von Problemen.

  • Manuelle Spam-Markierung: Benutzer und Administratoren können Ideen als Spam markieren und einen Grund für die Berichterstattung angeben.

  • E-Mail und Bürgerüberprüfung: E-Mail-Verifizierung ist standardmäßig aktiviert, um gültige Registrierungen zu bestätigen. In bestimmten Regionen wird auch die Verifizierung von Bürgern (z. B. über ItsMe) unterstützt, lesen Sie mehr darüber in diesem Unterstützungsartikel.

  • Nutzungsbedingungen: Administratoren können Konten, Ideen oder Kommentare entfernen, wenn unsachgemäße Verwendung festgestellt wird.

  • Datenschutzrichtlinie & GDPR Ausrichtung: Benutzerdaten schützen und die Einhaltung der europäischen Datenschutzbestimmungen sicherstellen.

Wie unpassende Inhalte erkannt werden

Ihre Plattform verwendet drei zusätzliche Erkennungsmethoden:

  1. Community Reporting: Jeder Teilnehmer kann einen Beitrag, einen Vorschlag oder einen Kommentar als unangemessen kennzeichnen.

  2. Profanity Filter: blockiert häufige beleidigende Wörter in unterstützten Sprachen und fordert Benutzer auf, vor dem Posten zu bearbeiten.

  3. AI/NLP Detection: verwendet die natürliche Sprachverarbeitung um missbrauchte, toxische oder unangemessene Sprache automatisch zu erkennen.

Hinweis: NLP-Erkennung ist in Englisch, Französisch, Deutsch, Spanisch und Portugiesisch verfügbar.

Wie beurteilen und moderieren unangemessene Inhalte?

  1. Gehen Sie auf die Registerkarte Benachrichtigungen im Admin-Bereich.

  2. Klicken Sie auf die Inhaltswarnung oder melden Sie die Benachrichtigung.

  3. Überprüfen Sie den gemeldeten Punkt (Beitrag, Kommentar, Vorschlag).

  4. Mache Moderationsmaßnahmen basierend auf deinen Richtlinien:

    • Bearbeite oder lösche Eingabe/Vorschläge.

    • Poste ein offizielles Update oder einen Klärungskommentar.

    • Elemente ausblenden (für Timeline-Projekte) durch Abwählen der zugehörigen Phasen.

Wichtige Hinweise:

  • Wenn Sie Eingabe/Vorschläge löschen, erhalten Autoren keine E-Mail (falls nötig gesondert benachrichtigen).

  • Kommentare können nicht bearbeitet werden, nur gelöscht. Bei einer Löschung erhält der Autor eine E-Mail, in der er den Grund dafür erklärt.

Was kann geändert werden vs löschen?

  • Eingaben (Ideen, Beiträge) & Vorschläge: Können von Admins/Managern bearbeitet oder gelöscht werden.

  • Kommentare: Kann nicht bearbeitet werden — nur gelöscht.

    • Beim Löschen erhält der Autor eine E-Mail-Benachrichtigung.

  • Inhalt verstecken: In Projekten der Zeitleiste können Elemente ausgeblendet werden, anstatt sie zu löschen, indem alle zugehörigen Phasen abgewählt werden.

Wie kann ich Moderationsfunktionen aktivieren/deaktivieren?

  1. Gehe zu Plattform-Einstellungen.

  2. Aktivieren oder deaktivieren:

    • Profanity Filter (Blöcke häufig anstößige Wörter).

    • Ungeeignete Inhalte (AI/NLP scannen) erkennen.

  3. Änderungen speichern.

Sie können diese Funktionen jederzeit ein- oder ausschalten.

Wie füge ich benutzerdefinierte unpassende Wörter hinzu?

  1. Bereiten Sie eine Liste von einzelnen Wörtern vor (Phrasen werden nicht unterstützt).

  2. Kontaktieren Sie den Support über die Chat-Blase.

  3. Senden Sie die Liste (für längere Listen, bereiten Sie eine .xlsx oder ähnliche Datei).

Unterstützung wird die Wörter dem Filter Ihrer Plattform hinzufügen.

Hat dies deine Frage beantwortet?