Eventbrite

Centre d'assistance

Comment Eventbrite personnalise et modère le contenu

Dernière mise à jour : le 17 février 2024. Eventbrite a pour mission de rassembler les gens autour d'événements en direct. Nous sommes profondément engagés dans la création d'une plateforme en laquelle les créateurs et les consommateurs ont confiance pour qu'elle facilite des expériences sûres et inclusives. Dans cet article, nous expliquons comment nous assurons la sécurité de notre plateforme de vente en ligne, et notamment la façon dont nous la personnalisons et en modérons le contenu.

Dans cet article

  • Comment nous personnalisons le contenu
  • Comment nous modérons le contenu
  • Comment nous détectons les violations de contenu
  • Comment nous évaluons le contenu

Comment nous personnalisons le contenu

Pour vous aider à découvrir sur Eventbrite les expériences les plus pertinentes, nous utilisons les données dont nous disposons à votre sujet pour classer par ordre de priorité les événements que nous vous proposons. Parmi les informations que nous utilisons pour personnaliser votre expérience de consultation des listes d'événements et des publicités, figurent les contenus que vous avez consultés, cliqués, aimés, suivis ou recherchés, ainsi que les informations que vous fournissez lorsque vous répondez à l'une de nos enquêtes ou lorsque vous vous inscrivez ou achetez des billets d'entrée à un événement. Pour en savoir plus sur la manière dont nous utilisons et protégeons vos données, veuillez consulter notre Politique de confidentialité

Comment nous modérons le contenu

La modération du contenu est le processus par lequel une plateforme examine les contenus illégaux, inappropriés ou nuisibles et prend des mesures à ce sujet. Nos lignes directrices de la communauté offrent une transparence sur la manière dont nous assurons la sécurité des utilisateurs. Ces lignes directrices servent également de garde-fou pour déterminer les types de contenu qui sont encouragés et ceux qui menacent l'intégrité de notre plateforme et ne sont pas autorisés. Pour lutter contre les pratiques abusives sur les plateformes, nous nous appuyons sur une combinaison d'outils et de processus, notamment la détection proactive via une technologie d'apprentissage automatique et des systèmes basés sur des règles, la détection réactive via des rapports de notre communauté, et des examens humains.

Comment nous détectons les violations de contenu

Détection proactive

Nous détectons une grande partie des violations de contenu de manière proactive grâce à deux méthodes principales : (1) les systèmes basés sur des règles (c'est-à-dire des règles élaborées manuellement pour identifier le contenu répondant à des critères spécifiques), et (2) la technologie d'apprentissage automatique (c'est-à-dire un processus statistique dans lequel nous formons un modèle pour reconnaître certains types de modèles basés sur des exemples précédents et faire des prévisions concernant de nouvelles données). 

Les systèmes basés sur des règles sont efficaces lorsque quelques critères simples indiquent un risque élevé. La technologie d'apprentissage automatique exploite plusieurs signaux et est donc plus efficace lorsqu'il existe des schémas complexes indiquant un risque élevé. Les deux stratégies de détection sont validées par une analyse hors ligne et font l'objet d'un suivi en vue d'une amélioration continue.

Détection réactive

En plus des méthodes proactives décrites ci-dessus, notre communauté joue un rôle important en signalant les contenus qu'elle juge préjudiciables, soit en nous contactant, soit en utilisant le lien Signaler cet événement qui se trouve au bas de la page de chaque événement. Bien que nous souhaitions supprimer de manière proactive les contenus préjudiciables avant qu'ils ne soient vus, cette ligne de communication ouverte avec notre communauté est un élément essentiel de notre programme de modération des contenus. 

Comment nous évaluons le contenu

Bien que l'automatisation soit essentielle à notre capacité à développer notre programme de modération de contenu, il existe des domaines où un contrôle humain est, et sera peut-être toujours, nécessaire. Par exemple, l'évaluation d'un cas de harcèlement moral est subtil et dépend du contexte. 

L'examen d'un contenu par notre équipe se déroule de la manière suivante :

  • Examen : Notre équipe examine le contenu et détermine s'il enfreint nos politiques ou s'il est illégal. En fonction des détails du cas analysé, notre équipe peut examiner uniquement le contenu signalé ou le compte de manière plus générale. 

  • Obtention des informations (si nécessaire) : si l'équipe n'est pas en mesure de déterminer si le contenu enfreint nos politiques, elle peut demander des informations supplémentaires aux parties concernées (par exemple, au titulaire du compte ou à la personne ayant signalé le contenu).

  • Mesures : s'il s'avère que le contenu enfreint nos politiques, l'équipe prendra les mesures qui s'imposent, notamment en supprimant le contenu des résultats de recherche, en supprimant le contenu des listes d'événements, en supprimant la publication des listes d'événements de la plateforme de marché et/ou en suspendant ou en résiliant l'accès au compte.

  • Communiquer : une fois le problème résolu, l'équipe informera les parties concernées des mesures prises et de leurs justifications. Les utilisateurs concernés peuvent répondre à cette communication pour faire appel de la décision. 

Notre priorité est de supprimer les contenus préjudiciables rapidement en perturbant le moins notre communauté. En combinant la détection proactive et la détection réactive, et en y ajoutant l'examen humain des contenus signalés lorsque cela se justifie, nous pouvons rapidement détecter les contenus et prendre les mesures appropriées.

Le monde qui nous entoure est en constante évolution, et les méthodes de modération des contenus doivent évoluer elles aussi. Nous mettons constamment à jour notre programme pour anticiper ou répondre aux nouveaux comportements, tendances et menaces perçues pour l'intégrité de la plateforme Eventbrite.

Vous avez encore des questions ?