Modération de contenu en période difficile

[ad_1]

Présenté par Two Hat Security


Le comportement des joueurs peut faire ou défaire votre jeu et favoriser des comportements positifs au sein d’une communauté de joueurs est un élément essentiel de la croissance de votre marque et de la rétention des joueurs en ligne. Pour résoudre ce problème, les développeurs de jeux doivent prendre du recul et examiner d’un œil critique les causes profondes des comportements négatifs.

Cela signifie que les développeurs doivent prendre des décisions de conception intentionnelles, fournir un environnement sûr et accueillant, rappeler aux utilisateurs et aux joueurs les normes de la communauté, utiliser la personnalisation et amplifier l’adhérence sociale des interactions sociales dans les jeux.

Et comme des millions d’Américains sont coincés chez eux au milieu de la pandémie de COVID-19, l’objectif d’influencer ces comportements positifs des joueurs en ligne est plus important que jamais. Les fermetures d’écoles et de professions ainsi que des mesures de confinement strictes signifient que de plus en plus de personnes comptent sur la technologie et les solutions numériques pour le divertissement, l’information et la connectivité – et le jeu vidéo est devenu la solution parfaite pour beaucoup.

Les jeux sociaux et les mondes virtuels comblent le fossé en offrant les expériences et l’interactivité dont les gens du monde entier rêvent actuellement. Alors, comment les développeurs de jeux peuvent-ils continuer à encourager ces comportements positifs alors que le trafic continue d’augmenter? Cet afflux d’activité ne devrait pas menacer les expériences de jeu positives pour les jeux, et il appartient aux développeurs de jeux de continuer à améliorer leurs capacités de modération.

Les volumes de chat sont en hausse significative

Entre le 3 janvier et le 7 avril 2020, le chat entre les jeux multiplateformes, les jeux mobiles, les plates-formes pour enfants, les réseaux sociaux pour adolescents et les mondes virtuels a augmenté de façon spectaculaire d’une semaine à l’autre. En fait, certains clients Two Hat ont enregistré une augmentation de 40%, 100% et même 3 000% des discussions, en comparant mars et février.

Pendant ces périodes, il peut également y avoir une augmentation des discussions d’intimidation négatives et même du matériel d’abus sexuel d’enfants (CSAM) ou du toilettage. Vous pouvez imaginer le frottement et l’effort que cela provoque une équipe de modération. S’il y a une petite équipe responsable de la modération, leur flux de travail double ou triple presque du jour au lendemain.

Des techniques de modération sont nécessaires pour gérer l’augmentation des volumes

Pour gérer ces volumes de contenu accrus, les développeurs de jeux sont confrontés à un certain nombre de défis. Les équipes de modération humaine ne peuvent gérer qu’une telle quantité et peuvent facilement manquer du contenu négatif sur leurs sites ou plates-formes de jeux. Les techniques suivantes pour gérer ces volumes accrus aideront votre équipe à mieux gérer les charges de travail, à réduire la quantité de travail manuel nécessaire et à hiérarchiser le contenu négatif.

Réduisez la modération manuelle

D’abord et avant tout, il est important de réduire votre recours à la modération manuelle. Les développeurs peuvent le faire en faisant apparaître les directives de la communauté dans le cadre de l’expérience chaque fois que l’utilisateur se connecte. En fournissant un simple bouton obligatoire, l’utilisateur doit cliquer et accepter les directives avant de discuter dans la communauté. Vous pouvez également implémenter des messages d’avertissement chaque fois que le système détecte qu’un utilisateur tente de publier du contenu qui enfreint les directives de votre communauté (comme le harcèlement ou les discours dangereux / haineux). Et l’utilisation de la messagerie pour réitérer les avertissements selon lesquels les utilisateurs qui soumettent de faux rapports peuvent eux-mêmes faire l’objet de sanctions réduira le nombre de fausses déclarations que votre équipe doit enquêter.

Le contenu sensible doit être escaladé

Pendant cette crise, les utilisateurs vivent une vaste gamme d’expériences de vie négatives. Dans de nombreux cas, les utilisateurs peuvent ressentir le besoin de s’exprimer et d’exprimer leurs sentiments à travers votre plate-forme, mais il est essentiel de trouver un équilibre entre sécurité et expression. Surveillez les menaces d’automutilation ou d’autres préjudices en ligne suggérés dans la communauté.

Paramètres de filtrage

Ceux-ci devraient également être examinés pour la modération préalable. Certaines sociétés de jeux examinent beaucoup de contenu généré par les utilisateurs avant sa mise en ligne. Cependant, dans des moments difficiles comme ceux-ci, votre équipe peut ne pas avoir la capacité d’examiner trop de contenu manuellement, alors assurez-vous de hiérarchiser ces filtres et de demander s’il existe des éléments de contenu qui peuvent être examinés après leur publication (publication -modération) pour répartir la charge de travail plus uniformément.

Mettre en œuvre des sanctions efficaces

Enfin, une fois que vous avez réduit la modération manuelle grâce à des filtres proactifs et créé des files d’attente d’escalade pour le contenu qui nécessite un examen en temps opportun, vous pouvez appliquer des sanctions efficaces pour établir des conséquences claires pour les comportements négatifs répétés. Assurez-vous d’appliquer des sanctions qui se produiront rapidement, avec un flux de progression similaire à celui-ci:

Sans conséquences, les utilisateurs peuvent continuer à abuser à la fois du système et des autres joueurs. Ne donnez pas aux utilisateurs des possibilités illimitées de ne pas respecter les règles de votre communauté.

Bien qu’il soit important de rester connecté en ces temps incertains, il est essentiel que des normes de modération soient en place pour garantir des expériences de jeu positives à vos utilisateurs. Alors que le monde commence à se remettre de cette pandémie et que l’industrie du jeu continue d’augmenter, les gens continueront de chercher de nouvelles façons d’interagir avec le monde en mutation qui les entoure. Un jour, nous reviendrons à une nouvelle normalité et cette pandémie établira la norme pour les années à venir. Mais, en attendant, il est de notre responsabilité de protéger nos communautés de joueurs en ligne.

Pour plus d’informations, veuillez télécharger le livre électronique complet de Two Hat, Content Moderation in Challenging Times.

Carlos Figueiredo est directeur, Community Trust & Safety chez Two Hat Security.


Les articles sponsorisés sont du contenu produit par une entreprise qui paie le message ou a une relation commerciale avec VentureBeat, et ils sont toujours clairement indiqués. Le contenu produit par notre équipe éditoriale n’est en aucun cas influencé par les annonceurs ou les sponsors. Pour plus d’informations, contactez sales@venturebeat.com.

[ad_2]