A Wikipedia planeja reprimir o assédio e outros comportamentos “tóxicos” com um novo código de conduta. O Conselho de Administração da Wikimedia Foundation, que supervisiona a Wikipedia entre outros projetos, votou na sextafeira a adoção de um processo de moderação mais formal. A fundação esboçará os detalhes desse processo até o final de 2020 e, até então, terá a tarefa de aplicar políticas anti-assédio temporárias.

“Assédio, comportamento tóxico e incivilidade no movimento Wikimedia são contrários aos nossos valores compartilhados e prejudiciais à nossa visão e missão”, afirmou o conselho em comunicado. “O conselho não acredita que tenhamos feito progresso suficiente na criação de espaços acolhedores, inclusivos e livres de assédio, nos quais as pessoas possam contribuir produtivamente e debater construtivamente”.

O conselho de administração deu à Wikimedia Foundation quatro diretrizes específicas. Ele deveria elaborar um “conjunto mínimo de padrões vinculativos” para o comportamento em suas plataformas, moldado pelas contribuições da comunidade. Precisa “proibir, sancionar ou limitar o acesso” de pessoas que violam esse código, além de criar um processo de revisão que envolva a comunidade. E deve “aumentar significativamente o apoio e a colaboração com os funcionários da comunidade” durante a moderação. Além dessas diretrizes, a Wikimedia Foundation também deve colocar mais recursos em sua equipe de Confiança e Segurança, incluindo mais funcionários e melhores ferramentas de treinamento.

O conselho de administração diz que seu objetivo é “desenvolver práticas e ferramentas sustentáveis ​​que eliminem o assédio, a toxicidade e a incivilidade, promovam a inclusão, cultivem discursos respeitosos, reduzam os danos aos participantes, protejam os projetos contra desinformação e maus atores e promovam a confiança em nossos projetos. “

A comunidade de voluntários da Wikipedia pode ser altamente dedicada, mas intensamente combativa , iniciando guerras de edição sobre tópicos controversos e impondo duramente os padrões editoriais de uma maneira que possa afastar novos usuários. A Wikimedia Foundation listou o assédio como um fator por trás de sua relativa falta de editores femininos e não conformes ao gênero, que se queixaram de serem apontados por abuso. Ao mesmo tempo, o projeto surgiu de um ethos voltado para a comunidade e muitos usuários se opõem ao tipo de aplicação de cima para baixo que você encontraria em uma plataforma comercial da Web.

Esses problemas surgiram no ano passado, quando a Wikimedia Foundation suspendeu um editor respeitado, mas abrasivo, que outros usuários acusaram de assédio implacável. A intervenção contornou o processo normal de arbitragem da comunidade da Wikipedia e vários administradores renunciaram durante a reação que se seguiu .

O conselho de administração não menciona essa controvérsia, dizendo apenas que a votação “formaliza anos de esforços de longa data de voluntários individuais, afiliados da Wikimedia, funcionários da Fundação e outros para impedir o assédio e promover a inclusão nos projetos da Wikimedia”. Mas em uma página de discussão , um editor citou a suspensão para argumentar que a Wikimedia Foundation não deveria interferir na moderação da comunidade da Wikipedia – enquanto outros disseram que um código de conduta formal teria reduzido a confusão e a hostilidade generalizadas em torno dele.

Em meio a tudo isso, a Wikipedia se tornou uma das plataformas mais amplamente confiáveis ​​da Internet. O YouTube, por exemplo, usa páginas da Wikipedia para refutar vídeos de conspiração. Isso aumentou as apostas e criou um enorme incentivo para os artistas de desinformação segmentarem o site. A votação de sexta-feira sugere que a Wikimedia Foundation terá um papel mais ativo na moderação da plataforma, mesmo se não soubermos exatamente como.

Saiba mais sobre isso em nosso setor especializado em noticias mundiais.

Exit mobile version