Iniciativa por la salud de la comunidad

From Meta, a Wikimedia project coordination wiki
Jump to navigation Jump to search
This page is a translated version of the page Community health initiative and the translation is 85% complete.

Outdated translations are marked like this.
Other languages:
English • ‎Tiếng Việt • ‎Türkçe • ‎dansk • ‎español • ‎italiano • ‎polski • ‎português do Brasil • ‎русский • ‎العربية • ‎فارسی • ‎ไทย • ‎中文 • ‎日本語
Light-Bulb icon by Till Teenck green.svg

Iniciativa por la salud de la comunidad
Ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.

Los equipos de Tecnología comunitaria y Compromiso con la comunidad de la Fundación Wikimedia están envueltos en un proyecto de investigación, desarrollo de productos y desarrollo de políticas para ayudar a la comunidad de voluntarios de Wikimedia a reducir el nivel de acoso y comportamiento disruptivo en nuestros proyectos.

Esta iniciativa aborda las principales formas de acoso denunciadas en la encuesta de acoso de 2015, que cubre una amplia gama de comportamientos: vandalismo de contenidos, stalking (atención obsesiva y no solicitada), insultos, troleos, doxxing (publicación de información privada), discriminación, cualquier comportamiento dirigido a individuos que busca una atención injusta y nociva.

Esto dará lugar a mejoras tanto en las herramientas del software de MediaWiki (véase Herramientas antiacoso) como en las políticas en vigor en las comunidades que más sufren este comportamiento disruptivo (véase Desarrollo y aplicación de políticas). Estas mejoras tienen que hacerse con la participación y el apoyo de los voluntarios que usarán las herramientas para que nuestros esfuerzos tengan éxito (véase Respuesta de la comunidad).

Proyectos actuales y recientes

El equipo está construyendo la Línea de tiempo de interacciones, una herramienta que muestra una historia cronológica de dos usuarios en las páginas que los dos hayan editado. Esta herramienta ayudará a los administradores a investigar casos de acoso. Una primera versión estable debería estar lista para finales de febrero de 2018.

El equipo también está discutiendo qué herramientas de bloqueo y mejoras deberíamos construir después. Queremos proporcionar herramientas más precisas y sofisticadas para permitir a los administradores responder mejor a los acosadores. ¡Participa en la página de discusión!

También estamos empezando a investigar un Sistema de Denuncias de Acoso, un proyecto importante para 2018.

Trasfondo

Community Health Initiative Wikimania Poster.jpg

Acoso en los proyectos de Wikimedia

En Wikipedia y otros proyectos Wikimedia, el acoso se produce típicamente en las páginas de discusión (de artículo, proyecto y usuario), tablones de anuncios, páginas de usuario y resúmenes de edición. Las guerras de ediciones y el wiki-hounding (wikipersecución) también pueden constituir formas de acoso. Las disputas de conducta suelen provenir de disputas de contenido tales como desacuerdos sobre la fiabilidad de una fuente, neutralidad de un punto de vista o el formato y la jerarquía de contenidos de un artículo. Estas disputas pueden pasar a ser acoso en el punto en que un editor deja de pensar en ello como una discusión sobre ideas para empezar a asociar al oponente con la idea, convirtiendo al otro editor en un enemigo al que se debe echar del sitio. Es más probable que este proceso tóxico se dé cuando el contenido en disputa está asociado con cuestiones de identidad (género, raza, orientación sexual, oriegen nacional) porque al acosador le resulta fácil considerar a su objetivo como una representación viva de la idea opuesta a la suya. Esto es especialmente cierto cuando el objetivo pertenece a un grupo históricamente desfavorecido y ha revelado información sobre su identidad a lo largo de su andadura en los proyectos.

La comunidad de Wikipedia en inglés (así como de la mayoría de proyectos) ha redactado políticas de conducta que incluyen políticas sobre civismo, acoso, ataques personales y resolución de conflictos. El espíritu de estas políticas es bienintencionado, pero su aplicación es difícil dadas las deficiencias en el software MediaWiki y la baja proporción de administradores activos respecto del total de colaboradores.[1] Los procesos de resolución de conflictos incentivan a los usuarios a tratar de resolver disputas entre ellos antes de llamar la atención a los administradores en el Tablón de Anuncios de los Administradores, y finalmente en el Comité de Arbitraje en situaciones extremas.[2]

Encuesta sobre acoso 2015: Informe de resultados

El acoso online supone un problema prácticamente en cualquier sitio web donde hay interacción entre usuarios. En 2017, el Centro de Investigaciones Pew concluyó que el 41% de todos los usuarios de Internet han sido víctimas de acoso online.[3] En 2015, la Fundación Wikimedia realizó una encuesta sobre acoso con la participación de 3845 usuarios de Wikimedia con el fin de obtener un conocimiento más profundo del acoso que se produce en los proyectos Wikimedia. El 38% de los encuestados reconoció con seguridad haber sufrido acoso, mientras que el 51% había sido testigo del acoso de otros usuarios. Entre 2016 y 2017, investigadores de Jigsaw y Wikimedia utilizaron técnicas de aprendizaje automático para evaluar el acoso en Wikipedia en el proyecto de investigación Detox. Hallaron que solamente el 18% de todos los ataques identificados en Wikipedia en inglés dieron lugar a un bloqueo o un aviso. El 67% de los ataques procedieron de usuarios registrados, y casi el 50% de todos los ataques procedieron de colaboradores con más de 100 ediciones anuales.[4] En el Informe sobre perspectivas de involucración de la comunidad 2017, se halló que el 31% del total de 4500 encuestados sintió inseguridad en algún momento de su estancia en algún espacio online u offline de Wikimedia, el 49% de 400 usuarios había evitado Wikimedia por sentir incomodidad en sus proyectos y el 47% de 370 usuarios indicó que en los últimos 12 meses había sufrido acoso en Wikipedia. Además, el 60% de los encuestados que plantearon una disputa ante funcionarios indicó que su asunto estaba «no resuelto en absoluto» y el 54% calificó su interacción con los funcionarios de «no útil en absoluto».

In Wikimedia's 2017 Community Engagement Insights Report, it was found that 31% of all 4,500 survey respondents felt unsafe in any Wikimedia online or offline space at any time during their tenure, 49% of 400 users avoided Wikimedia because they felt uncomfortable, and 47% of 370 users indicated that in the past 12 months they had been bullied or harassed on Wikipedia. Furthermore, 60% of people who reported a dispute to functionaries say their issue was "not at all resolved" and 54% called their interaction with functionaries "not at all useful." Results from the 2018 Insights Report shows similar findings, with a slight decrease of respondents reporting feeling unsafe.

Esta investigación es aclaradora y es uno de los ímpetus para esta Iniciativa por la Salud de la Comunidad, pero no deja de ser el principio de la investigación que debemos llevar a cabo para que este esfuerzo tenga éxito.

Solicitudes comunitarias de nuevas herramientas

La comunidad de Wikimedia lleva tiempo esforzándose por determinar cómo proteger a sus miembros de los usuarios malintencionados o nocivos. El conjunto de herramientas que los administradores de proyecto pueden utilizar para bloquear de sus proyectos a los usuarios disruptivos no ha cambiado desde los inicios del software MediaWiki. La comunidad de voluntarios ha solicitado repetidamente a la Fundación Wikimedia que mejorase las herramientas de bloqueo, por ejemplo:

En anticipación de esta iniciativa, hemos discutido junto con administradores activos y funcionarios diversos asuntos relacionados con las herramientas y procesos actuales. Estas discusiones han dado lugar a mejoras requeridas en varias áreas clave en las que administradores y funcionarios perciben necesidades inmediatas: mejores sistemas de denuncias para los voluntarios, procesos más inteligentes de detección y solución temprana de problemas y mejores herramientas y flujos de trabajo relacionados con el proceso de bloqueo. La participación de la comunidad será de vital importancia para el éxito de la iniciativa.

Financiación externa

Propuesta de subvención para «Herramientas antiacoso para proyectos Wikimedia»

En enero de 2017, la Fundación Wikimedia recibió una financiación inicial de 500 000 USD de la Fundación Craig Newmark y del Fondo Benéfico de Craigslist para apoyar esta iniciativa.[5] Las dos concesiones iniciales, cada una de 250 000 USD, financiarán el desarrollo de herramientas para los editores voluntarios y para la plantilla con el fin de reducir el nivel de acoso en Wikipedia y bloquear a los acosadores. La propuesta de subvención está disponible para su revisión en Wikimedia Commons.

Objetivos

  • Reducir el nivel de comportamiento abusivo en los proyectos de Wikimedia.
  • Resolver de forma justa un mayor porcentaje de incidentes de acoso en proyectos de Wikimedia.

Medidas potenciales de éxito

Medir el acoso plantea retos, pero aun así queremos asegurarnos de que nuestro trabajo tiene un impacto en la comunidad. Aquí se muestran algunas ideas:

  • Reducir el porcentaje de comentarios identificables como ataques personales en Wikipedia en inglés, medidos a través de Detox, Sherloq u otro sistema similar.
  • Aumentar la confianza de los administradores en su capacidad de tomar decisiones acertadas, medida a través de grupos focales o consultas.
  • Reducir el porcentaje de usuarios no administradores que denuncian haber visto muestras de acoso en Wikipedia, medido en un seguimiento a la Encuesta de Acoso de 2015.

Objetivos anuales y trimestrales

Para leer los comentarios sobre nuestro progreso trimestral, véase Community health initiative/Quarterly updates.

Participación de la comunidad

Obtener, incorporar y discutir sobre los aportes de la comunidad es vital para el éxito de esta iniciativa. Estamos construyendo funcionalidades para que nuestras comunidades las usen; si las diseñáramos en el vacío, nuestras decisiones fracasarían con toda seguridad.

Los planes presentados en esta página y en otros sitios para esta concesión seguramente cambiarán con el tiempo a medida que recopilamos aportaciones de nuestra comunidad (incluyendo a víctimas de acoso, colaboradores y administradores), aprendemos de nuestras investigaciones y aprendemos del software que construimos. Las aportaciones de la comunidad pueden ser tales como:

  • Socializar nuestros objetivos;
  • Generar, refinar, validar y finalizar ideas con las partes interesadas de la comunidad;
  • Conversaciones sobre libertad de expresión frente a corrección política. Es muy importante que se perciba que este proyecto pone el foco en las formas de abuso en las que todo el mundo está de acuerdo (vandalismo evidente con uso de títeres, amenazas de muerte) y las formas de abuso que suscitan diferencias de opinión (género, cultura, etc.). El proyecto no tendrá éxito si se percibe como un juego de poder pro «justicia social».[6]

En el transcurso de esta iniciativa, planeamos comunicarnos con la comunidad mediante comunicaciones wiki periódicas (páginas de discusión, correo electrónico, IRC), además de talleres de trabajo transmitidos en vivo, talleres de trabajo presenciales en hackatones y Wikimanías y consultas online con la comunidad. De momento, el mejor lugar para discutir sobre la Iniciativa por la salud de la comunidad es Discusión:Iniciativa por la salud de la comunidad.

Herramientas antiacoso

Abreviando, queremos construir software que faculte a colaboradores y administradores a hacer decisiones oportunas e informadas cuando se produzca un caso de acoso. Se han identificado cuatro áreas en las que las nuevas herramientas podrían ayudar a abordar y responder al acoso.

Detección

Queremos hacer que sea más fácil y eficiente identificar y marcar el comportamiento abusivo. En la actualidad, estamos preguntándonos cómo prevenir el acoso antes de que se produzca y cómo se pueden resolver incidentes menores antes de que escalen a problemas mayores de falta de civismo.

Características potenciales:

  • Gestión de rendimiento, usabilidad y mejoras en la funcionalidad del Filtro antiabuso.
  • Mejoras en la fiabilidad y precisión de ProcseeBot.
  • Mejoras anti-spoof para las herramientas pertinentes.
  • Características que revelen casos de vandalismo de contenido, guerras de ediciones, stalking, y lenguaje abusivo a administradores wiki y al personal.

Denuncia

Según la investigación de Detox, el acoso se denuncia poco en la Wikipedia en inglés.[4] Ninguna víctima de acoso debería dejar de editar porque se sienta incapaz de denunciar el acoso. Queremos proporcionar a las víctimas formas mejores de denunciar que sean más respetuosas con su privacidad, menos caóticas y menos estresantes que el flujo de trabajo actual. En la actualidad, la carga de la prueba está en la víctima, que debe demostrar su propia inocencia y la culpabilidad del acosador, mientras que nosotros creemos que el software MediaWiki debería encargarse del trabajo pesado.

Características potenciales:

Evaluación

Es imperativo que los administradores sean competentes con los diferenciales, los historiales y las páginas especiales para poder analizar y evaluar la secuencia real de acontecimientos en una disputa de conducta. Algunas herramientas construidas por voluntarios, como Editor Interaction Analyzer (Analizador de Interacciones con el Editor) y WikiBlame (WikiCulpa), ayudan, pero los procesos actuales llevan mucho tiempo. Queremos construir herramientas que ayuden a los voluntarios a entender y evaluar los casos de acoso e informar sobre la mejor manera de responder a ellos.

Funcionalidades potenciales:

  • Una herramienta robusta de línea de tiempo, que permita a los administradores de wiki entender la interacción entre dos usuarios a lo largo del tiempo y así poder tomar decisiones informadas en caso de acoso.
  • Un sistema privado para los administradores de wiki para recopilar información sobre el historial de los usuarios con casos de acoso y abuso, incluyendo restricciones y decisiones arbitrales.
  • Un sistema de panel de control para administradores de wiki para ayudarles a gestionar las investigaciones en curso y las acciones disciplinarias.
  • Herramientas interwiki que permitan a los administradores gestionar los casos de abuso que tienen lugar en distintos proyectos wiki e idiomas.

Bloqueos

Queremos mejorar las herramientas existentes y crear herramientas nuevas, en los casos en que ello sea apropiado, para expulsar a los actores problemáticos de las comunidades o de determinadas áreas dentro de las mismas y para dificultar el regreso de alguien que esté bloqueado del sitio.

Algunas de estas mejoras ya se están concretando en forma de productos como parte de la Lista de Deseos de la Comunidad de 2016. Véase Community Tech/Blocking tools (Tecnología comunitaria/Herramientas de bloqueo) para más información.

Funcionalidades potenciales:

  • Herramientas de bloqueo por página y por categoría para aplicar suspensiones a nivel temático, que ayudarán a los administradores a redirigir a los usuarios disruptivos sin bloquearlos completamente del proyecto; esto facilitará a los administradores de wikis tomar decisiones en las primeras fases de un problema.
  • Herramientas que permitan a cada usuario controlar quién puede comunicarse con él o ella a través de notificaciones Echo, correo electrónico y espacios de usuario.
  • Permitir que las herramientas CheckUser funcionen más allá de un proyecto dado, mejorar las herramientas que vinculan nombres de usuario con direcciones IP y agentes de usuario para que puedan comprobar contribuciones en todos los proyectos Wikimedia con una sola consulta.
  • Herramientas mejoradas de bloqueo, incluyendo herramientas de bloqueo de usuarios títeres.

Priorización del trabajo

Nuestros proyectos tienen actualmente prioridad en el tablón de trabajo antiacoso de Phabricator en la columna “Epic backlog”. Invitamos a todo el mundo a compartir sus pensamientos sobre nuestras priorizaciones en tickets de Phabricator, en la página de discusión asociada a esta página o enviándonos un correo electrónico.

Los proyectos están priorizados por la dirección de producto, teniendo en cuenta:

  • Disponibilidad — ¿Qué está diseñado, definido y listo para el desarrollo? ¿Hay bloqueadores?
  • Valor — ¿Qué proporcionará más valor a nuestros usuarios? ¿Qué solucionará antes los problemas más importantes? ¿Nuestra investigación ha identificado alguna oportunidad apasionante? ¿Nuestras funcionalidades anteriores han identificado nuevas oportunidades o problemas?
  • Viabilidad — ¿Qué podemos conseguir dado nuestro marco temporal y nuestra capacidad de desarrollo? ¿Tenemos suficiente preparación técnica? ¿Contamos con apoyo externo de desarrolladores que pueda acelerar nuestro trabajo?
  • Apoyo — ¿Qué ha recibido apoyo de los usuarios que participan en los flujos de trabajo actuales? ¿Qué ideas han obtenido momento de las personas actualmente afectadas por el acoso en Wikipedia?

Crecimiento y aplicación de políticas

Además de construir nuevas herramientas, queremos trabajar junto con nuestras comunidades más grandes para asegurar que sus políticas de conducta son claras y efectivas y que los administradores responsables de aplicar dichas políticas están bien preparados para ello.

Empezando por la Wikipedia en inglés, una comunidad numerosa de la que puede obtenerse una gran cantidad de datos, proporcionaremos a los colaboradores una serie de análisis e investigaciones sobre a) cómo se reflejan en las políticas los asuntos que tienen que ver con el comportamiento de los usuarios, y b) de qué manera se aplican en la comunidad, particularmente en los tablones de anuncios donde se discute sobre los problemas y se actúa sobre ellos. Proporcionaremos investigaciones sobre formas alternativas de abordar asuntos específicos, la efectividad de la investigación y la identificación de enfoques diferentes que hayan tenido éxito en otros proyectos Wikimedia. Esto ayudará a nuestras comunidades a aplicar cambios bien fundados en prácticas ya existentes.

Véase también

Referencias