La Fundación Wikimedia, como organización sin fines de lucro encargada de administrar Wikipedia, aplaude el esfuerzo realizado por los legisladores europeos para crear un tipo de moderación de contenido más responsable y transparente. No obstante, algunas de las provisiones actuales, así como ciertas enmiendas propuestas en la ley, incluyen disposiciones que podrían poner en riesgo el modelo colaborativo y no lucrativo de Wikipedia.
El sistema de colaboración abierta de Wikipedia ha permitido que el conocimiento pueda compartirse a escala mundial desde hace más de 20 años, lo cual la ha convertido en uno de los sitios web más queridos del mundo, así como en una de las fuentes más confiables para acceder a conocimiento actualizado sobre la COVID-19. Esto fue posible gracias a las leyes que protegen este modelo liderado por voluntarios, que actualmente ha caído en el fuego cruzado de las propuestas de la DSA.
El marco legal vigente de la DSA ha sido diseñado con los modelos operativos de las grandes plataformas tecnológicas en mente, a pesar de que varios sitios, incluyendo a Wikipedia, no funcionan de la misma manera que las plataformas tecnológicas lucrativas. Así, al aplicar una solución que trata de meter a todos en un mismo saco, a un problema complejo como lo es el del contenido ilegal en línea, se podría causar el sofocamiento de un ecosistema diverso, pujante, y no comercial, de comunidades y plataformas en línea.
Hacemos un llamado para que los legisladores europeos se aproximen a la regulación de internet con una visión más matizada, pues en el internet hay más que plataformas Big Tech administradas por corporaciones multinacionales. Le pedimos a los legisladores que protejan y apoyen a proyectos de interés público, no lucrativos, y dirigidos por comunidades, como lo es Wikipedia, a medida que la DSA emerge de los procedimientos en el Parlamento y en el Consejo de Europa.
Nos encontramos preparados para trabajar con legisladores, y enmendar el paquete de la DSA, a fin de empoderar y proteger la capacidad de todos los europeos a tomar parte en el interés público.
Proteger a Wikipedia es proteger el internet de las personas
He aquí cuatro cosas que toda autoridad debería saber antes de finalizar la legislación de la DSA:
- La DSA debe estar enfocada hacia los sistemas algorítmicos y modelos de negocios que impulsan el daño causado por el contenido ilegal.
Las provisiones de la DSA permanecen demasiado enfocadas en el retiro de contenidos a través de procesos prescriptivos de remoción de contenido, cuando en la realidad resultaría casi imposible remover todo el contenido ilegal del internet tan pronto como aparezca, así como lo sería intentar prevenir y eliminar todo el crimen en el mundo real, por ejemplo. Tomando en cuenta que la Unión Europea se ha comprometido a proteger los derechos humanos tanto en línea como fuera de ella, sus legisladores deberían dirigir su atención a la causa primaria del extenso daño producido en línea, que no es otra que los sistemas que amplifican y diseminan el contenido ilegal.
Un internet más seguro será posible cuando las provisiones de la DSA apunten a los modelos de negocios basados en publicidad personalizada, que son los que impulsan la difusión de contenido ilegal. Como enfatizó la informante de Facebook, Frances Haugen, en su más reciente testimonio en Bruselas, los algoritmos que generan ganancias por la colocación de anuncios comerciales, son también los que se encuentran en la raíz del problema que la DSA pretende solucionar. Las nuevas regulaciones deberían concentrarse sobre esos mecanismos que maximizan el alcance e impacto del contenido ilegal.
Sin embargo, los legisladores no deberían enfocarse demasiado en Facebook y otras plataformas similares. Como sitio web sin fines de lucro, Wikipedia está disponible gratuitamente para todos, sin anuncios, y sin seguimiento de la conducta en línea de nuestros usuarios. Nuestro modelo colaborativo y liderado por voluntarios, tanto en producción de contenido como en el gobierno de la comunidad, ayuda a asegurar que el contenido de Wikipedia sea confiable y neutral. Miles de editores deliberan, debaten, y trabajan juntos para decidir qué información se incluye y cómo ésta se presenta, lo cual funciona de manera muy diferente de los sistemas centralizados, que se apoyan en algoritmos tanto para compartir información de manera que maximice las interacciones, como para moderar contenidos potencialmente ilegales o dañinos.
En los 20 años que tiene Wikipedia, nuestra comunidad mundial de voluntarios ha comprobado que darle poder a los usuarios para compartir y debatir sobre ciertos hechos, es un modo poderoso para combatir el uso del internet por estafadores, operativos de potencias foráneas, y extremistas, por lo cual es imperativo que las nuevas regulaciones, como la DSA, alberguen un espacio para que una variedad de plataformas web, tanto comerciales como no comerciales, puedan prosperar.
“Wikipedia ha demostrado que es posible crear entornos en línea prósperos y resistentes a la desinformación y la manipulación. A través de matices y contexto, Wikipedia ofrece un modelo que funciona bien para abordar las complejidades que requiere la moderación de contenidos. Sí, puede haber desacuerdo entre los voluntarios sobre cómo presentar un tema, pero la discusión produce mejores artículos, más neutrales y fiables. Este proceso es lo que ha permitido que este modelo de moderación de contenidos sea uno de los modelos más exitosos en la actualidad.”
Brit Stakston, estratega de medios y miembro de la Junta Directiva de Wikimedia Sverige
- Los términos de servicio deben ser transparentes y equitativos, pero los reguladores no deberían ser demasiado descriptivos al determinar cómo estos se crean y se implementan.
El borrador del artículo 12 de la DSA actualmente señala que los proveedores de internet deben dar a conocer sus términos de servicio, es decir, sus reglas y herramientas de moderación de contenido, y exige que estas reglas sean aplicadas “de manera diligente, objetiva, y proporcionada”. Estamos de acuerdo en que los términos de servicio deberían ser tan transparentes y equitativos como sea posible, pero también pensamos que los términos “objetiva” y “proporcionada” dejan espacio para interpretaciones vagas o abiertas, y si bien simpatizamos con la intención de hacer que los procesos de moderación de contenido de las empresas sean menos arbitrarios y oscuros, empujar a las plataformas hacia la “objetividad” en relación a las vulneraciones de sus términos de servicio, podría acarrear consecuencias inesperadas, pues el uso de ese lenguaje llevaría a un modelo de control que haga imposible que plataformas dirigidas por comunidades, como Wikipedia, utilicen procesos colaborativos llevados a cabo por voluntarios para crear nuevas reglas y garantizar el cumplimiento de aquellas normas existentes que tomen en cuenta apropiadamente el contexto y el origen de todo su contenido.
Las políticas de contenido y conducta en Wikipedia son desarrolladas e implementadas por las mismas personas que contribuyen a ella. Este modelo permite que las personas que conocen sobre un tema, determinen qué contenido debería existir en el sitio y cómo debería mantenerse el mismo, basándose en nuestras normas establecidas de neutralidad y de fiabilidad de las fuentes. Este modelo, a pesar de ser imperfecto, ha logrado mantener a Wikipedia neutral y confiable, pues a medida que más personas se involucran en el proceso editorial de debate, verificación de datos, y adición de información, los artículos de Wikipedia tienden a volverse más neutrales. Además, sus deliberaciones, decisiones, y acciones de implementación, están públicamente documentadas en el sitio web.
Esta aproximación a la creación de contenido y al gobierno comunitario está a una gran distancia de la estructura vertical de las plataformas comerciales a las que la DSA apunta, por lo cual la misma debería proteger y promover espacios en la red que permitan la colaboración libre, en lugar de buscar que Wikipedia se adapte a la fuerza a un modelo vertical.
- El proceso para identificar y remover el “contenido ilegal” debe incluir a las comunidades de usuarios.
El artículo 14 establece que las plataformas en línea serán responsables de remover todo contenido ilegal que pudiera ser subido por usuarios, en el momento en que dichas plataformas sean advertidas del contenido ilegal. Igualmente, señala que las plataformas estarán encargadas de crear mecanismos que posibiliten que los usuarios alerten a los proveedores de la plataforma sobre el contenido ilegal. Estas provisiones tienden a dirigirse a un solo tipo de plataforma: aquella que cuenta con sistemas centralizados de moderación de contenido, cuyos usuarios tienen una capacidad limitada para participar en decisiones sobre contenidos, y en las cuales la labor de moderación recae en una sola instancia, administrada por la plataforma. Por ello, no queda clara la forma en la que otras plataformas, que estén fuera de este arquetipo, serán afectadas por las versiones finales de estas provisiones.
El modelo de Wikipedia le otorga poder a los voluntarios que editan Wikipedia, para que estos puedan remover contenido de acuerdo a un conjunto de estándares mutuamente aceptados y compartidos. Así, aunque la Fundación Wikimedia lidia con algunas solicitudes de evaluación de contenido ilegal, la vasta mayoría de contenido que no está a la altura de los estándares de Wikipedia es manejado por los voluntarios antes de que se pueda realizar una queja ante la Fundación. De ese modo, en este caso no es posible que un mismo molde sirva para todos.
Tememos que, al imponer responsabilidad legal de garantizar el cumplimiento de la norma solamente a los proveedores de servicio, y requiriendo que estos cumplan con estrictos estándares de remoción de contenido, la ley desincentive a sistemas que se apoyan en moderadores comunitarios y procesos deliberativos que, de hecho, han demostrado funcionar bien para identificar y rápidamente remover los malos contenidos. El resultado de esto sería un mundo en línea en el cual los proveedores de servicio, y no las personas, serían quienes controlan la información disponible en la red, y nos preocupa que esta provisión produzca el efecto contrario a la intención de la DSA, al darle más poder a las plataformas, mientras se lo quita a las personas que las usan.
- Las personas no pueden ser reemplazadas por algoritmos cuando se trata de moderación de contenido.
Los mejores lugares en internet son aquellos se impulsan por el esfuerzo de la gente, y no a pesar de ella. Los artículos 12 y 14 requerirían que los operadores de las plataformas tomen el control de todas las decisiones sobre la moderación del contenido, lo cual a su vez incentivaría o incluso obligaría a utilizar sistemas automáticos de detección de contenido, los cuales, a pesar de sí poder apoyar a la moderación de contenido efectuado por la comunidad al resaltar el contenido para su revisión, no pueden reemplazar a los humanos. En cualquier caso, la investigación ha revelado sesgos sistémicos y altas tasas de error que muy frecuentemente se asocian con el uso de herramientas automatizadas. Tales algoritmos pueden entonces aumentar el daño, al amplificarlo. Las herramientas automatizadas tienen capacidad limitada para identificar contenido marginal que puede ser extremo, pero aún así tener valor para el interés público; un ejemplo de contenido de ese tipo serían los videos que documentan violaciones a los derechos humanos, los cuales, se ha demostrado, son retirados rápidamente, lo cual solo pone de relieve la necesidad de priorizar el contexto humano por encima de la eficiencia.
En ese entendido, los legisladores europeos deberían evitar la dependencia excesiva en el tipo de algoritmos que las plataformas comerciales usan para moderar su contenido. Si la DSA fuerza o incentiva a las plataformas a desplegar algoritmos que realicen juicios sobre el valor o la naturaleza infractora del contenido, nosotros, como ciudadanos digitales, perderemos la oportunidad de formar nuestro futuro digital juntos.
En Wikipedia, las herramientas de aprendizaje mecánico se usan como apoyo, no como un reemplazo a la moderación de contenido hecha por humanos. Estas herramientas operan transparentemente en Wikipedia, y los voluntarios tienen la última palabra sobre las acciones que sugieren las herramientas de aprendizaje mecánico. Como se ha visto, al poner más poder de decisión en manos de los lectores y editores de Wikipedia, el sitio se vuelve más fuerte y confiable.
“Es imposible confiar en un ‘algoritmo perfecto’ que modere el contenido en línea. Siempre habrá errores, ya sea por intenciones maliciosas o por otras causas. Wikipedia es exitosa porque no sigue un modelo predefinido; en su lugar, se apoya en discusiones y consensos de personas, y no en algoritmos.”
Maurizio Cadogno, voluntario de larga data de la Wikipedia italiana
Pedimos con urgencia que las autoridades piensen en la manera en la que las nuevas normas pueden ayudar a reformar nuestros espacios digitales, para que plataformas colaborativas como la nuestra no sigan siendo la excepción. Las regulaciones deberían permitirle a las personas tomar el control de sus espacios públicos digitales, en vez de confinarlas a ser receptores pasivos de las prácticas de moderación de contenido. Necesitamos marcos legales y de políticas que le den el poder a los ciudadanos, para darle forma al futuro del internet, en lugar de forzar a las plataformas a que los excluyan aún más.
Nuestra comunidad de interés público está aquí para involucrarse con legisladores, y apoyarles en el diseño de regulaciones que le den el poder a los ciudadanos para mejorar juntos nuestros espacios en línea.
“El conocimiento humano es, a menudo, un aspecto que todavía es inaccesible para muchos: ya sea que se encuentre almacenado en archivos privados, escondido en bases de datos poco conocidas, o perdido en las memorias de nuestros mayores. Wikipedia busca impulsar la diseminación del conocimiento, al digitalizar nuestro legado y compartirlo de forma gratuita para todo el mundo en línea. La pandemia de COVID-19 y la subsecuente infodemia que causó, solo nos recuerdan poderosamente la importancia de difundir el conocimiento libre.”
Pierre-Yves Beaudouin, Presidente de Wikimedia Francia
Cómo contactar a los expertos de políticas en Wikimedia
- Para solicitudes de medios que deseen hablar sobre la posición de Wikimedia sobre la DSA, por favor contacte a press@wikimedia.org
- Para los MEPs y su personal, favor contactar a Jan Gerlach, Director de Políticas Públicas, jgerlach@wikimedia.org