Automattic, Mozilla, Twitter y Vimeo han escrito una carta abierta a los legisladores de la UE instándolos a garantizar que un reinicio importante de las regulaciones digitales del bloque no termine golpeando la libertad de expresión en línea.
La Comisión presentará el borrador de la Ley de Servicios Digitales y la Ley de Mercados Digitales la próxima semana, aunque el proceso legislativo de la UE significa que probablemente pasarán años antes de que cualquiera de los dos se convierta en ley.
La Comisión ha dicho que las propuestas legislativas establecerán responsabilidades claras sobre cómo las plataformas deben manejar el contenido ilegal y dañino, además de aplicar un conjunto de responsabilidades adicionales a los actores más poderosos que tienen como objetivo fomentar la competencia en los mercados digitales.
También planea legislar sobre la transparencia de los anuncios políticos, bajo un Plan de Acción para la Democracia, pero no hasta el tercer trimestre del próximo año.
En su carta conjunta, titulado ‘Encrucijada para la Internet abierta’, las cuatro empresas tecnológicas argumentan que: “La Ley de Servicios Digitales y el Plan de Acción para la Democracia renovarán la promesa de la Internet Abierta o agravarán un status quo problemático, al limitar nuestro entorno en línea a un pocos guardianes dominantes, al tiempo que no logran abordar de manera significativa los desafíos que impiden que Internet se dé cuenta de su potencial “.
Sobre el desafío de regular el contenido digital sin dañar la expresión vibrante en línea, abogan por un enfoque más matizado del contenido “legal pero dañino”: presionando una posición de ‘la libertad de expresión no es libertad de alcance’ al instar a los legisladores de la UE a no limitar su opciones de política a las eliminaciones binarias (que, según sugieren, beneficiarían a las plataformas más poderosas).
En cambio, sugieren abordar el discurso problemático (pero legal) centrándose en la visibilidad del contenido como clave y asegurando que los consumidores tengan una opción genuina en lo que ven, lo que implica que el apoyo a la regulación requiere que los usuarios tengan controles significativos sobre los feeds algorítmicos (como la capacidad de desconectar Curación de IA por completo).
“Desafortunadamente, la conversación actual se enmarca con demasiada frecuencia a través del prisma de la eliminación de contenido únicamente, donde el éxito se juzga únicamente en términos de eliminación de contenido cada vez más en períodos de tiempo cada vez más cortos. Sin lugar a dudas, el contenido ilegal, incluido el contenido terrorista y el material de abuso sexual infantil, debe eliminarse rápidamente. De hecho, muchas iniciativas creativas de autorregulación propuestas por la Comisión Europea han demostrado la eficacia de un enfoque a escala de la UE ”, escriben.
“Sin embargo, al limitar las opciones de políticas a un binario que se mantenga actualizado, renunciamos a alternativas prometedoras que podrían abordar mejor la difusión y el impacto del contenido problemático al tiempo que salvaguardamos los derechos y la posibilidad de que las empresas más pequeñas compitan. De hecho, la eliminación de contenido no puede ser el único paradigma de la política de Internet, especialmente cuando se trata del fenómeno del contenido “legal pero nocivo”. Este enfoque beneficiaría solo a las empresas más grandes de nuestra industria.
“Por lo tanto, alentamos una discusión de moderación de contenido que enfatice la diferencia entre contenido ilegal y dañino y resalte el potencial de las intervenciones que abordan cómo el contenido sale a la luz y se descubre. En esto se incluye cómo se ofrece a los consumidores opciones reales en la selección de su entorno en línea “.
Twitter ya permite a los usuarios cambiar entre una vista de contenido cronológico o ‘tweets principales’ (también conocido como su feed curado algorítmicamente), por lo que podría decirse que ya ofrece a los usuarios una “elección real” en ese frente. Dicho esto, su plataforma también puede inyectar contenido (no publicitario) en el feed de un usuario, independientemente de si una persona ha elegido verlo, si sus algoritmos creen que será de interés. Entonces, no es una elección 100% real.
Otro ejemplo es Facebook, que ofrece un interruptor para desactivar la curación algorítmica de su News Feed. Pero está tan enterrado en entornos que es poco probable que la mayoría de los usuarios normales lo descubran. (Detrás de la importancia de la configuración predeterminada en este contexto; los valores predeterminados algorítmicos con opciones de usuario ocultas ya existen en las plataformas principales, y no se suman a un control significativo del usuario sobre lo que están expuestos).
En la carta, las empresas continúan escribiendo que apoyan “medidas hacia la transparencia y el control algorítmicos, estableciendo límites a la capacidad de descubrimiento de contenido dañino, explorando más a fondo la moderación de la comunidad y proporcionando opciones significativas al usuario”.
“Creemos que es más sostenible y más holísticamente efectivo centrarse en limitar la cantidad de personas que encuentran contenido dañino. Esto se puede lograr poniendo un énfasis tecnológico en la visibilidad sobre la prevalencia ”, sugieren, y agregan:“ Las tácticas variarán de un servicio a otro, pero el enfoque subyacente será familiar ”.
La Comisión ha señalado que la transparencia algorítmica será un pilar clave del paquete de políticas, y dijo en octubre que las propuestas incluirán requisitos para que las plataformas más grandes proporcionen información sobre la forma en que funcionan sus algoritmos cuando los reguladores lo soliciten.
La comisionada Margrethe Vestager dijo entonces que el objetivo es “dar más poder a los usuarios, para que los algoritmos no tengan la última palabra sobre lo que podemos ver y lo que no podemos ver”, sugiriendo requisitos para ofrecer un cierto El nivel de control del usuario podría estar bajando por los patrones oscuros de la industria tecnológica.
En su carta, las cuatro empresas también expresan su apoyo a la armonización de las reglas de notificación y acción para responder a los contenidos ilegales, para aclarar las obligaciones y brindar seguridad jurídica, además de pedir que dichos mecanismos “incluyan medidas proporcionales a la naturaleza y el impacto de el contenido ilegal en cuestión ”.
Los cuatro también están interesados en que los legisladores de la UE eviten un enfoque único para todos para regular los mercados y los jugadores digitales. Aunque dada la división DSA / DMA, parece poco probable; Habrá al menos dos tamaños involucrados en las reglas reiniciadas de Europa, y probablemente muchos más matices.
“Recomendamos un enfoque tecnológicamente neutral y basado en los derechos humanos para garantizar que la legislación trascienda a las empresas individuales y los ciclos tecnológicos”, prosiguen, añadiendo un poco de información sobre la controvertida directiva de derechos de autor de la UE, que describen como un recordatorio de que existen “importantes inconvenientes”. en la prescripción de soluciones de cumplimiento generalizado ”.
“Nuestras reglas deben ser lo suficientemente flexibles para adaptarse y permitir el aprovechamiento de los cambios sectoriales, como el aumento del alojamiento descentralizado de contenido y datos”, continúan, argumentando que se puede garantizar un “enfoque con visión de futuro” mediante el desarrollo de propuestas regulatorias que “optimizan la colaboración eficaz y la transparencia significativa entre tres grupos principales: empresas, reguladores y sociedad civil”.
En este caso, se pide una “supervisión co-reguladora basada en normas regionales y globales”, como dicen, para garantizar que las reglas digitales reiniciadas de Europa sean “efectivas, duraderas y protectoras de los derechos de las personas”.
El impulso conjunto para la colaboración que incluye a la sociedad cívica contrasta con la respuesta pública de Google a la consulta DSA / DMA de la Comisión, que se centró principalmente en tratar de presionar contra las reglas ex ante para los guardianes (como Google seguramente será designado).
A pesar de la responsabilidad por el contenido ilegal, el gigante tecnológico también presionó para que se delimitaran las líneas divisorias entre cómo se debe manejar el material ilegal y qué es “legal pero dañino”.
Los detalles oficiales completos de las propuestas de DSA y DMA se esperan la próxima semana.
Un portavoz de la Comisión se negó a comentar sobre las posiciones específicas establecidas por Twitter et al hoy, y agregó que las propuestas regulatorias se darán a conocer “pronto”. (El 15 de diciembre es la fecha programada.)
La semana pasada, al establecer la estrategia del bloque para manejar información y desinformación políticamente cargadas en línea, la comisionada de valores y transparencia, Vera Jourova, confirmó que el próximo DSA no establecerá reglas específicas para la eliminación de “contenido en disputa”.
En cambio, dijo que habrá un código de prácticas reforzado para abordar la desinformación, ampliando el acuerdo voluntario actual con requisitos adicionales. Ella dijo que estos incluirán responsabilidad algorítmica y mejores estándares para que las plataformas cooperen con verificadores de datos de terceros. Abordar los bots y las cuentas falsas y las reglas claras para que los investigadores accedan a los datos también están en las tarjetas (no vinculantes legalmente).
“No queremos crear un ministerio de la verdad. La libertad de expresión es esencial y no apoyaré ninguna solución que la socave ”, dijo Jourova. “Pero tampoco podemos dejar que nuestras sociedades sean manipuladas si existen estructuras organizadas destinadas a sembrar la desconfianza, socavando la estabilidad democrática, por lo que seríamos ingenuos si permitiéramos que esto sucediera. Y tenemos que responder con determinación “.