Los legisladores europeos están considerando requisitos de transparencia vinculantes para las plataformas de Internet en una Ley de Servicios Digitales (DSA) que se redactará a finales de año. Pero la cuestión de cómo crear estructuras de gobierno que brinden a los reguladores e investigadores un acceso significativo a los datos para que las plataformas puedan responsabilizarse por el contenido que están amplificando es compleja.
Los propios esfuerzos de las plataformas para abrir sus tesoros de datos a los ojos externos han sido cuestionados, por decir lo menos. En 2018, Facebook anunció la iniciativa Social Science One, diciendo que proporcionaría a un grupo selecto de académicos acceso a aproximadamente un petabyte para compartir datos y metadatos. Pero pasaron casi dos años antes de que los investigadores tuvieran acceso a los datos.
“Esta fue la cosa más frustrante en la que he estado involucrado en mi vida”, dijo uno de los investigadores involucrados. Protocolo a principios de este año, después de pasar unos 20 meses negociando con Facebook exactamente lo que lanzaría.
La API de archivo de anuncios políticos de Facebook ha frustrado de manera similar a los investigadores. “Facebook hace que sea imposible obtener una imagen completa de todos los anuncios que se ejecutan en su plataforma (que es exactamente lo contrario de lo que dicen estar haciendo)”, dijo Mozilla el año pasado, acusando al gigante tecnológico de lavar la transparencia.
Mientras tanto, Facebook señala las regulaciones europeas de protección de datos y los requisitos de privacidad adjuntos a su negocio luego de las intervenciones de la FTC de los EE. UU. para justificar el progreso minucioso en torno al acceso a los datos. Pero los críticos argumentan que esto es solo un escudo cínico contra la transparencia y la rendición de cuentas. Además, por supuesto, ninguna de estas regulaciones impidió que Facebook tomara los datos de las personas en primer lugar.
En eneroel principal regulador de protección de datos de Europa, escribió una opinión preliminar sobre protección e investigación de datos que advertía contra dicho blindaje.
“Las obligaciones de protección de datos no deben malversarse como un medio para que los actores poderosos eludan la transparencia y la rendición de cuentas”, escribió EDPS Wojciech Wiewiorówski. “Por lo tanto, los investigadores que operan dentro de marcos de gobernanza ética deberían poder acceder a la API necesaria y otros datos, con una base legal válida y sujetos al principio de proporcionalidad y salvaguardas apropiadas”.
Tampoco es Facebook el único infractor aquí, por supuesto. Google se califica a sí mismo como un ‘campeón de la privacidad’ por el control estricto que mantiene sobre el acceso a los datos de los usuarios, mediando en gran medida los datos que publica en áreas en las que reclama ‘transparencia’. Si bien, durante años, Twitter despreció rutinariamente los estudios de terceros que buscaban comprender cómo fluye el contenido a través de su plataforma, diciendo que su API no brindaba acceso completo a todos los datos y metadatos de la plataforma, por lo que la investigación no podía mostrar la imagen completa. Otro escudo conveniente para evitar la rendición de cuentas.
Más recientemente, la compañía ha hecho algunos ruidos alentadores para los investigadores, actualizando su política de desarrollo para aclarar las reglas y ofreciendo un conjunto de datos relacionado con COVID, aunque los tweets incluidos siguen siendo seleccionados por ellos mismos. Así que la mano mediadora de Twitter permanece en el timón de la investigación.
un nuevo reporte by AlgorithmWatch busca lidiar con el espinoso problema de las plataformas que evaden la responsabilidad al mediar el acceso a los datos, sugiriendo algunos pasos concretos para brindar transparencia y reforzar la investigación, incluso inspirándose en cómo se media el acceso a los datos médicos, entre otras estructuras de gobernanza discutidas.
El objetivo: acceso de investigación “significativo” a los datos de la plataforma. (O como dice el título del informe: Operacionalización del acceso a la investigación en la gobernanza de la plataforma: ¿Qué aprender de otras industrias?)
“Tenemos reglas estrictas de transparencia para permitir la rendición de cuentas y el bien público en tantos otros sectores (alimentos, transporte, bienes de consumo, finanzas, etc.). Definitivamente lo necesitamos para las plataformas en línea, especialmente en tiempos de COVID-19, donde dependemos aún más de ellas para el trabajo, la educación, la interacción social, las noticias y el consumo de medios”, dice a TechCrunch el coautor Jef Ausloos.
El informe, que los autores apuntan a los legisladores de la Comisión Europea mientras reflexionan sobre cómo dar forma a un marco de gobernanza de plataforma eficaz, propone marcos de intercambio de datos obligatorios con una institución independiente de la UE que actúa como intermediario entre las corporaciones divulgadoras y los destinatarios de los datos.
Por supuesto, no es la primera vez que se habla de un regulador en línea, pero la entidad que se sugiere aquí tiene una configuración más estricta en términos de propósito que algunos de los otros supervisores de Internet que se proponen en Europa.
“Tal institución mantendría infraestructuras de acceso relevantes, incluidos entornos operativos virtuales seguros, bases de datos públicas, sitios web y foros. También desempeñaría un papel importante en la verificación y el preprocesamiento de datos corporativos para garantizar que sean aptos para su divulgación”, afirman. escribe en un informe resumen.
Hablando más sobre el enfoque, Ausloos argumenta que es importante alejarse del “pensamiento binario” para romper el actual punto muerto de confianza del ‘acceso a datos’. “En lugar de este pensamiento binario de divulgación versus opacidad/ofuscación, necesitamos un enfoque más matizado y en capas con diversos grados de acceso/transparencia de datos”, dice. “Este enfoque en capas puede depender de los tipos de actores que solicitan datos y sus propósitos”.
Un propósito de investigación de mercado solo podría obtener acceso a datos de muy alto nivel, sugiere. Mientras que la investigación médica de las instituciones académicas podría tener un acceso más granular, sujeto, por supuesto, a requisitos estrictos (como un plan de investigación, la aprobación de la revisión de la junta ética, etc.).
“Una institución independiente de intermediación podría ser vital para facilitar esto y generar la confianza necesaria. Creemos que es vital que el mandato de ese regulador esté separado de las agendas políticas específicas”, dice Ausloos. “Debe centrarse en ser un facilitador de transparencia/divulgación, creando el entorno técnico y legal necesario para el intercambio de datos. Esto puede ser utilizado por las autoridades de medios/competencia/protección de datos/etc. para sus posibles acciones de cumplimiento”.
Ausloos dice que muchas discusiones sobre la creación de un regulador independiente para las plataformas en línea han propuesto demasiados mandatos o competencias, lo que hace imposible lograr un consenso político. Mientras que una entidad más ligera con un mandato limitado de transparencia/divulgación debería ser capaz de atravesar objeciones ruidosas, esa es la teoría.
El infame ejemplo de Cambridge Analytica ciertamente ocupa un lugar preponderante en el espacio de “datos para la investigación”, es decir, la compañía de datos en desgracia que pagó a un académico de la Universidad de Cambridge para que usara una aplicación para recopilar y procesar datos de usuarios de Facebook para publicidad política. Y Facebook no ha pensado en convertir este escándalo de uso indebido de datos de plataforma masiva en un palo para rechazar las propuestas regulatorias que apuntan a abrir sus tesoros de datos.
Pero Cambridge Analytica fue una consecuencia directa de la falta de transparencia, responsabilidad y supervisión de la plataforma. También fue, por supuesto, una falla ética masiva, dado que no se buscó el consentimiento para la orientación política de las personas cuyos datos se adquirieron. Así que no parece un buen argumento en contra de regular el acceso a los datos de la plataforma. De lo contrario.
Con tales puntos de conversación tecnológicos de ‘instrumentos contundentes’ siendo presionados en el debate de gobernanza por parte de gigantes de plataformas egoístas, el informe AlgorithmWatch brinda matices bienvenidos y sugerencias sólidas sobre cómo crear estructuras de gobernanza efectivas para los gigantes de datos modernos.
En el punto de acceso en capas, el informe sugiere que el acceso más granular a los datos de la plataforma sería el más controlado, en la línea de un modelo de datos médicos. “El acceso granular solo se puede habilitar dentro de un entorno virtual cerrado, controlado por un organismo independiente, como lo hace actualmente Findata. [Finland’s medical data institution]”, señala Ausloos.
Otra estructura de gobernanza discutida en el informe, como un estudio de caso del cual extraer aprendizajes sobre cómo incentivar la transparencia y, por lo tanto, permitir la rendición de cuentas, es el Registro Europeo de Emisiones y Transferencias de Contaminantes (E-PRTR). Esto regula los informes de emisiones contaminantes en toda la UE y da como resultado que los datos de emisiones estén disponibles gratuitamente para el público a través de una plataforma web dedicada y como un conjunto de datos independiente.
“La credibilidad se logra asegurando que los datos informados sean auténticos, transparentes, confiables y comparables, debido a la coherencia de los informes. Se recomienda a los operadores que utilicen las mejores técnicas de información disponibles para lograr estos estándares de integridad, consistencia y credibilidad”, dice el informe en el E-PRTR.
“A través de esta forma de transparencia, el E-PRTR tiene como objetivo imponer la responsabilidad de los operadores de instalaciones industriales en Europa ante el público, las ONG, los científicos, los políticos, los gobiernos y las autoridades supervisoras”.
Si bien los legisladores de la UE han señalado la intención de imponer requisitos de transparencia legalmente vinculantes en las plataformas, al menos en algunas áreas menos polémicas, como el discurso de odio ilegal, como un medio para obtener responsabilidad sobre algunos problemas de contenido específicos, simultáneamente han establecido un plan amplio. impulsar la economía digital de Europa impulsando la reutilización de datos (no personales).
Aprovechar los datos industriales para respaldar la I+D y la innovación es un elemento clave de las prioridades políticas impulsadas por la tecnología de la Comisión para los próximos cinco años o más, como parte de una ambiciosa agenda de transformación digital.
Esto sugiere que es probable que cualquier movimiento regional para abrir los datos de la plataforma vaya más allá de la responsabilidad, dado que los legisladores de la UE están presionando por el objetivo más amplio de crear una estructura de soporte digital fundamental para permitir la investigación a través de la reutilización de datos. Entonces, si se pueden integrar marcos de intercambio de datos que respeten la privacidad, una estructura de gobierno de la plataforma diseñada para permitir el intercambio de datos regulado casi por defecto comienza a parecer muy posible dentro del contexto europeo.
“Habilitar la rendición de cuentas es importante, lo cual abordamos en el estudio de caso de contaminación; pero posibilitar la investigación es por lo menos igual de importante”, argumenta Ausloos, quien realiza investigación posdoctoral en el Instituto de Derecho de la Información de la Universidad de Amsterdam. “Especialmente considerando que estas plataformas constituyen la infraestructura de la sociedad moderna, necesitamos la divulgación de datos para comprender la sociedad”.
“Cuando pensamos en cómo deberían ser las medidas de transparencia para la DSA, no necesitamos reinventar la rueda”, agrega Mackenzie Nelson, líder de proyecto de AlgorithmWatch. Proyecto Plataformas de Gobierno, en una oracion. “El informe proporciona recomendaciones concretas sobre cómo la Comisión puede diseñar marcos que salvaguarden la privacidad del usuario y al mismo tiempo permitan el acceso de investigación crítica a los datos de las plataformas dominantes”.
Puedes leer el informe completo aquí.
Source link