Ícono del sitio La Neta Neta

Los gigantes tecnológicos aún no hacen lo suficiente para combatir las falsificaciones, dice la Comisión Europea

Los gigantes tecnológicos aún no hacen lo suficiente para combatir las falsificaciones, dice la Comisión Europea

Hace un año que la Comisión Europea reunió a un grupo de gigantes de la tecnología publicitaria para derramar tinta sobre un Código de Prácticas hacer algo, aunque nada muy cuantificable, como primer paso para detener la propagación de la desinformación en línea.

Su última boleta de calificaciones en este esfuerzo voluntario las sumas a las plataformas podrían hacerlo mejor.

La Comisión dijo lo mismo en enero. Y sin duda lo repetirá. A menos o hasta que los reguladores comprendan la ortiga de los modelos comerciales en línea que se benefician al maximizar el compromiso. Como dice el refrán, la mentira vuela mientras la verdad viene trastabillando. Por lo tanto, los intentos de reducir la desinformación sin fijar los incentivos económicos para difundir BS en primer lugar se tratan principalmente de ajustes cosméticos y óptica.

Signatarios de la UE de la Comisión Código de prácticas sobre desinformación son: Facebook, Google, Twitter, Mozilla, Microsoft y varias asociaciones comerciales que representan plataformas en línea, la industria de la publicidad y los anunciantes, incluida la Oficina de Publicidad en Internet (IAB) y la Federación Mundial de Anunciantes (WFA).

en un presione soltar Al evaluar los informes anuales de hoy, compilados por los signatarios, la Comisión expresa su decepción porque ninguna otra plataforma de Internet o empresas de publicidad se han registrado desde que Microsoft se unió como una adición tardía al Código este año.

“Elogiamos el compromiso de las plataformas en línea de volverse más transparentes sobre sus políticas y establecer una cooperación más estrecha con investigadores, verificadores de hechos y Estados miembros. Sin embargo, el progreso varía mucho entre signatarios y los informes proporcionan poca información sobre el impacto real de las medidas de autorregulación tomadas durante el año pasado, así como mecanismos para el escrutinio independiente”, dijeron los comisionados Věra Jourová, Julian King y Mariya Gabriel en un comunicado conjunto. [emphasis ours]

“Si bien las elecciones al Parlamento Europeo de 2019 en mayo claramente no estuvieron libres de desinformación, las acciones y los informes mensuales antes de las elecciones contribuyeron a limitar el espacio para la interferencia y mejorar la integridad de los servicios, a interrumpir los incentivos económicos para la desinformación y a garantizar mayor transparencia de la publicidad política y temática. Quieto, persiste la propaganda automatizada a gran escala y la desinformación y hay más trabajo por hacer en todas las áreas del Código. No podemos aceptar esto como una nueva normalidad”, añaden.

El riesgo, por supuesto, es que el código flojo de la Comisión corre el riesgo de cimentar rápidamente una gelatina lechosa de autorregulación en la zona borrosa de la desinformación como la nueva normalidad, como advertimos cuando se lanzó el Código el año pasado.

La Comisión continúa dejando la puerta abierta (una grieta) para hacer algo que las plataformas no pueden (en su mayoría) ignorar, es decir, la regulación real, diciendo que su evaluación de la efectividad del Código sigue en curso.

Pero eso es solo un palo colgado. En este punto de transición entre las Comisiones entrantes y salientes, parece contentarse con permanecer en un patrón de espera de ‘debe hacerlo mejor’. (O: “Es lo que dice la Comisión cuando tiene otras prioridades”, como dijo una fuente dentro de la institución).

Está previsto que se realice una evaluación exhaustiva de cómo funciona el Código a principios de 2020, es decir, después de que la nueva Comisión haya asumido su mandato. Entonces, sí, ese es el sonido de la lata siendo pateada unos meses más tarde.

Resumiendo sus principales hallazgos de los informes de ‘progreso’ automarcados de los signatarios, la Comisión saliente dice que han informado una mayor transparencia entre ellos en comparación con hace un año al discutir sus respectivas políticas contra la desinformación.

Pero señala un progreso deficiente en la implementación de compromisos para empoderar a los consumidores y la comunidad investigadora.

“La provisión de datos y herramientas de búsqueda sigue siendo episódica y arbitraria y no responde a las necesidades de los investigadores de un escrutinio independiente”, advierte.

Irónicamente, este es un tema sobre el que uno de los signatarios, Mozilla, ha sido un crítico activo de otros, incluido Facebook, cuya API de anuncios políticos revisó condenatoriamente este año, encontrándola no apta para su propósito y “diseñada de manera que obstaculiza el importante trabajo de los investigadores, que informan al público y a los políticos sobre la naturaleza y las consecuencias de la desinformación”. Así que, eh, ay.

La Comisión también critica lo que dice que son variaciones “significativas” en el alcance de las acciones emprendidas por las plataformas para implementar los “compromisos” en virtud del Código, señalando también las diferencias en la implementación de la política de la plataforma; cooperación con las partes interesadas; y la sensibilidad a los contextos electorales persisten en todos los Estados miembros; así como las diferencias en las métricas específicas de la UE proporcionadas.

Pero dado que el Código solo pedía una acción bastante vaga en algunas áreas bastante amplias, sin prescribir exactamente qué plataformas se comprometían a hacer, ni establecer puntos de referencia para medir la acción, la inconsistencia y la variedad es realmente lo que esperarías. Eso y la lata siendo pateada por el camino.

El Código extrajo un compromiso casi firme de los signatarios, sobre el tema de la detección e identificación de bots, al hacer que las plataformas prometan “establecer sistemas de marcado claros y reglas para los bots para garantizar que sus actividades no se confundan con las interacciones humanas”.

Un año después, es difícil ver señales claras de progreso en esa meta. Aunque las plataformas podrían argumentar que lo que afirman es un mayor esfuerzo para atrapar y matar cuentas de bots maliciosos antes de que tengan la oportunidad de difundir cualquier falsificación, es donde se concentra la mayor parte de su sudor en ese frente.

El informe anual de Twitter, por ejemplo, habla sobre lo que está haciendo para combatir el “spam y la automatización maliciosa de manera estratégica y a escala” en su plataforma, y ​​dice que su enfoque es “cada vez más en la identificación proactiva de cuentas y comportamientos problemáticos en lugar de esperar hasta que recibamos un informe”. ; después de lo cual dice que su objetivo es “desafiar… las cuentas que se involucran en comportamientos fraudulentos o manipuladores antes de que los usuarios estén expuestos a contenido engañoso, no auténtico o que distrae”.

Entonces, en otras palabras, si Twitter hace esto a la perfección, y atrapa a todos los bots maliciosos antes de que tengan la oportunidad de twittear, podría argumentar plausiblemente que las etiquetas de los bots son redundantes. Aunque claramente no está en condiciones de afirmar que todavía ha ganado la guerra contra el spam y los bots maliciosos. Ergo, sus usuarios continúan en riesgo de consumir tweets no auténticos que no están claramente etiquetados como tales (o incluso como ‘potencialmente sospechosos’ por Twitter). Presumiblemente porque estas son las cuentas que continúan deslizándose bajo su radar de detección de bots.

Tampoco hay nada en el informe de Twitter sobre etiquetar incluso las cuentas de bots (no maliciosas) como bots, con el fin de evitar confusiones accidentales (después de que toda la sátira malinterpretada como verdad también puede resultar en desinformación). Y esto a pesar de que la compañía sugirió hace un año que estaba jugando con agregar etiquetas contextuales a las cuentas de los bots, al menos donde pudiera detectarlas.

En caso de que se resista a agregar más insignias a las cuentas. Mientras que una reforma interna de su política de verificación para insignias de cuentas verificadas se detuvo el año pasado.

El informe de Facebook también solo hace una mención pasajera de los bots, en una sección subtitulada “spam”, donde escribe circularmente: “El contenido procesado por spam ha aumentado considerablemente, desde que encontramos y tomamos medidas sobre más contenido que va en contra de nuestros estándares. ”

Incluye algunos puntos de datos para respaldar esta afirmación de más spam aplastado, citando un mayo de 2019 Informe de aplicación de estándares comunitarios — donde indica que en el cuarto trimestre de 2018 y el primer trimestre de 2019 actuó sobre 1800 millones de spam en cada uno de los trimestres frente a los 737 millones del cuarto trimestre de 2017; 836 millones en el primer trimestre de 2018; 957 millones en el segundo trimestre de 2018; y 1.200 millones en el tercer trimestre de 2018.

Aunque ahora se está retrasando en la publicación de datos de spam más actualizados, señalando en el informe enviado a la CE que: “Se espera que las métricas de spam actualizadas estén disponibles en noviembre de 2019 para el segundo y tercer trimestre de 2019”, es decir, convenientemente tarde para su inclusión en Este reporte.

El informe de Facebook señala los esfuerzos en curso para colocar etiquetas contextuales en ciertos tipos de contenido sospechoso/partidista, como etiquetar fotos y videos que han sido verificados de forma independiente como engañosos; etiquetar los medios controlados por el estado; y etiquetado de anuncios políticos.

El etiquetado de bots no se analiza en el informe, presumiblemente porque Facebook prefiere centrar la atención en las métricas de eliminación de spam autodefinidas en lugar de enturbiar el agua con la discusión de cuanta actividad sospechosa continúa hospedando en su plataforma, ya sea por incompetencia, falta de recursos o porque es políticamente conveniente para su negocio hacerlo.

Etiquetar todos estos bots significaría que Facebook señala inconsistencias en la forma en que aplica sus propias políticas, de una manera que podría poner de relieve su propio sesgo político. Y no existe ningún mecanismo de autorregulación bajo el sol que haga que Facebook admita esa doble moral.

Por ahora, el requisito del Código para que los signatarios publiquen un informe anual sobre lo que están haciendo para combatir la desinformación parece ser la mayor victoria hasta el momento. Aunque, es un autoinforme muy poco delimitado. Si bien algunos de estos “informes” ni siquiera se ejecutan en una página completa de texto A4, establezca sus expectativas en consecuencia.

La Comisión ha publicado todos los informes aquí. También ha elaborado su propio resumen y valoración de los mismos (aquí).

“En general, los informes se beneficiarían de información más detallada y cualitativa en algunas áreas y de un contexto más amplio, como las tendencias”, escribe. “Además, las métricas proporcionadas hasta ahora son principalmente indicadores de resultados en lugar de indicadores de impacto”.

Del Código en general, como un “estándar de autorregulación”, la Comisión argumenta que “ha brindado una oportunidad para una mayor transparencia en las políticas de desinformación de las plataformas, así como un marco para el diálogo estructurado para monitorear, mejorar e implementar efectivamente esas políticas ”, y agregó: “Esto representa un progreso sobre la situación prevaleciente antes de la entrada en vigor del Código, mientras que aún son necesarios pasos serios adicionales por parte de los signatarios individuales y la comunidad en su conjunto”.


Source link
Salir de la versión móvil