Los gigantes tecnológicos aún no están haciendo lo suficiente para luchar contra las falsificaciones, dice la Comisión Europea

Los gigantes tecnológicos aún no están haciendo lo suficiente para luchar contra las falsificaciones, dice la Comisión Europea

Hace un año que la Comisión Europea reunió a un grupo de gigantes adtech para derramar tinta sobre un Código de Prácticas voluntario para hacer algo, aunque nada muy cuantificable, como un primer paso para detener la propagación de la desinformación en línea.

Su último boletín de calificaciones de sumas de esfuerzo voluntario para las plataformas podría mejorar.

La Comisión dijo lo mismo en enero. Y sin duda lo volveré a decir. A menos o hasta que los reguladores comprendan la ortiga de los modelos de negocios en línea que se benefician al maximizar el compromiso. Como dice el dicho, las mentiras vuelan mientras la verdad viene a tropezar. Por lo tanto, los intentos de reducir la desinformación sin fijar los incentivos económicos para difundir BS en primer lugar se ocupan principalmente de ajustes cosméticos y ópticos.

Los firmantes del Código de prácticas de la UE para la desinformación de la Comisión son: Facebook, Google, Twitter, Mozilla, Microsoft y varias asociaciones comerciales que representan plataformas en línea, la industria publicitaria y los anunciantes, incluido el Internet Advertising Bureau (IAB) y la Federación Mundial de Anunciantes ( WFA).

En un comunicado de prensa que evalúa los informes anuales de hoy, compilados por los firmantes, la Comisión expresa su decepción por el hecho de que ninguna otra plataforma de Internet o compañía de publicidad se haya registrado desde que Microsoft se unió al Código este año.

“Encomiamos el compromiso de las plataformas en línea de ser más transparentes sobre sus políticas y establecer una cooperación más estrecha con los investigadores, los verificadores de hechos y los Estados miembros. Sin embargo, el progreso varía mucho entre los firmantes y los informes proporcionan poca información sobre el impacto real de las medidas de autorregulación tomado durante el año pasado, así como los mecanismos para el escrutinio independiente ", escriben los comisionados Věra Jourová, Julian King y Mariya Gabriel dijo en una declaración conjunta. (énfasis nuestro)

“Si bien las elecciones al Parlamento Europeo de 2019 en mayo claramente no estuvieron libres de desinformación, las acciones y los informes mensuales previos a las elecciones contribuyeron a limitar el espacio para la interferencia y mejorar la integridad de los servicios, a interrumpir los incentivos económicos para la desinformación y a garantizar mayor transparencia de la publicidad política y temática. Todavía, la propaganda automatizada a gran escala y la desinformación persisten y hay más trabajo por hacer en todas las áreas del Código. No podemos aceptar esto como una nueva normalidad ”, agregan.

El riesgo, por supuesto, es que el código irrisorio de la Comisión corre el riesgo de consolidar rápidamente una gelatina lechosa de autorregulación en la zona difusa de desinformación como la nueva normalidad, como advertimos cuando se lanzó el Código el año pasado.

La Comisión continúa dejando la puerta abierta (una grieta) para hacer algo que las plataformas no pueden (en su mayoría) ignorar, es decir, la regulación real, diciendo que la evaluación de la efectividad del Código sigue en curso.

Pero eso es solo un palo colgado. En este punto de transición entre las Comisiones salientes y entrantes, parece contento de permanecer en un patrón de espera "debe hacerlo mejor". (O: "Es lo que dice la Comisión cuando tiene otras prioridades", como lo expresó una fuente dentro de la institución).

Una evaluación exhaustiva de cómo funciona el Código está programada para principios de 2020, es decir, después de que la nueva Comisión haya asumido su mandato. Entonces, sí, ese es el sonido de la lata siendo pateada unos meses más.

Resumiendo sus principales hallazgos de los informes de "progreso" auto marcados de los firmantes, la Comisión saliente dice que informaron una mayor transparencia entre ellos frente a hace un año al discutir sus respectivos Políticas contra la desinformación.

Pero señala un pobre progreso en Implementar compromisos para empoderar a los consumidores y la comunidad de investigación

"La provisión de datos y herramientas de búsqueda sigue siendo episódica y arbitraria y no responde a las necesidades de los investigadores de un escrutinio independiente", advierte.

Irónicamente, este es un problema que uno de los firmantes, Mozilla, ha criticado activamente a otros, incluido Facebook, cuya API política publicitaria revisó condenatoriamente este año, encontrando que no es adecuada para su propósito y "diseñada de manera que obstaculiza el importante trabajo de los investigadores, que informan al público y a los responsables políticos sobre la naturaleza y las consecuencias de la desinformación". Entonces, er, ay.

La Comisión también critica lo que dice que son variaciones "significativas" en el alcance de las acciones emprendidas por plataformas para implementar "compromisos" bajo el Código, observando también las diferencias en la implementación de la política de plataforma; cooperación con las partes interesadas; y la sensibilidad a los contextos electorales persiste en todos los Estados miembros; así como las diferencias en las métricas específicas de la UE proporcionadas.

Pero dado que el Código solo solicitó una acción bastante vaga en algunas áreas bastante amplias, sin prescribir exactamente qué plataformas se comprometieron a hacer, ni establecer puntos de referencia para la acción contra la cual medir, la inconsistencia y la variedad es realmente lo que cabría esperar. Eso y la lata siendo pateada por el camino.

El Código extrajo un compromiso cuasi firme de los signatarios, sobre el tema de la detección e identificación de bots, al hacer que las plataformas prometan "establecer sistemas claros de marcado y reglas para los bots para garantizar que sus actividades no puedan confundirse con las interacciones humanas".

Un año después, es difícil ver signos claros de progreso en ese objetivo. Aunque las plataformas podrían argumentar que lo que afirman es un mayor esfuerzo para atrapar y matar cuentas de bot maliciosas antes de que tengan la oportunidad de difundir cualquier falsificación, es donde está pasando la mayor parte de su sudor en ese frente.

Twitter El informe anual, por ejemplo, habla sobre lo que está haciendo para luchar contra el "spam y la automatización maliciosa de forma estratégica y a escala" en su plataforma, diciendo que su el enfoque es "cada vez más en la identificación proactiva de cuentas y comportamientos problemáticos en lugar de esperar hasta que recibamos un informe"; después de lo cual dice que tiene como objetivo "desafiar … las cuentas que se involucran en un comportamiento de spam o manipulación antes de que los usuarios estén expuestos a contenido engañoso, no auténtico o que distraiga".

En otras palabras, si Twitter hace esto perfectamente, y atrapa a todos los bots maliciosos antes de que tenga la oportunidad de tuitear, podría argumentar que las etiquetas de bot son redundantes. Aunque claramente no está en condiciones de afirmar que ha ganado la guerra de spam / bot malicioso todavía. Ergo, sus usuarios continúan en riesgo de consumir tweets auténticos que no están claramente etiquetados como tales (o incluso como "potencialmente sospechosos" por Twitter). Presumiblemente porque estas son las cuentas que continúan deslizándose bajo su radar de detección de bots.

Tampoco hay nada en el informe de Twitter que etiquete incluso las cuentas de bot (no maliciosas) como bots, con el fin de evitar confusiones accidentales (después de todo, la sátira malinterpretada como verdad también puede resultar en desinformación). Y esto a pesar de que la compañía sugirió hace un año que estaba jugando con la adición de etiquetas contextuales a las cuentas de bot, al menos donde podría detectarlas.

En caso de que se haya resistido a agregar más insignias a las cuentas. Mientras que una reforma interna de su política de verificación para credenciales de cuenta verificadas se detuvo el año pasado.

El informe de Facebook también solo hace una mención pasajera de los bots, en una sección bajo el encabezado "spam", donde escribe circularmente: "El contenido procesado por spam ha aumentado considerablemente, desde que encontramos y tomamos medidas sobre más contenido que va en contra de nuestros estándares ".

Incluye algunos puntos de datos para respaldar esta afirmación de más spam aplastado, citando un informe de Cumplimiento de Normas Comunitarias de mayo de 2019, donde establece que en En el cuarto trimestre de 2018 y el primer trimestre de 2019, actuó en 1.800 millones de correos no deseados en cada uno de los trimestres frente a 737 millones en el cuarto trimestre de 2017; 836 millones en el primer trimestre de 2018; 957 millones en el segundo trimestre de 2018; y 1.200 millones en el tercer trimestre de 2018.

Aunque se está retrasando en la publicación de datos de spam más actualizados ahora, señalando en el informe presentado a la CE que: "Se espera que las métricas de spam actualizadas estén disponibles en noviembre de 2019 para el segundo y tercer trimestre de 2019 ″, es decir, convenientemente tarde para su inclusión en este informe.

El informe de Facebook señala los esfuerzos en curso para poner etiquetas contextuales en ciertos tipos de contenido sospechoso / partidista, como etiquetar fotos y videos que han sido verificados independientemente como engañosos; etiquetado de medios controlados por el estado; y etiquetar anuncios políticos.

El etiquetado de los bots no se discute en el informe, presumiblemente porque Facebook prefiere centrar la atención en métricas de eliminación de spam autodefinidas en lugar de enturbiar el agua con la discusión de cuánta actividad sospechosa continúa albergando en su plataforma, ya sea por incompetencia, falta de recursos o porque es políticamente conveniente que su negocio lo haga.

Etiquetar todos estos bots significaría que Facebook señala inconsistencias en la forma en que aplica sus propias políticas, de una manera que podría destacar su propio sesgo político. Y no existe un mecanismo de autorregulación bajo el sol que haga que Facebook confiese hasta esos dobles estándares.

Por ahora, el requisito del Código para que los firmantes publiquen un informe anual sobre lo que están haciendo para abordar la desinformación parece ser la mayor victoria hasta ahora. Sin embargo, está muy vagamente vinculado a la autoinforme. Si bien algunos de estos "informes" ni siquiera se ejecutan en una página completa de texto A4, establezca sus expectativas en consecuencia.

La Comisión ha publicado todos los informes aquí. También ha producido su propio resumen y evaluación de ellos (aquí).

"En general, los informes se beneficiarían de información más detallada y cualitativa en algunas áreas y de un contexto más amplio, como las tendencias", escribe. "Además, las métricas proporcionadas hasta ahora son principalmente indicadores de resultados en lugar de indicadores de impacto".

En general, del Código, como un "estándar de autorregulación", la Comisión argumenta que ha "brindado una oportunidad para una mayor transparencia en las políticas de desinformación de las plataformas, así como un marco para el diálogo estructurado para monitorear, mejorar e implementar efectivamente esas políticas ", Y agregó:" Esto representa un progreso sobre la situación que prevalecía antes de la entrada en vigor del Código, mientras que aún son necesarios más pasos serios por parte de los signatarios individuales y la comunidad en su conjunto ".


Source link