La denunciante de Facebook Frances Haugen testifica ante el Senado

La denunciante de Facebook Frances Haugen testifica ante el Senado

by

in

Después de revelarla identidad el domingo por la noche, Frances Haugen, la denunciante que filtró documentos controvertidos de Facebook a The Wall Street Journal, testificó ante el Comité Senatorial de Comercio, Ciencia y Transporte el martes.

El testimonio de Haugen se produjo después de una audiencia la semana pasada, cuando la directora global de seguridad de Facebook, Antigone Davis, fue interrogada sobre el impacto negativo de la compañía en los niños y adolescentes. Davis se apegó al guión de Facebook, frustrando a los senadores porque no respondió a las preguntas directamente. Pero Haugen, un exgerente de proyectos sobre desinformación cívica en Facebook, fue previsiblemente más comunicativo con la información.

Haugen es un especialista en algoritmos y se ha desempeñado como director de proyectos en empresas como Google, Pinterest y Yelp. Mientras estuvo en Facebook, abordó temas relacionados con la democracia, la desinformación y el contraespionaje.

“Habiendo trabajado en cuatro tipos diferentes de redes sociales, comprendo cuán complejos y matizados son estos problemas”, dijo Haugen en su declaración de apertura. “Sin embargo, las decisiones que se toman dentro de Facebook son desastrosas, para nuestros hijos, para nuestra seguridad pública, para nuestra privacidad y para nuestra democracia, y es por eso que debemos exigir que Facebook haga cambios”.

El algoritmo

Durante la audiencia, Haugen dejó en claro que cree que el algoritmo actual de Facebook, que recompensa las publicaciones que generan interacciones sociales significativas (MSI), es peligroso. Implementado en 2018, este algoritmo de suministro de noticias prioriza las interacciones (como comentarios y me gusta) de las personas con las que Facebook cree que estás más cerca, como amigos y familiares.

Pero como muestran los documentos filtrados por Haugen, los científicos de datos expresaron su preocupación de que este sistema produjera “efectos secundarios nocivos para la salud en partes importantes del contenido público, como la política y las noticias”.

Facebook también utiliza un ranking basado en el compromiso, en el que una IA muestra el contenido que cree que será más interesante para los usuarios individuales. Esto significa que se priorizará el contenido que provoque reacciones más fuertes de los usuarios, lo que aumentará la desinformación, la toxicidad y el contenido violento. Haugen dijo que cree que la clasificación cronológica ayudaría a mitigar estos impactos negativos.

“He pasado la mayor parte de mi carrera trabajando en sistemas como el ranking basado en el compromiso. Cuando me acerco a ustedes y les digo estas cosas, básicamente estoy condenando 10 años de mi propio trabajo ”, dijo Haugen en la audiencia.

Los senadores del comité escuchan mientras la ex empleada de Facebook y denunciante Frances Haugen (C) testifica ante una audiencia del Comité Senatorial de Comercio, Ciencia y Transporte en Capitol Hill, el 5 de octubre de 2021, en Washington, DC.

Los senadores del comité escuchan mientras la ex empleada de Facebook y denunciante Frances Haugen (C) testifica ante una audiencia del Comité Senatorial de Comercio, Ciencia y Transporte en Capitol Hill, el 5 de octubre de 2021, en Washington, DC. (Foto de DREW ANGERER / POOL / AFP a través de Getty Images)

Como dijo Haugen a “60 Minutes” el domingo por la noche, ella era parte de un comité de integridad cívica que Facebook disolvió después de las elecciones de 2020. Facebook implementó salvaguardias para reducir la desinformación antes de las elecciones presidenciales de Estados Unidos de 2020. Después de las elecciones, desactivó esas salvaguardias. Pero después de los ataques al Capitolio de Estados Unidos el 6 de enero, Facebook los volvió a activar.

“Facebook cambió esos valores predeterminados de seguridad en el período previo a las elecciones porque sabían que eran peligrosos. Como querían recuperar ese crecimiento después de las elecciones, volvieron a sus valores predeterminados originales ”, dijo Haugen. “Creo que eso es profundamente problemático”.

Haugen dijo que Facebook está enfatizando una opción falsa: que pueden usar sus algoritmos volátiles y continuar su rápido crecimiento, o pueden priorizar la seguridad y el declive del usuario. Pero ella cree que adoptar más medidas de seguridad, como la supervisión de académicos, investigadores y agencias gubernamentales, en realidad podría ayudar a los resultados de Facebook.

“Lo que estoy pidiendo es un movimiento [away] del cortoplacismo, que es bajo el que se ejecuta Facebook en la actualidad. Está siendo liderado por métricas y no por personas ”, dijo Haugen. “Con la supervisión adecuada y algunas de estas limitaciones, es posible que Facebook sea una empresa mucho más rentable dentro de cinco o diez años, porque no era tan tóxico y no tanta gente lo abandona”.

Establecimiento de supervisión gubernamental

Cuando se le preguntó como un “experimento mental” qué haría si estuviera en el lugar del director ejecutivo Mark Zuckerberg, Haugen dijo que establecería políticas sobre el intercambio de información con los órganos de supervisión, incluido el Congreso; trabajaría con los académicos para asegurarse de que tengan la información que necesitan para realizar investigaciones sobre la plataforma; y que implementaría de inmediato las “intervenciones blandas” que se identificaron para proteger la integridad de las elecciones de 2020. Ella sugirió que se solicite a los usuarios que hagan clic en un enlace antes de compartirlo, ya que otras empresas como Twitter han descubierto que estas intervenciones reducen la desinformación.

Haugen también agregó que cree que Facebook, tal como está estructurado actualmente, no puede prevenir la propagación de información errónea sobre vacunas, ya que la compañía depende demasiado de los sistemas de inteligencia artificial que, según Facebook, probablemente nunca captarán más del 10% al 20% del contenido.

Más tarde, Haugen le dijo al comité que “alienta firmemente” la reforma de la Sección 230, una parte de la Ley de Decencia en las Comunicaciones de los Estados Unidos que absuelve a las plataformas de redes sociales de ser responsables de lo que publican sus usuarios. Haugen cree que la Sección 230 debería eximir las decisiones sobre algoritmos, haciendo posible que las empresas enfrenten consecuencias legales si se determina que sus algoritmos causan daños.

“El contenido generado por el usuario es algo sobre lo que las empresas tienen menos control. Pero tienen el 100% de control sobre sus algoritmos ”, dijo Haugen. “Facebook no debería dejar pasar las decisiones que toma para priorizar el crecimiento, la viralidad y la reactividad sobre la seguridad pública”.

El senador John Hickenlooper (D-CO) preguntó cómo se vería afectado el resultado final de Facebook si el algoritmo promoviera la seguridad. Haugen dijo que tendría un impacto, porque cuando los usuarios ven contenido más atractivo (incluso si es más enfurecedor que atractivo), pasan más tiempo en la plataforma, generando más dólares publicitarios para Facebook. Pero cree que la plataforma aún sería rentable si siguiera los pasos que describió para mejorar la seguridad del usuario.

Seguridad internacional

Como se informó en una de las historias de Archivos de Facebook de The Wall Street Journal, los empleados de Facebook señalaron casos de uso de la plataforma para delitos violentos en el extranjero, pero la respuesta de la compañía fue inadecuada, según los documentos que Haugen filtró.

Los empleados expresaron su preocupación, por ejemplo, sobre el uso de la plataforma por grupos armados en Etiopía para coordinar ataques violentos contra minorías étnicas. Dado que las prácticas de moderación de Facebook dependen tanto de la inteligencia artificial, eso significa que su IA debe poder funcionar en todos los idiomas y dialectos que hablan sus 2.900 millones de usuarios activos mensuales. Según el WSJ, los sistemas de inteligencia artificial de Facebook no cubren la mayoría de los idiomas que se hablan en el sitio. Haugen dijo que aunque solo el 9% de los usuarios de Facebook hablan inglés, el 87% del gasto en desinformación de la plataforma se dedica a los angloparlantes.

“Parece que Facebook invierte más en los usuarios que ganan más dinero, aunque el peligro no se distribuya de manera uniforme en función de la rentabilidad”, dijo Haugen. Añadió que cree que la constante falta de personal de Facebook en los equipos de contraespionaje, operaciones de información y contraterrorismo es una amenaza a la seguridad nacional, sobre la que se está comunicando con otras partes del Congreso.

El futuro de Facebook

Los miembros del comité del Senado indicaron que están motivados para tomar medidas contra Facebook, que también se encuentra en medio de una demanda antimonopolio.

“De hecho, estoy en contra de la ruptura de Facebook”, dijo Haugen. “Si separa Facebook e Instagram, es probable que la mayor parte de los dólares publicitarios se destinen a Instagram, y Facebook seguirá siendo así Frankenstein eso está poniendo en peligro vidas en todo el mundo, solo que ahora no habrá dinero para financiarlo “.

Pero los críticos argumentan que la interrupción de Facebook de seis horas de ayer, sin relación con la audiencia de hoy, mostró la desventaja de que una empresa tiene tanto control, especialmente cuando las plataformas como WhatsApp son tan esenciales para la comunicación en el extranjero.

Mientras tanto, los legisladores están elaborando una legislación para promover la seguridad en las plataformas de redes sociales para menores. La semana pasada, el senador Ed Markey (D-MA) anunció que volvería a presentar una legislación con el senador Richard Blumenthal (D-CT) llamada Ley KIDS (Diseño y seguridad de Internet para niños), que busca crear nuevas protecciones para los usuarios en línea bajo 16. Hoy, el senador John Thune (R-SD) presentó un proyecto de ley bipartidista que presentó con otros tres miembros del comité en 2019 llamado Ley de transparencia de la burbuja del filtro. Esta legislación aumentaría la transparencia al brindar a los usuarios la opción de ver contenido que no está curado por un algoritmo secreto.

La senadora Blumenthal incluso sugirió que Haugen regresara para otra audiencia sobre sus preocupaciones de que Facebook sea una amenaza para la seguridad nacional. Aunque los superiores de Facebook habló en contra Haugen durante el juicio, los legisladores parecían conmovidos por su testimonio.




Source link