Redes Sociales

La FDA debería regular el algoritmo de Instagram como medicamento

El Wall Street Journal informó el martes sobre el secreto peor guardado de Silicon Valley: Instagram daña la salud mental de los adolescentes; de hecho, su impacto es tan negativo que introduce pensamientos suicidas.

El treinta y dos por ciento de las adolescentes que se sienten mal con su cuerpo informan que Instagram las hace sentir peor. De los adolescentes con pensamientos suicidas, el 13% de los usuarios británicos y el 6% de los estadounidenses rastrean esos pensamientos hasta Instagram, según el informe del WSJ. Estos son los datos internos de Facebook. Seguramente la verdad es peor.

El presidente Theodore Roosevelt y el Congreso formaron la Administración de Alimentos y Medicamentos en 1906 precisamente porque las grandes empresas alimentarias y farmacéuticas no protegieron el bienestar general. Mientras sus ejecutivos desfilan en la Met Gala en celebración del inalcanzable 0.01% de estilos de vida y cuerpos que nosotros, los simples mortales, nunca lograremos, la falta de voluntad de Instagram para hacer lo correcto es un llamado de atención a la regulación: la FDA debe hacer valer su derecho codificado de regular el algoritmo que impulsa la droga de Instagram.

La FDA debería considerar los algoritmos como un medicamento que afecta la salud mental de nuestra nación: la Ley Federal de Alimentos, Medicamentos y Cosméticos otorga a la FDA el derecho de regular los medicamentos, definiendo los medicamentos en parte como «artículos (distintos de los alimentos) destinados a afectar la estructura o cualquier función del cuerpo del hombre o de otros animales «. Los datos internos de Instagram muestran que su tecnología es un artículo que altera nuestros cerebros. Si este esfuerzo falla, el Congreso y el presidente Joe Biden deberían crear una FDA de salud mental.

Los investigadores pueden estudiar qué prioriza Facebook y el impacto que esas decisiones tienen en nuestras mentes. Cómo sabemos esto? Porque Facebook ya lo está haciendo, solo están enterrando los resultados.

El público debe comprender qué priorizan los algoritmos de Facebook e Instagram. Nuestro gobierno está equipado para estudiar ensayos clínicos de productos que pueden dañar físicamente al público. Los investigadores pueden estudiar qué privilegios de Facebook y el impacto que esas decisiones tienen en nuestras mentes. Cómo sabemos esto? Porque Facebook ya lo está haciendo, solo están enterrando los resultados.

En noviembre de 2020, como informan Cecilia Kang y Sheera Frenkel en “An Ugly Truth”, Facebook realizó un cambio de emergencia en su News Feed, poniendo más énfasis en las puntuaciones de “News Ecosystem Quality” (NEQ). Las fuentes de alta NEQ eran fuentes confiables; bajas no eran dignas de confianza. Facebook alteró el algoritmo para privilegiar las altas puntuaciones de NEQ. Como resultado, durante cinco días alrededor de las elecciones, los usuarios vieron un «suministro de noticias más agradable» con menos noticias falsas y menos teorías de conspiración. Pero Mark Zuckerberg revirtió este cambio porque condujo a una menor participación y podría provocar una reacción conservadora. El público sufrió por ello.

Facebook también ha estudiado lo que sucede cuando el algoritmo privilegia el contenido que es «bueno para el mundo» sobre el contenido que es «malo para el mundo». He aquí, el compromiso disminuye. Facebook sabe que su algoritmo tiene un impacto notable en la mente del público estadounidense. ¿Cómo puede el gobierno permitir que un hombre decida el estándar basándose en sus imperativos comerciales, no en el bienestar general?

Upton Sinclair descubrió de manera memorable abusos peligrosos en «The Jungle», lo que provocó una protesta pública. El libre mercado falló. Los consumidores necesitaban protección. La Ley de Alimentos y Medicamentos Puros de 1906 promulgó por primera vez estándares de seguridad que regulan los bienes consumibles que afectan nuestra salud física. Hoy, necesitamos regular los algoritmos que impactan nuestra salud mental. La depresión adolescente ha aumentado de manera alarmante desde 2007. De la misma manera, el suicidio entre los 10 y 24 años aumentó casi un 60% entre 2007 y 2018.

Por supuesto, es imposible demostrar que las redes sociales son las únicas responsables de este aumento, pero es absurdo argumentar que no ha contribuido. Las burbujas de filtro distorsionan nuestras vistas y las hacen más extremas. El acoso en línea es más fácil y constante. Los reguladores deben auditar el algoritmo y cuestionar las elecciones de Facebook.

Cuando se trata del mayor problema que plantea Facebook: cuál es el producto nos hace – Los reguladores han luchado por articular el problema. La Sección 230 es correcta en su intención y aplicación; Internet no puede funcionar si las plataformas son responsables de todas las declaraciones de los usuarios. Y una empresa privada como Facebook pierde la confianza de su comunidad si aplica reglas arbitrarias que se dirigen a los usuarios en función de sus antecedentes o creencias políticas. Facebook como empresa no tiene el deber explícito de defender la Primera Enmienda, pero la percepción pública de su imparcialidad es esencial para la marca.

Por lo tanto, Zuckerberg se ha equivocado a lo largo de los años antes de prohibir tardíamente a los negadores del Holocausto, Donald Trump, activistas antivacunas y otros malos actores. Al decidir qué discurso es privilegiado o permitido en su plataforma, Facebook siempre será demasiado lento para reaccionar, demasiado cauteloso e ineficaz. Zuckerberg solo se preocupa por el compromiso y el crecimiento. Nuestros corazones y mentes están atrapados en la balanza.

La parte más aterradora de «The Ugly Truth», el pasaje que hizo que todos en Silicon Valley hablaran, fue el memo del mismo nombre: «The Ugly» de Andrew «Boz» Bosworth de 2016.

En el memo, Bosworth, el antiguo ayudante de Zuckerberg, escribe:

Entonces conectamos a más personas. Eso puede ser malo si lo hacen negativo. Tal vez a alguien le cueste la vida exponer a alguien a los matones. Quizás alguien muera en un ataque terrorista coordinado con nuestras herramientas. Y todavía conectamos a la gente. La fea verdad es que creemos en conectar a las personas tan profundamente que cualquier cosa que nos permita conectar a más personas con más frecuencia es de facto bueno.

Zuckerberg y Sheryl Sandberg hicieron que Bosworth se retractara de sus declaraciones cuando los empleados se opusieron, pero para los forasteros, el memo representa la identificación sin adornos de Facebook, la fea verdad. El monopolio de Facebook, su dominio sobre nuestro tejido social y político, su crecimiento a toda costa, el mantra de la «conexión», no es bueno de facto. Como reconoce Bosworth, Facebook provoca suicidios y permite que los terroristas se organicen. Todo este poder concentrado en manos de una corporación, dirigida por un solo hombre, es una amenaza para nuestra democracia y forma de vida.

Los críticos de la regulación de las redes sociales por parte de la FDA afirmarán que se trata de una invasión del Gran Hermano a nuestras libertades personales. Pero, ¿Cual es la alternativa? ¿Por qué sería malo para nuestro gobierno exigir que Facebook cuente al público sus cálculos internos? ¿Es seguro que el número de sesiones, el tiempo dedicado y el crecimiento de los ingresos sean los únicos resultados que importan? ¿Qué pasa con la salud mental colectiva del país y del mundo?

Negarse a estudiar el problema no significa que no exista. En ausencia de acción, nos quedamos con un solo hombre que decide qué es lo correcto. ¿Cuál es el precio que pagamos por la «conexión»? Esto no depende de Zuckerberg. La FDA debería decidir.


Source link

Neto

Soy Neto, creador de LaNetaNeta.com Me apasiona leer y aprender, disfruto escribir y compartir publicaciones interesantes con el publico.

¿Ya viste esto?

Botón volver arriba
La Neta Neta Nos gustaría mostrarle notificaciones de las últimas noticias y actualizaciones.
Dismiss
Allow Notifications