Lo que está en juego en el histórico caso de la Corte Suprema sobre las redes sociales

Lo que está en juego en el histórico caso de la Corte Suprema sobre las redes sociales

La Corte Suprema está lista para decidir si un par de leyes estatales pueden remodelar la capacidad de las empresas de redes sociales para controlar lo que aparece (y lo que no) en sus plataformas.

La semana pasada, la Corte Suprema decidió que escucharía el par de casos, que giran en torno a los republicanos que elaboran leyes estatales específicas que ordenan a las plataformas mantener sus manos alejadas de algunas publicaciones en las redes sociales. Desde los primeros días de la administración Trump, los republicanos han acusado a las empresas de redes sociales de suprimir deliberadamente los puntos de vista conservadores.

Si bien las investigaciones no han respaldado estas afirmaciones, los investigadores han demostrado que los usuarios conservadores de las redes sociales están desproporcionadamente expuestos a desinformación política, un fenómeno que podría explicar afirmaciones anecdóticas de aplicación de la ley ideológicamente desequilibrada en las plataformas sociales.

Ya sea animados por esas diferencias percibidas o por las ventajas políticas de acusar a las plataformas sociales de sesgo anticonservador, los legisladores conservadores en Florida y Texas aprobó leyes para restringir la forma en que esas empresas pueden moderar el contenido.

Para explicar la decisión de la Corte Suprema de profundizar en estos temas, y lo que sucederá después, TechCrunch habló con Paul Barrett, profesor adjunto de derecho de la Universidad de Nueva York y director adjunto del Centro de Empresas y Derechos Humanos de la Universidad de Nueva York Stern.

¿Por qué está involucrada la Corte Suprema?

En realidad, estos casos comenzaron en Florida y Texas hace unos años antes de llegar a la Corte Suprema este año. En esos dos estados, los legisladores republicanos aprobaron leyes paralelas para controlar el funcionamiento de las empresas de redes sociales. En Florida, el gobernador Ron DeSantis promulgó el proyecto de ley 7072 del Senado en mayo de 2021. En Texas, el proyecto de ley 20 de la Cámara de Representantes pasó por la legislatura estatal y fue firmado por el gobernador Greg Abbott en septiembre de 2021.

“La razón por la que estos casos están ante la Corte Suprema es en realidad relativamente simple: Florida y Texas fueron más o menos los primeros en imponer este tipo de restricción a las empresas de redes sociales”, explicó Barrett. “Entonces, cuando la industria demandó a los estados bajo la Primera Enmienda, estos fueron los primeros casos que se litigaron, por lo que pasaron por el sistema judicial”.

Ambas leyes llegaron a los tribunales inferiores después de que el grupo de la industria tecnológica NetChoice y la Asociación de la Industria de Computación y Comunicaciones (CCIA) presentaran impugnaciones legales en su contra. Ese camino fue complicado y contradictorio, lo cual es parte de cómo el caso llegó al regazo de la Corte Suprema:

En ambos casos, hubo jueces federales de primera instancia que dictaron mandamientos judiciales que bloqueaban las leyes por motivos constitucionales. Y luego había dos tribunales federales de apelaciones diferentes: en el caso de Florida, el Undécimo Circuito, en el caso de Texas, el Quinto Circuito.

Los dos tribunales de apelaciones chocaron… y hubo un conflicto explícito entre los dos tribunales federales de apelaciones. Y ese tipo de conflicto es una de las bases que utiliza la Corte Suprema de Estados Unidos para decidir cuándo tomar casos.

¿Qué tiene esto que ver con la Primera Enmienda?

El caso gira en torno a los derechos de la Primera Enmienda, pero, contraintuitivamente, son los derechos de las empresas de redes sociales los que están en cuestión, no los derechos de sus usuarios.

“La pregunta aquí es: ¿las empresas de redes sociales tienen el derecho protegido por la Primera Enmienda de ejercer lo que podríamos llamar juicio editorial?”

“Estos casos tratan sobre la Primera Enmienda y cómo se aplica la Primera Enmienda a las empresas de redes sociales. Y luego, más específicamente, lo que la Primera Enmienda tiene que decir sobre la moderación de contenido, que obviamente es un subconjunto, aunque realmente grande e importante, de lo que hacen las empresas de redes sociales”, dijo Barrett.

“La pregunta aquí es: ¿Tienen las empresas de redes sociales el derecho protegido por la Primera Enmienda de ejercer lo que podríamos llamar criterio editorial, o lo que también podríamos llamar moderación de contenido, para determinar qué expresiones aparecen y no aparecen en las plataformas que poseen? ? Así que no está claro en este momento qué dice exactamente la Primera Enmienda sobre esa cuestión”.

¿Son idénticas las leyes de Texas y Florida?

Las dos leyes (HB 20 en Texas y SB 7072 en Florida) son muy similares en sus orígenes e intenciones, pero divergen ligeramente en la forma en que buscan restringir las plataformas de redes sociales.

En ambos casos, una disposición de la ley estatal ordenó a las empresas de redes sociales que dejaran de eliminar ciertos tipos de contenido. En Texas, la ley decía a las empresas de redes sociales que ya no podían eliminar ni desmonetizar contenido basándose en el “punto de vista representado en la expresión del usuario”. En Florida, la ley impediría que las empresas de redes sociales prohíban a candidatos políticos o eliminen o restrinjan su contenido. Las leyes tienen algunas disposiciones más, pero la idea es que los políticos conservadores de esos estados quieran regular cómo las empresas de tecnología interactúan con el contenido político.

“Están en el mismo estadio, el sentimiento es el mismo”, dijo Barrett. “Los legisladores republicanos en cada estado creen que –y lo dijeron explícitamente durante el debate y la aprobación de estas leyes– que los ‘oligarcas de Silicon Valley’… son liberales ideológicos, y están censurando a las personas que son conservadoras en nuestros estados, y por la presente ordenamos que dejen de hacer eso”.

¿Cómo podría afectar la decisión de la Corte Suprema a las empresas de redes sociales?

Si el tribunal determina que las empresas de redes sociales no tienen el derecho de la Primera Enmienda a seleccionar los tipos de contenido que permiten, las plataformas sociales podrían verse muy diferentes, al menos en los estados que están tratando de limitar sus poderes de moderación. Después de años de lento progreso en materia de desinformación (y retrocesos preocupantes en plataformas como X de Elon Musk), la decisión de la Corte Suprema podría alterar ese proceso, sembrando caos en línea en el proceso.

“Gracias a la Primera Enmienda, Florida y Texas no pueden obligar a los sitios web o aplicaciones de redes sociales a albergar contenido de odio, información errónea y spam, como lo exigirían sus leyes profundamente equivocadas”, dijo el senador de Oregón Ron Wyden, coautor de la Sección 230, una ley que protege las decisiones de moderación de contenido de las empresas de redes sociales, dijo a TechCrunch. “… Un fallo a favor de las leyes de Texas y Florida crearía un caos total y haría que muchos sitios resultaran inútiles para los usuarios habituales que quieren ver un vídeo divertido o fotos familiares”.

El presidente de NetChoice, Steve DelBianco, también prevenido que permitir que las leyes estatales entren en vigor desataría “una ola de contenido ofensivo y discurso de odio que se estrellaría contra los usuarios, creadores y anunciantes” que obligaría a los estadounidenses a sortear “epítetos raciales, homofobia agresiva, material pornográfico, decapitaciones o otro contenido espantoso” sólo para usar aplicaciones sociales.

Además de obligar a las plataformas a permitir algunas formas de contenido que de otro modo no estarían permitidas, estas leyes también buscan obligar a las empresas de redes sociales a brindar a los usuarios explicaciones individualizadas cuando su contenido es eliminado o restringido. Debido a que este proceso ahora se lleva a cabo en gran medida algorítmicamente (generalmente con una ligera intervención o supervisión humana), las empresas de redes sociales podrían necesitar reimaginar sus sistemas de moderación de contenido o contratar a muchos más humanos para responder a estos incidentes. Ese tipo de ajustes probablemente serían costosos y difíciles de ampliar.

“Como se puede imaginar, eso puede resultar algo oneroso cuando se eliminan millones y millones de contenidos al día, y gran parte de esa actividad, en su gran mayoría, se realiza actualmente de forma automática”, dijo Barrett. “La idea de que un ser humano tuviera que retroceder y explicar cada vez que algo sucediera sería todo un desafío”.


Source link