El tribunal superior de Europa ha establecido una nueva línea para la vigilancia de los discursos ilegales en línea. El fallo tiene implicaciones sobre cómo se regula el discurso en las plataformas en línea, y es probable que alimente una reforma más amplia planificada de las normas regionales que rigen las responsabilidades de las plataformas.
Según la decisión del TJUE, las plataformas como Facebook pueden recibir instrucciones para buscar y eliminar el discurso ilegal en todo el mundo, incluido el discurso que es "equivalente" al contenido que ya se considera ilegal.
Aunque tales derribos permanecen en el marco del "derecho internacional relevante".
Entonces, en la práctica, eso no significa que una orden judicial emitida en un país de la UE se aplicará universalmente en todas las jurisdicciones, ya que no existe un acuerdo internacional sobre lo que constituye discurso ilegal o discurso aún más difamatorio.
Las normas vigentes de la UE sobre el libre flujo de información en las plataformas de comercio electrónico, también conocida como la Directiva de comercio electrónico, que establecen que los Estados miembros no pueden forzar una "obligación general de monitoreo de contenido" a los intermediarios, no impiden que los tribunales ordenen a las plataformas que eliminen o bloqueen el discurso ilegal. la corte ha decidido.
Esa decisión preocupa a los defensores de la libertad de expresión que están preocupados de que pueda abrir la puerta a las obligaciones generales de monitoreo que se colocan en las plataformas tecnológicas de la región, con el riesgo de un efecto negativo en la libertad de expresión.
Facebook también ha expresado preocupación. En respuesta al fallo en un comunicado, un portavoz nos dijo:
“Este juicio plantea preguntas críticas sobre la libertad de expresión y el papel que las compañías de Internet deberían jugar en el monitoreo, interpretación y eliminación de discursos que podrían ser ilegales en un país en particular. En Facebook, ya tenemos estándares comunitarios que describen lo que las personas pueden y no pueden compartir en nuestra plataforma, y tenemos un proceso para restringir el contenido si viola las leyes locales. Este fallo va mucho más allá. Socava el principio de larga data de que un país no tiene derecho a imponer sus leyes sobre el discurso en otro país. También abre la puerta a las obligaciones que se imponen a las compañías de Internet para monitorear proactivamente el contenido y luego interpretar si es "equivalente" al contenido que se ha encontrado que es ilegal. Para lograr esto, los tribunales nacionales deberán establecer definiciones muy claras sobre lo que significa "idéntico" y "equivalente" en la práctica. Esperamos que los tribunales adopten un enfoque proporcionado y medido, para evitar tener un efecto escalofriante en la libertad de expresión ".
Las preguntas legales fueron remitidas al TJUE por un tribunal en Austria, y se derivan de una acción de difamación presentada por la política austríaca del Partido Verde, Eva Glawischnig, quien en 2016 presentó una demanda contra Facebook después de que la compañía se negó a eliminar publicaciones que, según ella, eran difamatorias su.
En 2017, un tribunal austriaco dictaminó que Facebook debería eliminar las publicaciones difamatorias y hacerlo en todo el mundo. Sin embargo, Glawischnig también quería que eliminara publicaciones similares, no solo copias idénticas del discurso ilegal, que, según ella, eran igualmente difamatorias.
La situación actual en la que las plataformas requieren notificación de contenido ilegal antes de llevar a cabo una eliminación es problemática, desde una perspectiva, dada la escala y la velocidad de distribución de contenido en plataformas digitales, lo que puede hacer que sea imposible mantenerse al día con la publicación de nuevas publicaciones.
La plataforma de Facebook también tiene grupos cerrados donde el contenido puede compartirse fuera de la vista de los no miembros y, por lo tanto, una persona no podría tener la capacidad de ver contenido ilegal dirigido a ellos, lo que hace que sea esencialmente imposible que lo denuncien.
Si bien el caso se refiere al alcance de la aplicación de la ley de difamación en la plataforma de Facebook, el fallo claramente tiene implicaciones más amplias para regular una gama de contenido "ilegal" en línea.
Específicamente, el TJUE ha dictaminado que se puede ordenar a un "proveedor anfitrión" del servicio de la sociedad de la información que:
- … Eliminar la información que almacena, cuyo contenido es idéntico al contenido de información que previamente se declaró ilegal, o bloquear el acceso a esa información, independientemente de quién solicitó el almacenamiento de esa información;
- … eliminar la información que almacena, cuyo contenido es equivalente al contenido de información que previamente se declaró ilegal, o bloquear el acceso a esa información, siempre que el monitoreo y la búsqueda de la información en cuestión por dicho mandato judicial sean limitado a la información que transmite un mensaje cuyo contenido permanece esencialmente sin cambios en comparación con el contenido que dio lugar al hallazgo de ilegalidad y que contiene los elementos especificados en la orden judicial, y siempre que las diferencias en la redacción de ese contenido equivalente, en comparación con el la redacción que caracteriza la información que previamente se declaró ilegal, no requiere que el proveedor anfitrión realice una evaluación independiente de ese contenido;
- … Eliminar información cubierta por el mandato o bloquear el acceso a esa información en todo el mundo en el marco del derecho internacional pertinente
El tribunal ha tratado de equilibrar el requisito de la ley de la UE de ninguna obligación general de monitoreo en plataformas con la capacidad de los tribunales nacionales para regular el flujo de información en línea en casos específicos de discurso ilegal.
En la sentencia, el TJUE también invoca la idea de que los Estados miembros puedan "aplicar deberes de cuidado, que se pueden esperar razonablemente de ellos y que están especificados por la legislación nacional, para detectar y prevenir ciertos tipos de actividades ilegales" – diciendo la Dirección de comercio electrónico no se interpone en el camino de los estados que imponen tal requisito.
Algunos países europeos muestran apetito por una regulación más estricta de las plataformas en línea. En el Reino Unido, por ejemplo, el gobierno presentó propuestas para regular una gama de daños en línea de la junta a principios de este año. Mientras, hace dos años, Alemania introdujo una ley para regular la eliminación de los discursos de odio en las plataformas en línea.
En los últimos años, la Comisión Europea También ha mantenido la presión sobre las plataformas para acelerar la eliminación de contenido ilegal: firmar compañías de tecnología con un código de práctica voluntario, en 2016, y continuar advirtiendo que podría introducir legislación si no se cumplen los objetivos.
Por lo tanto, la decisión de hoy se interpreta en algunos sectores como la puerta de entrada a una reforma más amplia de la ley de responsabilidad de la plataforma de la UE por parte de la Comisión entrante, lo que podría permitir imponer obligaciones de monitoreo o filtrado de contenido más generales, alineadas con las prioridades de seguridad de los Estados miembros .
"Podemos rastrear tendencias preocupantes de bloqueo de contenido en Europa", dice Sebastian Felix Schwemer, investigador en regulación algorítmica de contenido y responsabilidad de intermediario en la Universidad de Copenhague. "El legislador introdujo a principios de este año el filtrado de contenido proactivo por plataformas en la Directiva DSM de Copyright (" uploadfilters ") y sugirió de manera similar en una Propuesta de Reglamento sobre Contenido Terrorista, así como en una Recomendación no vinculante de marzo del año pasado".
Los críticos de una controvertida reforma de los derechos de autor, que fue acordada por los legisladores europeos a principios de este año, han advertido sistemáticamente que dará como resultado que las plataformas tecnológicas filtren previamente las cargas de contenido generadas por los usuarios. Aunque el impacto total aún está por verse, ya que los Estados miembros tienen dos años a partir de abril de 2019 para aprobar una legislación que cumpla con los requisitos de la Directiva.
En 2018, la Comisión también presentó una propuesta de reglamento sobre la prevención de la difusión de contenido terrorista en línea, que incluía explícitamente un requisito para que las plataformas utilicen filtros para identificar y bloquear las recargas de contenido terrorista ilegal. Aunque el elemento de filtro fue desafiado en el parlamento de la UE.
"Hay poca jurisprudencia sobre la cuestión de la supervisión general (prohibida de acuerdo con el artículo 15 de la Directiva de comercio electrónico), pero la cuestión es muy actual", dice Schwemer. "Tanto hacia la tendencia hacia el filtrado de contenido proactivo por plataformas como el impulso del legislador por estas medidas (Artículo 17 de la Directiva DSM sobre derechos de autor, Propuesta de contenido terrorista, la Recomendación no vinculante de la Comisión del año pasado)".
Schwemer está de acuerdo en que el fallo del TJUE tendrá "un amplio impacto" en el comportamiento de las plataformas en línea, yendo más allá de Facebook y la aplicación de la ley de difamación.
"Es probable que la Comisión entrante abra la Directiva de Comercio Electrónico (hay una nota conceptual filtrada por DG Connect de antes del verano)", sugiere. "Algo que anteriormente se percibía como la apertura de la caja de Pandora. La decisión también influirá en el próximo proceso legislativo ”.
El fallo también plantea naturalmente la pregunta de qué constituye contenido ilegal "equivalente"? ¿Y quién y cómo serán los jueces de eso?
El TJUE entra en algunos detalles sobre "elementos específicos" que dice que son necesarios para que el discurso ilegal no idéntico sea juzgado de manera equivalente ilegal, y también sobre los límites de la carga que debe colocarse en las plataformas para que no tengan la obligación general de supervisar el contenido, lo que en última instancia implica que los filtros tecnológicos, no las evaluaciones humanas, deben usarse para identificar un discurso equivalente.
Del juicio:
… es importante que la información equivalente a la que se hace referencia en el párrafo 41 anterior contenga elementos específicos que estén debidamente identificados en la orden judicial, como el nombre de la persona afectada por la infracción determinada anteriormente, las circunstancias en que se determinó dicha infracción y el contenido equivalente a lo que se declaró ilegal. Las diferencias en la redacción de ese contenido equivalente, en comparación con el contenido que se declaró ilegal, no deben, en ningún caso, exigir que el proveedor de acogida en cuestión realice una evaluación independiente de ese contenido.
En esas circunstancias, una obligación como la descrita en los párrafos 41 y 45 anteriores, por un lado, en la medida en que también se extiende a la información con contenido equivalente, parece ser lo suficientemente efectiva como para garantizar que la persona objetivo del difamatorio Las declaraciones están protegidas. Por otro lado, esa protección no se proporciona mediante una obligación excesiva impuesta al proveedor anfitrión, en la medida en que el monitoreo y la búsqueda de la información que requiere se limitan a la información que contiene los elementos especificados en la orden judicial, y su contenido difamatorio de naturaleza equivalente no requiere que el proveedor anfitrión realice una evaluación independiente, ya que este último recurre a herramientas y tecnologías de búsqueda automatizadas.
"Los pensamientos del Tribunal sobre el filtrado de información" equivalente "son interesantes", continúa Schwemer. "Todo se reduce a que se puede ordenar a las plataformas que rastreen contenido ilegal, pero solo bajo circunstancias específicas.
"En su breve fallo, el Tribunal llega a la conclusión … de que no es una obligación general de monitoreo de los proveedores de hosting eliminar o bloquear contenido equivalente. Esto se debe a que la búsqueda de información se limita a contenido esencialmente sin cambios y que el proveedor de alojamiento no tiene que llevar a cabo una evaluación independiente, sino que puede confiar en tecnologías automatizadas para detectar ese contenido ".
Si bien dice que las intenciones de la corte – para "limitar la difamación" – son "buenas", señala que "depender de tecnologías de filtrado está lejos de ser poco problemático".
Los filtros pueden ser una herramienta extremadamente contundente. Incluso los filtros de texto básicos pueden ser activados por palabras que contienen una ortografía prohibida. Si bien la aplicación de filtros para bloquear el discurso difamatorio podría conducir, por ejemplo, a bloquear involuntariamente las reacciones legales que citan el discurso ilegal.
El fallo también significa que las plataformas y / o sus herramientas tecnológicas se ven obligadas a definir los límites de la libre expresión bajo amenaza de responsabilidad. Lo que los empuja a establecer una línea más conservadora sobre la expresión aceptable en sus plataformas, para reducir su riesgo legal.
Aunque las definiciones de lo que es discurso ilegal e igualmente ilegal, finalmente recaerán en los tribunales.
Vale la pena señalar que las plataformas ya están definiendo los límites del habla, solo impulsados por sus propios incentivos económicos.
Para las plataformas con publicidad, estos incentivos generalmente exigen maximizar la participación y el tiempo dedicado a la plataforma, lo que tiende a alentar a los usuarios a difundir contenido provocativo / escandaloso.
Eso puede resumir a clickbait y noticias basura. Igualmente puede significar las cosas más odiosas bajo el sol.
Sin un nuevo paradigma de modelo de negocio en línea que cambie radicalmente los incentivos económicos en torno a la creación de contenido en plataformas, la tensión entre la libertad de expresión y el discurso de odio ilegal continuará. Al igual que la obligación general de monitoreo de contenido que dichas plataformas imponen a la sociedad.