Las plataformas en línea aún no están lo suficientemente claras sobre los derribos del discurso de odio: CE

Las plataformas en línea aún no están lo suficientemente claras sobre los derribos del discurso de odio: CE

En su último informe de monitoreo de un Código de conducta voluntario sobre el discurso de odio ilegal, plataformas que incluyen Facebook, Twitter y YouTube firmadas en Europa en 2016, la Comisión Europea ha dicho que se está avanzando en la aceleración de los retiros, pero que las empresas de tecnología sí lo están. sigue rezagado cuando se trata de proporcionar comentarios y transparencia en torno a sus decisiones.

Las compañías tecnológicas ahora están evaluando el 89% del contenido marcado dentro de las 24 horas, y el 72% del contenido considerado como discurso de odio ilegal se eliminó, según la Comisión, en comparación con solo el 40% y el 28%, respectivamente, cuando el Código se lanzó por primera vez más de hace dos años.

Sin embargo, dijo hoy que las plataformas aún no dan suficiente información a los usuarios con respecto a los informes, y ha pedido más transparencia desde las plataformas, presionando para el progreso "en los próximos meses", advirtiendo que aún podría legislar para una regulación paneuropea Si cree que es necesario.

La comisionada Vera Jourova, que evaluó cómo funciona el (aún) voluntario código de eliminación de discursos de odio en la rueda de prensa, dijo: "La única brecha real que queda es la transparencia y la retroalimentación a los usuarios que enviaron notificaciones. [of hate speech].

“En promedio, alrededor de un tercio de las notificaciones no recibe comentarios que detallan la decisión tomada. Solo Facebook Tiene un estándar muy alto, enviando comentarios sistemáticamente a todos los usuarios. Así que nos gustaría ver avances en esto en los próximos meses. Del mismo modo, las empresas deben ser más transparentes para el público en general sobre lo que está sucediendo en sus plataformas. Nos gustaría verlos disponibles para que haya más datos disponibles sobre los avisos y eliminaciones ".

"La lucha contra el discurso ilegal de odio en línea no ha terminado. Y no tenemos indicios de que dicho contenido haya disminuido en las plataformas de redes sociales ”, agregó. "Permítanme ser muy claro: los buenos resultados de este ejercicio de monitoreo no significan que las empresas estén libres de problemas. Continuaremos monitoreando esto muy de cerca y siempre podemos considerar medidas adicionales si los esfuerzos se desaceleran ".

Jourova señaló los pasos adicionales tomados por la Comisión para apoyar el objetivo general de despejar lo que ella denominó "aguas residuales" de las plataformas en línea, como facilitar el intercambio de datos entre las empresas de tecnología y las fuerzas policiales para ayudar en las investigaciones y enjuiciamientos de los proveedores de discursos de odio. avanzar hacia adelante

También señaló que continúa brindando a los ministros de justicia de los Estados miembros información sobre cómo funciona el código voluntario, advirtiendo nuevamente: "Siempre discutimos que continuaremos, pero si se ralentiza o si deja de entregar los resultados, consideraremos algún tipo de regulación."

Alemania aprobó su propia ley de eliminación de discursos de odio en las redes sociales en 2016, con la llamada ley 'NetzDG' que entrará en vigencia a principios de 2017. La ley establece multas de hasta 50 millones de euros para las empresas que no eliminen el discurso de odio ilegal dentro de 24 horas y ha conducido a plataformas de medios sociales como Facebook para incorporar mayores recursos a los equipos de moderación locales.

Mientras, en el Reino Unido, el gobierno anunció un plan para legislar sobre seguridad y medios sociales el año pasado. Aunque aún no ha publicado un Libro Blanco que establezca los detalles de su plan de políticas.

La semana pasada, un comité parlamentario del Reino Unido que ha estado investigando los impactos de las redes sociales y el uso de pantallas entre los niños recomendó a la legislación del gobierno colocar un "deber de cuidado" legal en las plataformas para proteger a los menores.

El comité también pidió que las plataformas sean más transparentes, instándolos a proporcionar De buena fe investigadores con acceso a datos anónimos de alta calidad para permitir un interrogatorio sólido de los efectos de las redes sociales en los niños y otros usuarios vulnerables.

El debate sobre los riesgos y el impacto de las plataformas de redes sociales para niños se ha intensificado en el Reino Unido en las últimas semanas, luego de los informes sobre el suicidio de una niña de 14 años, cuyo padre culpó a Instagram por exponerla a publicaciones que alentaban autolesiones, y dijo que no tenía el contenido de la duda a la que había estado expuesta en la plataforma la había ayudado a matarla.

Durante la conferencia de prensa de hoy, se le preguntó a Jourova si la Comisión tiene la intención de extender el Código de conducta sobre el discurso de odio ilegal a otros tipos de contenido que atraigan preocupación, como la intimidación y el suicidio. Pero ella dijo que el cuerpo ejecutivo no pretende expandirse en esas áreas.

Dijo que el enfoque de la Comisión sigue siendo abordar el contenido que se considera ilegal según la legislación europea existente sobre el racismo y la xenofobia, diciendo que es un asunto que los Estados miembros individuales decidan legislar en áreas adicionales si consideran que es necesario.

"Estamos siguiendo lo que hacen los Estados miembros porque vemos … en cierta medida, una imagen fragmentada de diferentes problemas en diferentes países", señaló. “Nos centramos en cuál es nuestra obligación de promover el cumplimiento de la legislación europea. Cuál es la decisión marco contra el racismo y la xenofobia.

“Pero tenemos el grupo de expertos de los Estados miembros, en el llamado foro de Internet, donde hablamos de otros delitos o fuentes de odio en línea. Y vemos la determinación por parte de los Estados miembros de tomar medidas proactivas contra estos asuntos. Por lo tanto, esperamos que si existe una tendencia tan preocupante en algún Estado miembro que la aborde por medio de su legislación nacional ".

"Siempre te diré que no me gusta la fragmentación del marco legal, especialmente cuando se trata de digital porque nos enfrentamos, más o menos, a los mismos problemas en todos los Estados miembros", agregó. "Pero es cierto que cuando [take a closer look] Usted ve que hay problemas específicos en los Estados miembros, que también pueden estar relacionados con su historia o cultura, que en algún momento las autoridades nacionales consideran necesario reaccionar mediante una regulación. Y la Comisión no está obstaculizando este proceso.

"Esta es la decisión soberana de los Estados miembros".

El año pasado, cuatro plataformas tecnológicas más se unieron al código de conducta voluntario sobre el discurso de odio ilegal: a saber, Google+, Instagram, Snapchat, Dailymotion. Mientras que la plataforma de juegos francesa Webedia (jeuxvideo.com) también anunció su participación hoy.

Al profundizar en el desempeño de plataformas específicas, el ejercicio de monitoreo de la Comisión encontró que Facebook evaluó los informes de incitación al odio en menos de 24 horas en el 92.6% de los casos y en el 5.1% en menos de 48 horas. Las cifras de rendimiento correspondientes para YouTube. fueron 83.8% y 7.9%; y para Twitter 88.3% y 7.3%, respectivamente.

Mientras que Instagram logró el 77.4% de las notificaciones evaluadas en menos de 24 horas. Y Google+, que en cualquier caso se cerrará a los consumidores este abril, logró evaluar solo el 60%.

En cuanto a las eliminaciones, la Comisión descubrió que YouTube eliminó el 85.4% del contenido informado, Facebook 82.4% y Twitter el 43.5% (este último constituye una ligera disminución en el rendimiento en comparación con el año pasado). Mientras que Google+ eliminó el 80.0% del contenido e Instagram el 70.6%.

Argumenta que, a pesar de que las plataformas de redes sociales eliminan el contenido ilegal "más y más rápidamente", como resultado del código, esto no ha llevado a una "remoción excesiva" del contenido, lo que apunta a tasas de eliminación variables como una indicación de que "la revisión Hecho por las empresas sigue respetando la libertad de expresión ".

"Las tasas de eliminación variaron según la gravedad del contenido odioso", escribe la Comisión. "En promedio, se eliminó el 85.5% del contenido que requiere asesinato o violencia contra grupos específicos, mientras que el contenido que usa palabras o imágenes difamatorias para nombrar a ciertos grupos se eliminó en el 58.5% de los casos".

"Esto sugiere que los revisores evalúen el contenido de manera escrupulosa y con total respeto al discurso protegido", agrega.

También le da crédito al código por ayudar a fomentar las asociaciones entre las organizaciones de la sociedad civil, las autoridades nacionales y las plataformas tecnológicas, en temas clave como la sensibilización y las actividades educativas.


Source link