Adam Mosseri de Instagram se reunirá con el secretario de salud del Reino Unido por inquietudes sobre contenido de suicidio

Adam Mosseri de Instagram se reunirá con el secretario de salud del Reino Unido por inquietudes sobre contenido de suicidio

by

in

Se ha pedido a Adam Mosseri, el nuevo jefe de Instagram, que se reúna con el secretario de salud del Reino Unido, Matt Hancock, para hablar sobre el manejo de contenido de la plataforma de redes sociales que promueve el suicidio y la autolesión, informa la BBC.

La convocatoria de Mosseri sigue a una protesta en el Reino Unido por el contenido inquietante que se recomienda a los usuarios vulnerables de Instagram, tras el suicidio de una alumna de 14 años, Molly Russell, que se suicidó en 2017.

Después de su muerte, la familia de Molly descubrió que había estado siguiendo una serie de cuentas de Instagram que fomentaban la autolesión. En declaraciones a la BBC el mes pasado, el padre de Molly dijo que no dudaba que la plataforma hubiera jugado un papel en su decisión de suicidarse.

Escribiendo en el periódico Telegraph de hoy, Mosseri hace referencia directa a la tragedia de Molly, diciendo que se ha sentido "profundamente conmovido" por su historia y por las de otras familias afectadas por la autolesión y el suicidio, antes de admitir que Instagram todavía "no está". donde tenemos que estar en los temas ".

"Confiamos en gran medida en nuestra comunidad para informar sobre este contenido y eliminarlo tan pronto como se encuentre", escribe, y reconoce que la plataforma ha descargado la mayor parte de la responsabilidad de la política de contenido de los usuarios hasta el momento. "La conclusión es que aún no encontramos suficientes imágenes antes de que otras personas las vean", admite.

Mosseri luego usa el artículo para anunciar un par de cambios de política en respuesta a la protesta pública sobre el contenido de suicidio.

A partir de esta semana, dice que Instagram comenzará a agregar "pantallas de sensibilidad" a todo el contenido que revisa y que "contiene cortes". "Estas imágenes no serán visibles de inmediato, lo que dificultará que las personas las vean", sugiere.

Aunque eso claramente no impedirá que las nuevas cargas se distribuyan sin ser revisadas. (Tampoco evite que los usuarios jóvenes y vulnerables hagan clic para ver contenido perturbador, independientemente).

Mosseri justifica la decisión de Instagram de no eliminar todo el contenido relacionado con autolesiones y / o suicidios diciendo que su política es "permitir que las personas compartan que tienen dificultades incluso si ese contenido ya no aparece en las búsquedas, hashtags o recomendaciones de cuenta". ".

"Hemos analizado detenidamente nuestro trabajo y, aunque nos hemos centrado en la persona que es vulnerable a la autolesión, debemos hacer más para considerar el efecto de las imágenes de autolesión en aquellos que pueden estar dispuestos a seguir su ejemplo. " él continúa. "TEl suyo es un equilibrio difícil pero importante para hacerlo bien. Estos problemas llevarán tiempo, pero es fundamental que demos grandes pasos hacia adelante ahora. Para ello hemos empezado a hacer cambios ".

Otro cambio de política que revela es que Instagram detendrá sus algoritmos y recomendará activamente contenido adicional de autolesión a usuarios vulnerables. "[F]o imágenes que no promueven la autolesión, las dejamos en la plataforma, pero al avanzar no las recomendaremos en la búsqueda, los hashtags o la pestaña Explorar ", escribe.

Las recomendaciones no verificadas han abierto a Instagram a acusaciones de que esencialmente alienta a los usuarios deprimidos a autolesionarse (o incluso al suicidio) al incluir más contenido perturbador en sus feeds una vez que comienzan a mostrar interés.

Por lo tanto, poner límites a la forma en que los algoritmos distribuyen y amplifican el contenido sensible es un paso obvio y atrasado, pero que ha recibido una gran atención pública y política para Facebook empresa propia para hacer.

El año pasado, el gobierno del Reino Unido anunció planes para legislar en las redes sociales y la seguridad, aunque aún no ha publicado detalles de sus planes (se espera un documento que indique las responsabilidades de las plataformas en los próximos meses). Pero la semana pasada, un comité parlamentario del Reino Unido también instó al gobierno a colocar un "deber de cuidado" legal en las plataformas para proteger a los menores.

En una declaración dada a la BBC, el Departamento de Digital, Cultura, Medios y Deporte confirmó que dicha obligación legal sigue en la mesa. "Hemos escuchado los pedidos de un regulador de Internet y de colocar un" deber de cuidado "legal en las plataformas, y estamos considerando seriamente todas las opciones", dijo.

Hay pocas dudas de que la posibilidad de que la legislación relacionada con la seguridad entre en un mercado importante para la plataforma, combinada con la atención del público sobre la tragedia de Molly, haya impulsado el tema a la parte superior de la bandeja de entrada del jefe de Instagram.

Mosseri escribe ahora que Instagram comenzó "una revisión exhaustiva la semana pasada" con un enfoque en "apoyar a los jóvenes", agregando queEl enfoque revisado implica revisar las políticas de contenido, invertir en tecnología para "identificar mejor las imágenes sensibles a escala" y aplicar medidas para hacer que dicho contenido sea "menos detectable".

También dice que está "trabajando en más formas" para vincular a los usuarios vulnerables con recursos de terceros, como por ejemplo conectándolos con organizaciones con las que ya trabaja en el soporte al usuario, como Papyrus y samaritanos. Pero admite que la plataforma debe "hacer más para considerar el efecto de las imágenes de autolesión en aquellos que pueden inclinarse a seguir su ejemplo", no solo en el póster.

"Esta semana nos reuniremos con expertos y académicos, incluidos samaritanos, Papyrus y Save.org, para hablar sobre cómo respondemos a estas preguntas", agrega. “Estamos comprometidos a compartir públicamente lo que aprendemos. Queremos profundamente hacer esto bien y haremos todo lo posible para que eso suceda ".

Hemos contactado a Facebook, el padre de Instagram, para más comentarios.

Una forma en que las plataformas de contenido generado por el usuario podrían apoyar el objetivo de comprender mejor los impactos de sus propios algoritmos de distribución y amplificación es proporcionar datos de alta calidad a investigadores externos para que puedan interrogar los impactos de la plataforma.

Esa fue otra de las recomendaciones del comité de ciencia y tecnología del Reino Unido la semana pasada. Pero aún no está claro si el compromiso de Mosseri de compartir lo que Instagram aprende de las reuniones con académicos y expertos también hará que los datos fluyan de otra manera, es decir, con la plataforma propietaria para compartir. sus secretos con expertos para que puedan estudiar de manera robusta e independiente los impactos antisociales de las redes sociales.

Los algoritmos de recomendación se encuentran en el centro de muchos de los males percibidos en las redes sociales, y el problema se extiende mucho más allá de cualquier plataforma. De YouTube los motores de recomendación, por ejemplo, también han sido criticados durante mucho tiempo por tener un impacto similar de "radicalización", como por ejemplo, empujando a los espectadores de contenido conservador a puntos de vista mucho más extremos / de la derecha y / o teóricos de la conspiración.

Con el enorme poder de plataformas de los gigantes de la tecnología en el punto de mira, está claro que los pedidos de mayor transparencia solo crecerán, a menos que los reguladores hagan que el acceso y la supervisión de los datos y algoritmos de las plataformas sea un requisito legal.


Source link