¿Cómo debería Facebook decidir qué está permitido en su red social y cómo equilibrar la seguridad y la verdad con diversas opiniones y normas culturales? Facebook quiere tu opinión sobre los problemas más difíciles con los que está lidiando, así que hoy publicado una lista de siete “preguntas difíciles” y una dirección de correo electrónico, hardquestions@fb.com, donde puede enviar comentarios y sugerencias sobre más preguntas que debería abordar.
El plan de Facebook es publicar publicaciones de blog que examinen su lógica en torno a cada una de estas preguntas, comenzando más tarde hoy con una sobre cómo responder a la propagación del terrorismo en línea y cómo Facebook está atacando el problema.
[Update: Here is Facebook’s first entry in its “Hard Questions” series, which looks at how it counters terrorism. We have more analysis on it below]“Incluso cuando se muestra escéptico acerca de nuestras opciones, esperamos que estas publicaciones le den una mejor idea de cómo las abordamos y cuán en serio las tomamos”, escribe Elliot Schrage, vicepresidente de políticas públicas de Facebook. “Y creemos que al volvernos más abiertos y responsables, deberíamos poder cometer menos errores y corregirlos más rápido”.
Aquí está la lista de preguntas difíciles con algo de contexto de TechCrunch sobre cada una:
¿Cómo deben abordar las plataformas evitar que los terroristas difundan propaganda en línea?
Facebook ha trabajado en el pasado para cerrar páginas y cuentas que difunden descaradamente retórica terrorista. Pero las decisiones más difíciles vienen en la franja del área gris, y Donde dibujar la linea entre el discurso franco y la propaganda
Después de que una persona muere, ¿qué debería pasar con su identidad en línea?
Actualmente, Facebook convierte las cuentas de las personas en páginas conmemorativas que pueden ser moderadas por un ser querido que designan como su “contacto heredado” antes de fallecer, pero es complicado darle ese control a alguien, incluso a un miembro de la familia, si el fallecido no lo hizo. t hacer la elección.
¿Con qué agresividad deben las empresas de redes sociales monitorear y eliminar publicaciones e imágenes controvertidas de sus plataformas? ¿Quién decide qué es controvertido, especialmente en una comunidad global con una multitud de normas culturales?
Facebook tiene que caminar por una delgada línea entre hacer que su aplicación sea segura para una amplia gama de edades, así como para los anunciantes, y evitar la censura de temas muy debatidos. Facebook se ha metido recientemente en problemas por eliminar temporalmente videos de las secuelas de la violencia policial y la desnudez infantil en una foto histórica de interés periodístico que señala los horrores de la guerra. Mark Zuckerberg dice que quiere que Facebook permita a las personas establecer la severidad de su filtro y usar la configuración regional promedio de su comunidad como predeterminada, pero eso aún implica tomar muchas decisiones difíciles cuando las normas locales entran en conflicto con las globales. .
¿Quién puede definir qué son noticias falsas y qué es simplemente un discurso político controvertido?
Facebook ha sido atormentado por críticas desde las elecciones presidenciales de EE. UU. de 2016 por afirmaciones de que no hizo lo suficiente para evitar la difusión de noticias falsas, incluidas teorías de conspiración derechistas y exageraciones que pueden haberle dado una ventaja a Donald Trump. Si Facebook se convierte en la policía de la verdad y toma decisiones polarizadoras, podría alienar al lado conservador de su base de usuarios y fracturar aún más las comunidades en línea, pero si permanece inactivo, puede interferir gravemente con la necesidad de un electorado informado.
¿Son las redes sociales buenas para la democracia?
En un frente similar, Facebook está lidiando con la forma en que la distribución de “noticias” entre pares omite a los editores profesionales que generalmente protegen a los lectores de la inexactitud y la información errónea. Ese problema se exacerba cuando el contenido sensacionalista o engañoso suele ser el más atractivo, y eso es lo que destaca la sección de noticias. Facebook ha cambiado su algoritmo para degradar las noticias falsas y trabaja con verificadores de hechos externos, pero las burbujas de filtro más sutiles amenazan con aislarnos de perspectivas opuestas.
¿Cómo podemos usar los datos para el beneficio de todos, sin socavar la confianza de las personas?
facebook es un máquina de minería de datos, para bien o para mal. Estos datos impulsan la personalización útil del contenido, pero también permiten la publicidad altamente dirigida y otorgan a Facebook una influencia masiva sobre una amplia gama de industrias, así como sobre nuestra privacidad.
¿Cómo se debe presentar a los jóvenes usuarios de Internet nuevas formas de expresarse en un entorno seguro?
Las noticias importantes o el entretenimiento alegre para los adultos pueden ser impactantes o perturbadores para los niños. Mientras tanto, Facebook debe encontrar el equilibrio entre brindarles a los usuarios más jóvenes la capacidad de conectarse entre sí y formar redes de apoyo para mantenerlos a salvo de los depredadores. Facebook ha restringido la capacidad de los adultos para buscar niños y ofrece muchos recursos para los padres, pero permite que los menores publiquen publicaciones, lo que podría exponerlos a interacciones con extraños.
Contrarrestar el terrorismo
La publicación de Facebook sobre cómo lidia con el terrorismo es mucho menos para iniciar una conversación y, en cambio, enumera principalmente las formas en que combate su propaganda con IA, personal humano y asociaciones.
Imagen vía BuzzNigeria
Los métodos de Facebook para combatir el terrorismo en su red social incluyen: Coincidencia de imágenes para evitar cargas repetidas de contenido terrorista prohibido Comprensión del idioma a través de algoritmos que permiten a Facebook identificar texto que apoya el terrorismo y buscar texto similar. Eliminación de grupos terroristas mediante la búsqueda de cuentas conectadas o similares a las eliminadas por terrorismo Detectar y bloquear la reincidencia terrorista mediante la identificación de patrones que indican que alguien se vuelve a registrar después de haber sido eliminado La colaboración entre plataformas permite que Facebook tome medidas contra los terroristas en Instagram y WhatsApp también Facebook emplea a miles de moderadores para revisar el contenido marcado, incluidos especialistas en emergencias para manejar las solicitudes de aplicación de la ley, está contratando a 3000 moderadores más y cuenta con más de 150 expertos enfocados únicamente en contrarrestar el terrorismo. Facebook se asocia con otras compañías tecnológicas como Twitter y YouTube para compartir huellas dactilares de contenido terrorista. , recibe informes para agencias gubernamentales de todo el mundo y apoya programas para contrarrestar el discurso y el extremismo.
Desafortunadamente, la publicación ni siquiera incluye la dirección de correo electrónico de comentarios, ni plantea ninguna pregunta filosófica sobre dónde trazar la línea al revisar la propaganda.
[Update: After I pointed out the hardquestions@fb.com was missing from the counter-terrorism post, Facebook added it and tells me it will be included on all future Hard Questions posts. That’s a good sign that it’s already willing to listen and act on feedback.]La transparencia no alivia la urgencia
El subtexto detrás de las preguntas difíciles es que Facebook tiene que descubrir cómo existir como “una empresa de medios no tradicional”, como se refirió a Zuckerberg. La red social es simultáneamente una plataforma de tecnología abierta que es solo un esqueleto desarrollado por lo que los usuarios ofrecen voluntariamente, pero también un editor editorializado que hace juicios de valor sobre lo que es informativo o entretenido, y lo que es engañoso o distrae.
Es prudente que Facebook plantee estas preguntas públicamente en lugar de dejar que se enconen en la oscuridad. Quizás la transparencia le dará a la gente la tranquilidad de saber que Facebook al menos está pensando mucho en estos temas. La pregunta es si esta transparencia le da a Facebook un margen de maniobra para actuar con cautela cuando los problemas son urgentes y, sin embargo, genera miles de millones en ganancias por trimestre. No es suficiente solo con la colaboración colectiva de comentarios y soluciones. Facebook debe promulgarlos incluso si obstaculizan su negocio.
Source link