Estamos construyendo un mundo social+, pero ¿cómo lo moderaremos?

Estamos construyendo un mundo social+, pero ¿cómo lo moderaremos?

Juan S. Kim es el director ejecutivo de Sendbirdel proveedor líder de API para incorporar experiencias de chat, voz y video dentro de las aplicaciones móviles.

Más publicaciones de este colaborador ¿Arrendamiento de espacio de oficina creativo? no te jodas

Lo social ya no es solo lo que haces en Facebook; es lo que haces en cada aplicación que usas. Piense en la experiencia en Venmo, Strava, Duolingo o incluso Sephora.

Las empresas que implementan componentes sociales en sus aplicaciones y servicios, conocidas como empresas sociales+, prosperan porque pueden establecer conexiones y permitir interacciones con los usuarios.

D’Arcy Coolican de Andreessen Horowitz explicó el atractivo de las empresas sociales+, escribiendo:

“[Social+] puede ayudarnos a encontrar comunidad en todo, desde videojuegos hasta música y entrenamientos. Social+ ocurre cuando la utilidad que genera placer se integra cuidadosamente con esa conexión humana esencial. Eso es poderoso porque, en última instancia, cuantas más formas encontremos de conectarnos entre nosotros de manera auténtica y positiva, mejor”.

Social+ pronto impregnará todos los aspectos de nuestras vidas, acelerándose a un ritmo vertiginoso en los próximos meses. Apuesto a que la adopción continuará hasta el punto de la utilidad, donde cada empresa es una empresa social. Esto es muy emocionante, pero solo si planificamos en consecuencia. Como hemos visto con la influencia de las redes sociales en el pasado, es increíble… hasta que deja de serlo.

Lo que es increíblemente aditivo para la experiencia del usuario hoy en día podría convertirse en una auténtica pesadilla si las aplicaciones que invocan las redes sociales no encuentran religión en las prácticas de moderación sólidas e invierten los recursos necesarios para garantizar que construyan la tecnología y los procesos correctos desde el principio.

Aprendiendo de Facebook

Como pionero social de OG, Facebook redefinió cómo funciona la sociedad. Al hacerlo, soportó algunas lecciones muy dolorosas. En particular, debe soportar la carga de monitorear publicaciones individuales, grupales y de organizaciones de 1930 millones de usuarios activos diarios, todo mientras trata de cultivar un sentido de comunidad sin censura e impulsa la adopción, el compromiso y las ganancias de la plataforma. Si bien es probable que las empresas de Social+ no vean este tipo de volumen, al menos a corto plazo, aún tendrán que lidiar con los mismos problemas, solo que ya no tienen la excusa de no poder prever que tales cosas podrían suceder. .

Si Facebook y su ejército de desarrolladores, moderadores y la tecnología de inteligencia artificial luchan, ¿qué posibilidades tienes si no haces que la moderación y las pautas de la comunidad sean una prioridad desde el principio?

Veamos algunas áreas en las que Facebook tropezó con la moderación:

No tener en cuenta el mal comportamiento de los usuarios en medio de un rápido crecimiento: En los primeros días de Facebook, la moderación de la plataforma no se consideraba necesaria en lo que se consideraba un espacio gratuito dirigido por el usuario. La empresa era simplemente un conducto para la conexión. Facebook no reconoció el potencial de daño al usuario hasta que fue demasiado tarde para administrarlo de manera efectiva. Incluso con el software más avanzado y una fuerza laboral en la que 15 000 empleados se dedican únicamente a revisar contenido en 70 idiomas, la moderación de contenido sigue siendo un problema enorme que le ha costado a los usuarios de la empresa, dólares publicitarios y grandes cantidades de capital de reputación.
Subestimar la barrera del idioma: Si bien vivimos en una sociedad cada vez más global, conectados a través de redes y servicios en línea, los documentos presentados al Congreso mostraron que el 87 % del presupuesto global de Facebook asignado para identificar información errónea estaba reservado para Estados Unidos. Solo el 13% se destina a prácticas de moderación para el resto del mundo, a pesar de que los norteamericanos representan solo el 10% de sus usuarios diarios. Facebook intentó aplicar un software basado en IA para la moderación de contenido en mercados donde el lenguaje tiene muchos matices en un intento por abordar el problema, lo que no ha ido bien. En el mercado más grande de Facebook (India, con 350 millones de usuarios) la desinformación y los llamados a la violencia han proliferado por un déficit lingüístico. Es aún peor con los variados dialectos del norte de África y el Medio Oriente. Como resultado, las revisiones de contenido, tanto humanas como automatizadas, han permitido por error que el discurso de odio prolifere, mientras que las publicaciones benignas se eliminan por aparentemente promover actividades terroristas.
Ponerse político: El lenguaje más claro se ha convertido en un arma en los EE. UU. Las falsificaciones profundas y las campañas de desinformación se han normalizado, pero las publicaciones que Facebook elimina o marca legítimamente de acuerdo con los términos de su servicio provocan la ira de los usuarios que sienten que se están violando sus derechos de expresión y sus voces reprimidas. Esto ha causado una reacción negativa significativa del público, junto con una serie de nuevos procedimientos legales. Recientemente, el 1 de diciembre, un juez federal obstruido la entrada en vigor de una ley de Texas que permitiría a los residentes del estado demandar a Facebook por daños y perjuicios si su contenido se eliminara en función de creencias políticas. También se aprobó una ley similar en Florida, que intentaba responsabilizar a Facebook por censurar a candidatos políticos, sitios de noticias y usuarios. derribado. Estos intentos, sin embargo, muestran cuán indignadas se han vuelto las personas por las prácticas de moderación de contenido que no les gustan o que perciben que cambian con el tiempo para trabajar en su contra.
Determinar qué hacer con el contenido prohibido: También está la cuestión de qué sucede con ese contenido una vez que se elimina y si una empresa tiene la responsabilidad ética de entregar contenido objetable o alertar a las autoridades sobre posibles actividades ilegales. Por ejemplo, los fiscales exigen actualmente que Facebook entregue datos que les ayuden a identificar a los miembros de un grupo, la Guardia Civil de Nuevo México, que estuvieron involucrados en un incidente violento en el que un manifestante recibió un disparo. Facebook afirma que no puede ayudar porque borró registros del grupo, que había sido baneado. Las tensiones continúan estallando entre las fuerzas del orden y las empresas sociales en términos de quién posee qué, expectativas razonables de privacidad y si las empresas pueden publicar contenido.

Todas estas cuestiones deben ser consideradas cuidadosamente por las empresas que planean incorporar un componente social en su aplicación o servicio.

La próxima generación de aplicaciones sociales

El compromiso social es clave para las ventas, la adopción y mucho más, pero no debemos olvidar que los humanos tienen fallas. El trolling, el spam, la pornografía, el phishing y las estafas de dinero son una parte tan importante de Internet como los navegadores y los carritos de compras. Pueden acabar con y destruir una comunidad.

Considere: si Facebook y su ejército de desarrolladores, moderadores y la tecnología de inteligencia artificial luchan, ¿qué tipo de oportunidad tiene si no hace que la moderación y las pautas de la comunidad sean una prioridad desde el principio?

Las empresas deben crear características de moderación, o asociarse con empresas que brinden soluciones sólidas, que puedan escalar con la empresa, especialmente a medida que los servicios se vuelven globales. Esto no puede ser exagerado. Es fundamental para el éxito a largo plazo y la viabilidad de una plataforma, y ​​para el futuro del movimiento social+.

Sin embargo, para que las herramientas de moderación hagan su parte, las empresas deben crear códigos de conducta claramente definidos para las comunidades, que minimicen las áreas grises y que estén escritos de manera clara y concisa para que todos los usuarios comprendan las expectativas.

La transparencia es vital. Las empresas también deben tener una estructura establecida sobre cómo manejan la conducta inapropiada: ¿cuáles son los procesos para eliminar publicaciones o bloquear usuarios? ¿Cuánto tiempo estarán bloqueados de las cuentas? ¿Pueden apelar?

Y luego la gran prueba: las empresas deben hacer cumplir estas reglas desde el principio con consistencia. Cada vez que hay ambigüedad o una comparación entre instancias, la empresa pierde.

Las organizaciones también deben definir su postura sobre su responsabilidad ética cuando se trata de contenido objetable. Las empresas tienen que decidir por sí mismas cómo gestionarán la privacidad y el contenido de los usuarios, en particular aquellos que puedan ser de interés para las fuerzas del orden. Este es un problema complicado, y la forma en que las empresas sociales pueden mantener sus manos limpias es articular claramente la postura de privacidad de la empresa en lugar de esconderse de ella, sacando a relucir solo cuando surge un problema.

Los modelos sociales se están integrando en todas las aplicaciones, desde fintech hasta atención médica y entrega de alimentos para hacer que nuestras vidas digitales sean más atractivas y divertidas. Al mismo tiempo, los errores son inevitables ya que las empresas crean una forma completamente nueva de comunicarse con sus usuarios y clientes.

Lo importante ahora es que las empresas de Social+ aprendan de pioneros como Facebook para crear mundos en línea más seguros y cooperativos. Solo requiere algo de previsión y compromiso.


Source link