Cómo Reddit dio a luz a una comunidad de vigilantes digitales

Cómo Reddit dio a luz a una comunidad de vigilantes digitales

Regla uno: no acoso / intolerancia. Regla dos: no hay edición de fotos. Regla tres: el aspecto "Sin maquillaje" debe tener antes / después. Regla cuatro: todas las fotos deben mostrar el maquillaje claramente y estar recortadas correctamente. Regla cinco: todos los looks y colecciones de maquillaje deben incluir una lista detallada de productos. Regla seis: Todas las miradas de "sangre falsa / lesión" deben estar marcadas NSFW. Regla siete: No se promociona a sí mismo. Regla ocho: Muestra los productos. Regla nueve: Proporcione la fuente.

En una de las salas de chat más aparentemente inocuas que puedas imaginar, la mayoría de las mujeres y algunos hombres también comparten sus últimos experimentos de maquillaje, esperando algún comentario, alguna crítica crítica que los ayude a perfeccionar ese delineador alado, ese prístino mirada de sombra de ojos arrugada, ese puchero muy buscado de Kylie Jenner.

Técnicamente, es un subreddit, que es un foro dedicado a un área específica de nicho en Reddit. Este subreddit, r / MakeupAddiction es uno de los más populares, con más de 1.6 millones de miembros suscritos. Y para todos esos usuarios, solo hay 10 moderadores de contenido que se aseguran de que las personas no publiquen algo fuera de tema, crudo o simplemente trollish. Y estas son sus reglas.

Cada subreddit tiene un conjunto de pautas específicas que están por debajo de las políticas propias de Reddit, que se aplican en todos los ámbitos. Los moderadores de r / MakeupAddiction, por ejemplo, decidieron que el foro era para compartir nuevas miradas y obtener comentarios sin hostigamiento. Curiosamente, los usuarios que comentan las fotos sin comentarios o comentarios específicos sobre el aspecto, sino que escriben un comentario sobre lo bonita que es la persona en la foto, son rechazados. Eso significa que su comentario tiene menos peso e incluso puede ser rechazado por los negativos, lo que oculta el comentario por completo.

imagenReddit / Captura de pantalla

De esa manera, la comunidad se autocontroló. En un caso, hace unos meses, una mujer que admitía tener un buen maquillaje mostraba mucho más de su pecho en la foto que su rostro real. Fue votado al infierno. Los usuarios de r / MakeupAddiction más o menos dijeron: "No estamos aquí para ver gente bonita, estamos aquí para ver looks de maquillaje geniales". Y así, un grupo de guerreros Reddit que votaron a favor y en contra se unieron a la creciente masa de usuarios que moderaron voluntariamente el sitio para mantener sus espacios sagrados.

No todos los subreddit tienen que ver con el maquillaje, por supuesto. Parte de la moderación del contenido requiere ver contenido grotesco, como imágenes y videos violentos, o al menos contenido inapropiado, como fotos de penes donde no pertenecen.

Robert Peck, un mod de uno de los 10 subreddits más populares de Reddit, r / aww, que se especializa en animales lindos, escribió sobre las partes no tan divertidas de su trabajo en Cableado:

En / r / aww, las personas no siempre envían fotos de gatitos y cachorros. A veces publican porno gore o amenazas para encontrarme y lastimarme. Mis reglas son obvias (los gatitos son geniales; no hay porno sangriento, no hay amenazas) y están diseñadas para evitar el mal uso de la plataforma (sin enlaces o manejadores de redes sociales y sin spam). En / r / pokemon, bloqueo imágenes de, por ejemplo, orugas, porque esos no son Pokémon, ¿verdad? No, no, no lo son.

Todo esto aumenta las apuestas para una empresa como Reddit: ¿cómo puede moderar el contenido en un sitio web de redes sociales sin censurar por completo a sus usuarios? Es algo con lo que otras compañías como Facebook y Twitter, en particular, también deben lidiar, pero parece que Reddit tiene la receta de mejor sabor.

El primer empleado remunerado de Reddit, Chris Slowe, un ingeniero que ahora trabaja como Director Técnico, dice que es una delicada mezcla de interacción entre humanos y computadoras.

La mayor parte del trabajo es realizado por humanos, no por robots, dice Slowe. No es como las granjas modificadas de contenido subcontratadas en países asiáticos, como Filipinas, donde la gente está tan estresada por el trabajo que se suicidan en grandes cantidades. No, estos son los moderadores de subreddit que trabajan como voluntarios, los usuarios que votaron a favor del buen contenido y rechazaron lo irrelevante. Ven valor en ser mods; son los gobernantes de sus reinos. Son los vigilantes que vigilan el vecindario en sus comunidades digitales.

"Si miras las plataformas sociales, funcionan porque el 98 por ciento de las personas son buenas y divertidas", dice Slowe. "El problema es el 2 por ciento que no lo hacen. Como plataforma, nuestro trabajo y el trabajo de la comunidad es controlar el dos por ciento".

"Piensa en ello como un embudo".

Slowe, quien comenzó en Reddit en 2005, ahora tiene alrededor de 250 ingenieros que le informan. En total, la compañía tiene unos 550 empleados remunerados, dice. Pero cuando era solo él y los cofundadores Alexis Ohanian, Steve Huffman y Aaron Swartz, estaba escribiendo el código para lo que ahora se considera la pila web más antigua de Reddit.

En esos días, el equipo comenzó a modelar su sitio después de Slashdot, un sitio web de noticias sociales con el lema "Noticias para nerds. Cosas que importan" que se lanzó en 1997 y aún se considera un competidor de Reddit. Slashdot se asemeja a Reddit de hoy en muchos aspectos, especialmente debido al formato de comentarios y sistemas de votación, que hacen que los sitios sean más democráticos en la toma de decisiones y, con suerte, facilitan el trabajo de moderación de contenido; los usuarios literalmente le dicen al sitio lo que hacen y no les gusta.

    La compañía ha evolucionado para pensar en la moderación de contenido como una especie de sistema de tres niveles, dice Slowe.

    "Tenemos un equipo de operaciones que está a cargo de la aplicación de la plataforma", dice. Su trabajo es asegurarse de que nadie viole las reglas de la comunidad. Esto es lo que puede esperar: sin pornografía infantil, sin acoso, sin spam, sin solicitar servicios, todo el asunto.

    En palabras de Slowe, estos son el "conjunto de cosas que un usuario marca automáticamente y se infiltra en nosotros".

    Piense en ello como cómo se establece un gobierno en capas. "Tenemos que limpiar el desorden", dice Slowe, pero es la parte más pequeña del proceso, que involucra solo unas pocas docenas de humanos (sin mod granjas, afortunadamente) y algo de ayuda de las máquinas a través de algoritmos que detectan contenido inadecuado.

    El lado humano es importante para Reddit, dice Slowe. Es mejor que "dejarlo a un aprendizaje automático de caja negra". Y donde se requieren modificaciones de humanos pagados, dice que el equipo de Reddit presta especial atención a su salud mental.

    "Están cumpliendo efectivamente el papel de soldados. El TEPT es algo real para las personas que realizan este tipo de trabajo estresante".

    Aparte de eso, es el salvaje oeste en los subreddits. Entonces entra la guardia de la comunidad de voluntarios y su panóptico de moderación. En términos de Slowe, este es el nivel dos de esa analogía gubernamental.

    Los moderadores voluntarios de subreddit establecen reglas y cómo hacerlas cumplir con casi total libertad, siempre y cuando sigan las pautas de la comunidad que Reddit ha establecido sobrecarga. En el subreddit r / AskScience, por ejemplo, es un requisito que responda a las preguntas de los usuarios en terminología que un estudiante de secundaria o menor pueda entender. Profesionales de la universidad, cuidado con dar conferencias aquí.

    Curiosamente, cuando los moderadores no mantienen su contrato social con los usuarios de Reddit, aquellos en el subreddit realmente retroceden, dice Slowe. Pueden expulsar a un moderador, crear nuevas reglas o dividir la población subreddit en dos canales separados con temas ligeramente diferentes. Puede ser complicado, dice, pero esa es la naturaleza de las personas.

    Pero el componente más interesante del sistema de moderación de contenido de Reddit es su binario upvote / downvote en toda la comunidad.

    "Votación es moderación entre pares ", enfatizó Slowe." No deberías votar en contra si no estás de acuerdo, pero el voto en contra es como la señal que cubre "No quiero ver más de esto, vete".

    Eso es diferente de informar contenido que no desea ver, que es más común en sitios como Facebook.

    Mantener el contenido actualizado en Reddit, pero permitir que se rechace, también es de naturaleza democrática, argumenta Slowe. Porque de lo contrario, si solo hay "aspectos positivos" en un subreddit dado, los usuarios se encontrarán profundamente dentro de una cámara de eco.

    Los números no mienten. Slowe informa que en la última década, Reddit ha visto una proporción de siete votos a favor y de voto negativo, en promedio, en todo el sitio.

    ¿Qué está tan roto en la moderación de contenido?

    Los comerciantes de acciones trabajan en sus computadoras

    Mark Petersonimágenes falsas

    Bueno que es no roto con el sistema? En un informe de abril de 2019 de la Electronic Frontier Foundation, un grupo sin fines de lucro de derechos digitales establecido en San Francisco en 1990, el grupo definió la moderación de contenido como "la publicación, la reducción y, a veces, la censura directa de información y / o cuentas de usuarios de las redes sociales y otros plataformas digitales, generalmente basadas en una supuesta violación de la política de 'estándares comunitarios' de una plataforma ".

    La cuestión es que las normas y políticas de la comunidad, en la mayoría de los casos, se inventan sobre la marcha, según las fuentes del informe. En un escenario, Roz Bowden, ahora administradora de finanzas de la Royal Society for the Prevention of Cruelty to Animals in Southwater, Inglaterra, recordó su experiencia trabajando en el turno de noche para MySpace entre 2005 y 2008 durante una conversación con la BBC:

    Tuvimos que inventar las reglas. ¿Ver porno y preguntar si usar un pequeño bikini con correa de espagueti era desnudo? ¿Preguntar cuánto sexo es demasiado sexo para MySpace? Inventar las reglas a medida que avanzábamos. ¿Deberíamos permitir que alguien corte la cabeza de alguien en un video? No, pero ¿y si es una caricatura? ¿Está bien que Tom y Jerry lo hagan?

    Bowden recordó que era un enfoque a medias, y las decisiones que ella y su pequeño equipo, además de docenas más en otras compañías de redes sociales, continuaron dando forma a la moderación del contenido tal como lo entendemos hoy.

    Luego está el problema de las granjas de moderación de contenido en países remotos, donde los magnates ricos en tecnología no ven a los contratistas en absoluto. Enfrentan estrés extremo, a veces hasta el punto de desarrollar TEPT, y muchos trabajadores se deprimen. Según los informes, en la India, a algunos trabajadores se les paga solo $ 6 por hora para ver imágenes y videos inquietantes durante horas y horas.

    Entonces, ¿es un problema de personas? Bueno, si la moderación de contenido se realiza completamente mediante sistemas artificialmente inteligentes, los algoritmos aún son entrenados por personas y tienen un sesgo, por definición. Hay un famoso ejemplo de un algoritmo de Google que detectó a los afroamericanos como gorilas, y esa es solo una de las muchas veces que la IA no ha funcionado tan bien.

    Además, ¿realmente queremos que las computadoras nos digan qué hacer? Casi puedes imaginar a HAL como un moderador de contenido, observando por encima de tu hombro mientras escribes algo y miras a la voz incorpórea para obtener permiso para publicar.

    "Lo siento, Dave, me temo que no puedo hacer eso".

    ¿Cómo cambiará la tecnología la moderación?

    WORLDZ Cultural Marketing Summit 2017

    Jerod Harrisimágenes falsas

    Aún así, la nueva tecnología inevitablemente será parte de la evolución de la moderación de contenido. Ya lo hemos visto en los casi 15 años que Reddit ha existido.

    Combinar humanos y software equitativamente es la clave, dice el cofundador de Reddit Alexis Ohanian. Aunque ya no trabaja para Reddit, Ohanian regresó a la compañía en 2014 después de un paréntesis para ayudarlo como presidente ejecutivo. Dijo que el uso de personas, inteligencia artificial y aprendizaje automático de la compañía es la magia detrás de la filosofía única de Reddit hacia la moderación de contenido.

    "Realmente combinamos moderación humana con software y, en particular, automatizamos el filtrado de contenido a través de IA y ML", dijo Ohanian Mecánica Popular en el Congreso Mundial de Tecnología de la Información celebrado en Ereván, Armenia, el mes pasado."Podemos ver un sistema mucho más efectivo y las técnicas y las herramientas realmente no existían hace 10 años, simplemente no eran posibles".

    Esa tecnología está haciendo que la moderación de contenido sea mucho más fácil y eficiente, dijo Ohanian. "Por lo tanto, es algo emocionante porque creemos que estamos a la vanguardia".

    Slowe está de acuerdo. Él dice que los bots en el ecosistema de Reddit son uno de los mayores activos del sitio. Y generalmente son todos creados por los propios usuarios, no por la empresa.

    "La mayoría de los bots son realmente buenos bots, y son personas que escriben guiones simples", dice Slowe.

    Hay un bot que realiza un seguimiento de cuántos usuarios responden a los comentarios de un bot con "bot bueno" o "bot malo" para llevar la cuenta de los programas más útiles y menos útiles. Hay un bot TLDR que resume los comentarios. Hay bots que redimensionan los GIF para teléfonos. Todo es muy creativo, dice Slowe, pero si los bots son spam, Reddit se deshace de ellos.

    Cuando se trata de aprendizaje automático, Reddit permite que el software haga el trabajo cuando hay un área gris para un administrador o moderador. Además, simplemente no hay suficiente mano de obra para verificar físicamente cada comentario. Slowe dice que hay alrededor de 1 millón de usuarios activos mensuales por cada empleado en Reddit.

    Aún así, dice que la belleza de Reddit radica en dejar que las personas sean personas. "Habrá cosas que son grises y nerviosas, pero debes lidiar con ellas".

    "La civilización en línea es solo otro tipo de civilización", continúa Slowe. "Usted tiene policías reales que la vigilan y personas normales que prestan atención e informan cosas. Ha funcionado durante más de 10 años, y solo podemos esperar que funcione durante otros 10 ".


Source link