Los nuevos nombres de usuario no son el único cambio que se produce en la popular aplicación de chat Discord, ahora utilizada por 150 millones gente cada mes. La compañía también está probando un conjunto de controles parentales que permitiría una mayor supervisión de los usuarios más jóvenes de Discord, según descubrió TechCrunch y confirmó Discord. En una prueba en vivo que se ejecutó en la aplicación iOS de Discord en los EE. UU., la compañía presentó una nueva función de “Centro familiar”, donde los padres podrán configurar herramientas que les permitan ver los nombres y avatares de los amigos agregados recientemente de sus hijos adolescentes, los servidores el adolescente se ha unido o participado, y los nombres y avatares de los usuarios a los que ha enviado mensajes directamente o con los que ha participado en chats grupales.
Sin embargo, Discord aclara en una pantalla informativa que los padres no podrán ver el contenido de los mensajes o llamadas de sus hijos adolescentes para respetar su privacidad.
Este enfoque, que marca una delgada línea entre la necesidad de supervisión de los padres y el derecho a la privacidad de un menor, es similar a cómo Snapchat implementó los controles parentales en su aplicación el año pasado. Al igual que el sistema de Discord, Snapchat solo permite a los padres conocer con quién está hablando su adolescente y con quién se hace amigo, no lo que han escrito o los medios que han compartido.
Los usuarios que forman parte de la prueba de Discord verán el nuevo centro de Family Center vinculado en la sección Configuración de usuario de la aplicación, debajo de las secciones Privacidad y seguridad y Perfiles. Desde aquí, los padres pueden leer una descripción general de las funciones de Family Center y hacer clic en un botón para “Comenzar” cuando estén listos para configurar las cosas.
Créditos de imagen: Captura de pantalla de Discord a través de Watchful.ai
Discord explica en esta pantalla que “construyó Family Center para brindarle más contenido sobre cómo su adolescente usa Discord para que puedan trabajar juntos en la construcción de comportamientos positivos en línea”. Luego detalla los diversos controles parentales, que les permitirán ver con quién chatea y se hace amigo su adolescente, y en qué servidores se unen y participan.
Al igual que TikTok, los padres pueden escanear un código QR proporcionado por el adolescente para poner la cuenta bajo su supervisión.
Créditos de imagen: Captura de pantalla de Discord a través de Watchful.ai
Las capturas de pantalla fueron descubiertas por la firma de inteligencia de aplicaciones. Vigilante.ai. Además, un puñado de usuarios tenía publicaron los suyos capturas de pantalla en Twitter cuando se encontraron con la nueva experiencia a principios de este año, o simplemente comentó en la función cuando la encuentre en la aplicación.
Llegamos a Discord para comentar sobre las pruebas, mostrándoles algunas capturas de pantalla de la prueba. La compañía confirmó el desarrollo, pero no ofreció un compromiso firme sobre cuándo o si la función de control principal se implementaría realmente.
“Siempre estamos trabajando para mejorar nuestra plataforma y mantener seguros a los usuarios, particularmente a los más jóvenes”, dijo un portavoz de Discord. “Le haremos saber si sale algo de este trabajo y cuándo”, agregaron.
La compañía se negó a responder nuestras preguntas sobre el alcance de las pruebas o si planeaba ofrecer las herramientas fuera de los EE. UU., entre otras cosas.
Créditos de imagen: Captura de pantalla de Discord a través de Watchful.ai
Aunque Discord hoy en día es usado regularmente por una multitud más joven, Gen Z, gracias a sus raíces en ser un hogar para jugadores, a menudo se deja fuera de la conversación más amplia sobre los daños causados a los adolescentes por el uso de las redes sociales. Mientras tanto, como ejecutivos de Facebook, Twitter, Instagram, Snap, YouTube y TikTok han tenido que testificar ante el Congreso sobre este tema, Discord ha podido permanecer al margen.
Con la esperanza de adelantarse a las regulaciones esperadas, la mayoría de las principales empresas de redes sociales han implementado funciones de control parental para sus aplicaciones, si es que aún no las ofrecen. YouTube e Instagram anunciaron planes para controles parentales en 2021, e Instagram finalmente los lanzó en 2022 con otras aplicaciones Meta a seguir. Snapchat también implementó controles parentales en 2022. Y TikTok, que ya tenía controles parentales antes de que comenzaran las investigaciones del Congreso, los ha estado reforzando en los últimos meses.
Pero debido a la falta de regulación a nivel federal, varios estados de EE. UU. han promulgado sus propias leyes sobre el uso de las redes sociales, incluidas nuevas restricciones a las aplicaciones de redes sociales en estados como Utah y Montana, así como una legislación más amplia para proteger a los menores, como Ley del Código de Diseño Apropiado para la Edad de California que entra efecto el próximo año.
Discord, hasta ahora, ha pasado desapercibido, a pesar de las advertencias de expertos en seguridad infantil, cumplimiento de la leyy el medios de comunicación sobre los peligros que la aplicación representa para los menores, en medio de informes eso peluqueros y depredadores sexuales ha sido utilizando el servicio para apuntar a los niños. La organización sin fines de lucro, el Centro Nacional sobre Explotación Sexual, incluso discordia agregada a su “Lista de la docena sucia” por no “abordar adecuadamente el contenido y la actividad de explotación sexual en su plataforma”, dice.
La organización llama específicamente la falta de tecnología de verificación de edad significativa de Discord, la moderación insuficiente y la configuración de seguridad inadecuada.
Hoy, Discord ofrece a sus usuarios acceso a un centro de seguridad en línea que guía a los usuarios y padres sobre cómo administrar una cuenta o servidor seguro de Discord, pero no va tan lejos como para proporcionar a los padres herramientas para monitorear el uso del servicio por parte de sus hijos o bloquearlos para que no se unan a los servidores o se comuniquen con personas desconocidas . Sin embargo, los nuevos controles parentales no abordarán las dos últimas preocupaciones, pero al menos son un reconocimiento de que se necesita algún tipo de control parental.
Este es un cambio de la posición anterior de Discord sobre el asunto, ya que la compañía dijo a The Wall Street Journal a principios de 2021 su filosofía era poner a los usuarios primero, no a sus padres, y dijo que no planeaba agregar esa función.