El uso y la participación de Siri disminuyeron desde el año pasado, a medida que Alexa y Cortana crecieron

El manejo de fragmentos de Siri por parte de Apple vuelve al marco después de una carta de queja a los reguladores de privacidad de la UE

Apple enfrenta nuevas preguntas de su principal regulador de protección de datos en Europa luego de una queja pública de un excontratista que reveló el año pasado que los trabajadores que calificaban la calidad de Siri escuchaban de forma rutinaria datos confidenciales de los usuarios.

A principios de esta semana el excontratista de Apple, Thomas le Bonniec, envió una carta a los reguladores europeos expresando su preocupación por la falta de aplicación de la ley sobre el tema, en la que escribió: “Estoy extremadamente preocupado de que las grandes empresas tecnológicas básicamente estén interceptando teléfonos a poblaciones enteras a pesar de los ciudadanos europeos. que le digan que la UE tiene una de las leyes de protección de datos más estrictas del mundo. Aprobar una ley no es lo suficientemente bueno: debe aplicarse a los infractores de la privacidad”.

El momento de la carta llega cuando el marco de protección de datos actualizado de Europa, el RGPD, llega a su segundo aniversario, enfrentando preguntas constantes sobre la falta de aplicación relacionada con una serie de quejas transfronterizas.

La Comisión de Protección de Datos de Irlanda (DPC) se ha llevado la peor parte de las críticas sobre si el Reglamento General de Protección de Datos está funcionando según lo previsto, como resultado de la cantidad de gigantes tecnológicos que ubican su sede regional en su suelo (Apple incluida).

En respuesta a la última queja de Apple de le Bonniec, el comisionado adjunto del DPC, Graham Doyle, le dijo a TechCrunch: “El DPC se comprometió con Apple en este tema cuando surgió por primera vez el verano pasado y desde entonces Apple ha realizado algunos cambios. Sin embargo, hemos seguido nuevamente con Apple luego del lanzamiento de esta declaración pública y esperamos respuestas”.

En el momento de escribir este artículo, Apple no había respondido a una solicitud de comentarios.

El DPC irlandés actualmente maneja más de 20 casos transfronterizos importantes, como agencia principal de protección de datos, investigando las actividades de procesamiento de datos de empresas como Apple, Facebook, Google y Twitter. Entonces, la carta de le Bonniec se suma a la presión sobre la comisionada Helen Dixon para comenzar a emitir decisiones con respecto a las quejas transfronterizas de GDPR. (Algunos de los cuales ahora tienen dos años completos).

El año pasado, Dixon dijo que las primeras decisiones para estos casos transfronterizos llegarían “a principios” de 2020.

El problema es que si el régimen de protección de datos insignia de Europa recientemente actualizado no parece estar funcionando bien dos años después, y todavía tiene un cuello de botella de casos de alto perfil, en lugar de tener una serie de decisiones importantes a su nombre, es Será cada vez más difícil para los legisladores de la región venderlo como un éxito.

Al mismo tiempo, la existencia de un régimen paneuropeo de protección de datos —y la atención que tanto los medios de comunicación como los reguladores prestan a las infracciones— ha tenido un impacto tangible en ciertas prácticas.

Apple suspendió la revisión humana de los fragmentos de Siri a nivel mundial en agosto pasado, después de El guardián había informado que los contratistas que empleaba para revisar las grabaciones de audio de los usuarios de su tecnología de asistente de voz, con fines de calificación de calidad, escuchaban regularmente contenido confidencial como información médica e incluso grabaciones de parejas teniendo relaciones sexuales.

Más tarde, ese mismo mes, realizó cambios en el programa de calificación, cambiando la revisión de audio a un proceso de participación explícita. También trajo el trabajo interno, lo que significa que solo los empleados de Apple desde entonces han estado revisando el audio de suscripción de los usuarios de Siri.

El gigante tecnológico también se disculpó, pero no pareció enfrentar ninguna sanción regulatoria específica por prácticas que parecen haber sido incompatibles con las leyes europeas, debido a la falta de transparencia y consentimiento explícito en torno al programa de revisión humana. De ahí la carta de queja de le Bonniec ahora.

Varios otros gigantes tecnológicos también hicieron cambios en sus propios programas de calificación humana casi al mismo tiempo.

Doyle también señaló que se está trabajando en la orientación para los reguladores de la UE sobre la tecnología de inteligencia artificial de voz y dijo: “Cabe señalar que la Junta Europea de Protección de Datos está trabajando en la producción de orientación en el área de tecnologías de asistente de voz”.

Nos comunicamos con la Junta Europea de Protección de Datos para obtener comentarios.


Source link