Ícono del sitio La Neta Neta

Un puñado de consejos (éticos y legales) que deberíamos aplicar al big data desde ya


Ya lo sabes: si aspiras a un puesto trabajo, puede que parte del proceso de selección no esté en manos de un ser humano sino de una máquina. Igual si quieres contratar un seguro o solicitar una beca. Datos de salud, de la capacidad para pagar un coche, notas escolares o hábitos de compra. Aplicaciones para controlar los contactos con Covid o estudios de movilidad. La inteligencia artificial ayuda a optimizar el rastreo de grandes volúmenes de datos. Pero ¿qué pasa si se pone en peligro la privacidad? ¿O si el algoritmo es erróneo? ¿Qué aspectos legales, éticos y procesales deben presidir los sistemas para garantizar los derechos del ciudadano?

En teoría, tomar decisiones mediante algoritmos “debería conducir a una mayor equidad: todos son juzgados con las mismas reglas, sin sesgo. Pero ocurre exactamente lo contrario”, explica Celia Fernández Aller, profesora de la Universidad Politécnica de Madrid especializada en interrelaciones entre las TIC y los derechos humanos. Esta experta explica que, lejos de generar igualdad, los algoritmos pueden provocar más discriminación: por la forma en la que razonan y por el tipo de datos que los alimentan (que pueden estar sesgados).

Además, los modelos de datos que se utilizan “son opacos, no regulados e incontestables, incluso cuando están equivocados”. Esto deriva en un refuerzo de la discriminación: por ejemplo, explica esta profesora, si un estudiante pobre no logra un préstamo porque un modelo lo considera demasiado arriesgado (en virtud de su código postal), quedará excluido del tipo de educación que podría sacarlo de la pobreza.

Fernández Aller, junto a María Mercedes Serrano, profesora de Derecho Constitucional de la Universidad de Castilla-La Mancha, son autoras del informe El valor del dato en la economía digital, publicado por la Fundación Alternativas. El documento, que analiza cuestiones éticas y legales del uso de grandes bases de datos en nuestro día a día, señala que los modelos matemáticos suponen “el abandono de la causalidad como criterio central y su sustitución por la correlación”.

La elaboración de perfiles para tomar decisiones basadas en datos puede llevar a conclusiones que aparentemente están relacionadas, pero que en realidad no tienen ninguna correlación, son fruto de la casualidad. “Se pierde capacidad explicativa” concluye el informe.

Ante esa situación, Fernández Aller propone “ampliar el rango de los derechos” de los ciudadanos, facilitarlos. Entre ellos destaca el de la “explicabilidad” de los datos, es decir, cuando un algoritmo tome una decisión que afecte a un usuario, la institución de la que depende debe saber explicar esa resolución al interesado. Este podrá entonces “pedir información y tendría derecho a que se le explicara quién ha tomado esa decisión y cuál ha sido la argumentación”.

El informe plantea que, más allá de códigos éticos y de conducta en big data, se deben fijar leyes de obligado cumplimiento. “Nunca la existencia de un código de conducta puede sustituir el papel de una legislación jurídicamente exigible que garantice un marco protector de los derechos”, señala el documento. “El establecimiento de sanciones económicas ha sido siempre un factor que ayuda en el cumplimiento de las normas de convivencia”. Más aún cuando el manejo de esos datos puede ser determinante en nuestra vida.

Otra medida que se plantea es un régimen de rendición de cuentas. Es decir, que una organización que trate datos sea responsable en caso de abuso. El documento apunta que deberían desarrollarse más las pólizas de seguros que cubran a una empresa ante posibles casos de fraude.

También se plantea obligar a las organizaciones a reforzar la transparencia a través de las páginas web corporativas. O ahondar en el principio de consentimiento con el derecho de oposición para quien no desee formar parte de un tratamiento masivo de datos personales. Ambos “deben regirse con flexibilidad” para no frenar la innovación.

Las expertas reconocen que la regulación “va a ser complicada”, ya que estos aspectos no suelen ser prioritarios. Por ello, es importante la sensibilización: si se convierten en “temas importantes para la ciudadanía, esta presionará”.

 

Cuando los datos anónimos no lo son tanto

  • Anonimización. Uno de los riesgos de la persona que cede sus datos es la reidentificación, es decir, que se pueda volver a identificar a un sujeto concreto con la información que ha aportado. Mediante un proceso denominado anonimización ese proceso es irreversible, es decir, son técnicas que permiten separar para siempre a la persona de sus datos de salud o económicos o laborales. Pero la anonimización completa y segura es prácticamente imposible, salvo que los datos en origen sean ya anónimos.
  • Seudonimización. En este caso, la información adicional del usuario está guardada de forma separada y su acceso requiere medidas técnicas de seguridad para volver a unir al usuario con sus datos.
  • Salud. La posibilidad de volver a unir a un usuario con su información tiene excepciones éticas, según los expertos. Por ejemplo, en las investigaciones de salud o epidemiológicas: si hay razones de salud pública justificadas, sí se puede volver a reunir la información con el titular. Es el caso actual con la pandemia.
  • Restricciones. Incluso en casos que esté justificado que se identifique a un ciudadano, las expertas advierten de que hay que poner límites. Por ejemplo se debe señalar claramente quién es responsable de esos datos y se debe minimizar su uso. También hay que fijar límite en el tiempo. Y siempre informar al interesado.

Source link
Salir de la versión móvil