Ícono del sitio La Neta Neta

¿Tu startup está usando la IA de manera responsable?

La agitación social durante la pandemia de COVID-19 subraya la necesidad de nuevas regulaciones de datos de IA

Ganes Kesari es cofundador y jefe de análisis en Gramener. Ayuda a transformar organizaciones a través de asesoramiento en la creación de equipos de ciencia de datos y la adopción de conocimientos como historias de datos.

Más publicaciones de este colaborador Cuándo y cómo desarrollar su equipo de ciencia de datos

Desde que comenzaron a aprovechar la tecnología, las empresas tecnológicas han recibido numerosas acusaciones sobre el uso poco ético de la inteligencia artificial.

Un ejemplo proviene de Google de Alphabet, que creó un algoritmo de detección de discursos de odio que asignó “puntuaciones de toxicidad” más altas al discurso de los afroamericanos que a sus homólogos blancos. Investigadores de la Universidad de Washington analizaron bases de datos de miles de tuits considerados “ofensivos” u “odiosos” por el algoritmo y descubrieron que era más probable que el inglés alineado en negro fuera etiquetado como discurso de odio.

Este es uno de los innumerables casos de sesgo que surgen de los algoritmos de IA. Comprensiblemente, estos problemas han generado mucha atención. Las conversaciones sobre ética y sesgo han sido uno de los principales temas de IA en el pasado reciente.

Las organizaciones y los actores de todas las industrias se están involucrando en investigar para eliminar el sesgo a través de la equidad, la responsabilidad, la transparencia y la ética (FATE). Sin embargo, la investigación que se centra únicamente en la arquitectura e ingeniería de modelos está destinada a producir resultados limitados. Entonces, ¿cómo puedes abordar esto?

Resolviendo conceptos erróneos sobre la lucha contra el sesgo de la IA

Arreglar el modelo es insuficiente, ya que no es ahí donde radica la causa raíz. Para saber qué medidas pueden dar mejores resultados, primero debemos entender las verdaderas razones. Luego podemos buscar posibles soluciones estudiando lo que hacemos en el mundo real para abordar tales sesgos.

Los modelos de IA aprenden estudiando patrones e identificando información a partir de datos históricos. Pero la historia humana (y nuestro presente) está lejos de ser perfecta. Por lo tanto, no sorprende que estos modelos terminen imitando y amplificando los sesgos que se encuentran en los datos utilizados para entrenarlos.

Esto es bastante claro para todos nosotros. Pero, ¿cómo manejamos ese sesgo inherente en nuestro mundo?

Inyectamos sesgo para combatir el sesgo. Cuando sentimos que una comunidad o segmento de la población podría estar en desventaja, evitamos basar nuestra conclusión únicamente en instancias pasadas. A veces, vamos un paso más allá y hacemos inclusiones para brindar oportunidades a dichos segmentos. Este es un pequeño paso para revertir la tendencia.

Este es precisamente el paso que debemos dar al enseñar modelos. Entonces, ¿cómo inyectamos el sesgo humano para combatir el sesgo inherente “aprendido” de los modelos? Aquí hay algunos pasos para lograrlo.

Agregue diversos roles a su equipo de ciencia de datos


Source link
Salir de la versión móvil