Construyendo mejores startups con IA responsable

Construyendo mejores startups con IA responsable

Tom Zick es investigadora en ética de la inteligencia artificial en el Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard, donde también es candidata a Doctorado en Jurisprudencia. Tiene un doctorado. de UC Berkeley y anteriormente fue miembro de Bloomberg Beta y la ciudad de Boston.

Los fundadores tienden a pensar que las prácticas responsables de IA son difíciles de implementar y pueden ralentizar el progreso de su negocio. A menudo saltan a ejemplos maduros como el de Salesforce. Oficina de uso ético y humano y piensa que la única forma de evitar la creación de un producto dañino es formando un gran equipo. La verdad es mucho más sencilla.

Me propuse aprender cómo pensaban los fundadores sobre las prácticas responsables de IA en el terreno al hablar con un puñado de fundadores exitosos en las primeras etapas y descubrí que muchos de ellos estaban implementando prácticas responsables de IA.

Solo que no lo llamaron así. Simplemente lo llaman “buen negocio”.

Resulta que las prácticas simples que tienen sentido comercial y dan como resultado mejores productos contribuirán en gran medida a reducir el riesgo de daños sociales imprevistos. Estas prácticas se basan en la idea de que las personas, no los datos, son el núcleo de la implementación exitosa de una solución de IA. Si tiene en cuenta la realidad de que los seres humanos siempre están al tanto, puede construir un mejor negocio, de manera más responsable.

Pensar en La IA como burocracia. Como una burocracia, AI se basa en tener una política general a seguir (“el modelo”) que toma decisiones razonables en la mayoría de los casos. Sin embargo, esta política general nunca puede dar cuenta de todos los escenarios posibles que una burocracia deberá manejar, al igual que un modelo de IA no puede ser entrenado para anticipar todas las entradas posibles.

Cuando estas políticas (o modelos) generales fallan, aquellos que ya están marginados se ven afectados de manera desproporcionada (un algoritmo clásico ejemplo es de inmigrantes somalíes que son etiquetados por fraude debido a sus hábitos de compra comunitarios atípicos).

Las burocracias trabajan para resolver este problema con “burócratas a nivel de calle”Como jueces, agentes del DMV e incluso maestros, que pueden manejar casos únicos o decidir no hacer cumplir la política. Por ejemplo, los profesores pueden renunciar a un requisito previo del curso dadas circunstancias atenuantes, o los jueces pueden ser más o menos indulgentes al dictar sentencia.

Si cualquier IA falla inevitablemente, entonces, como con una burocracia, debemos mantener a los humanos informados y diseñar con ellos en mente. Como me dijo un fundador: “Si yo fuera un marciano que viniera a la Tierra por primera vez, pensaría: los humanos son máquinas de procesamiento, debería usarlas”.

Ya sea que los humanos sean operadores que amplían el sistema de IA interviniendo cuando es incierto, o usuarios que eligen rechazar, aceptar o manipular el resultado de un modelo, estas personas determinan qué tan bien funcionará cualquier solución basada en IA en el mundo real.

Aquí hay cinco sugerencias prácticas que los fundadores de las empresas de IA compartieron para mantener, e incluso aprovechar, a los humanos en el circuito para construir una IA más responsable que también sea buena para los negocios:

Introduce solo la mínima inteligencia artificial que necesites

Hoy en día, muchas empresas planean lanzar algunos servicios con un proceso impulsado por IA de extremo a extremo. Cuando esos procesos luchan por funcionar en una amplia gama de casos de uso, las personas que se ven más dañadas tienden a ser las que ya están marginadas.

Al tratar de diagnosticar fallas, los fundadores restan un componente a la vez, con la esperanza de automatizar tanto como sea posible. Deberían considerar lo contrario: introducir un componente de IA a la vez.

Muchos procesos son, incluso con todas las maravillas de la IA, aún menos costosos y más confiables de ejecutar con humanos en el circuito. Si crea un sistema de extremo a extremo con muchos componentes conectados a la vez, puede que le resulte difícil identificar cuáles son los más adecuados para la IA.

Muchos fundadores con los que hablamos ven la IA como una forma de delegar a los humanos las tareas de menor riesgo y que consumen más tiempo en su sistema, y ​​comenzaron con todos los sistemas ejecutados por humanos para identificar cuáles eran estas tareas importantes para automatizar.

Este enfoque de “segunda inteligencia artificial” también permite a los fundadores ingresar a campos donde los datos no están disponibles de inmediato. Las personas que operan partes de un sistema también crean los mismos datos que necesitará para automatizar esas tareas. Un fundador nos dijo que, sin el consejo de introducir la IA gradualmente, y solo cuando fuera demostrablemente más precisa que un operador, nunca hubieran despegado.

Crea algo de fricción

Muchos fundadores creen que para tener éxito, un producto debe salir de la caja, con la menor participación posible del usuario.

Debido a que la IA se usa generalmente para automatizar parte de un flujo de trabajo existente, con las ideas preconcebidas asociadas sobre cuánto confiar en el resultado del flujo de trabajo, un enfoque perfectamente transparente puede ser catastrófico.

Por ejemplo, cuando un ACLU escucha mostró que la herramienta de reconocimiento facial de Amazon identificaría erróneamente a 28 miembros del Congreso (una fracción desproporcionadamente grande de los cuales eran negros) como delincuentes, la configuración predeterminada laxa estaba en el centro del problema. El umbral de precisión de fábrica se estableció en solo el 80%, claramente la configuración incorrecta si un usuario toma un resultado positivo al pie de la letra.

Motivar a los usuarios para que se comprometan con las fortalezas y debilidades de un producto antes de implementarlo puede compensar el potencial de desajustes de supuestos dañinos. También puede hacer que los clientes estén más contentos con el rendimiento final del producto.

Un fundador con el que hablamos descubrió que, en última instancia, los clientes usaban su producto de manera más efectiva si el cliente tenía que personalizarlo antes de usarlo. Él ve esto como un componente dominante de un enfoque de “diseño primero” y descubrió que ayudó a los usuarios a aprovechar las fortalezas del producto en una base específica del contexto. Si bien este enfoque requirió más tiempo inicial para ponerse en marcha, terminó traduciéndose en ganancias de ingresos para los clientes.

Dar contexto, no respuestas

Muchas soluciones basadas en IA se centran en proporcionar una recomendación de salida. Una vez que se hacen estas recomendaciones, los humanos deben ponerlas en práctica.

Sin contexto, las recomendaciones deficientes podrían seguirse ciegamente y causar daños posteriores. De manera similar, las grandes recomendaciones podrían rechazarse si los humanos en el circuito no confían en el sistema y carecen de contexto.

En lugar de delegar decisiones en los usuarios, considere la posibilidad de brindarles las herramientas para tomar decisiones. Este enfoque aprovecha el poder de los seres humanos en el circuito para identificar los resultados del modelo problemáticos al tiempo que garantiza la aceptación del usuario necesaria para un producto exitoso.

Un fundador compartió que cuando su IA hacía recomendaciones directas, los usuarios no confiaban en ella. Sus clientes estaban contentos con la precisión que resultaron tener las predicciones de sus modelos, pero los usuarios individuales simplemente ignoraron las recomendaciones. Luego rechazaron la función de recomendación y en su lugar utilizaron su modelo para aumentar los recursos que podrían informar la decisión de un usuario (por ejemplo, este procedimiento es como estos cinco procedimientos anteriores y esto es lo que funcionó). Esto condujo a mayores tasas de adopción e ingresos.

Considere a sus no usuarios y no compradores

Es un problema conocido en la tecnología empresarial que los productos pueden servir fácilmente al CEO y no a los usuarios finales. Esto es aún más problemático en el espacio de la IA, donde una solución es a menudo parte de un sistema mayor que interactúa con unos pocos usuarios directos y muchos más indirectos.

Tomemos, por ejemplo, la controversia que surgió cuando Starbucks comenzó a usar software de programación automatizada para asignar turnos. El programador optimizado para la eficiencia, sin tener en cuenta por completo las condiciones de trabajo. Después de una petición laboral exitosa y un alto perfil Artículo del New York Times, se tomó en consideración el aporte de los baristas, mejorando la moral y la productividad.

En lugar de tomar a un cliente literalmente sobre lo que le pide que resuelva, considere mapear a todas las partes interesadas involucradas y comprender sus necesidades antes de decidir qué ayudará a optimizar su IA. De esa manera, evitará fabricar inadvertidamente un producto que sea innecesariamente dañino y posiblemente encuentre una oportunidad comercial aún mejor.

Un fundador con el que hablamos se tomó en serio este enfoque y se acercó a sus usuarios para comprender sus necesidades antes de decidir para qué optimizar su producto. Siguieron esto reuniéndose con clientes y representantes sindicales para descubrir cómo hacer un producto que funcionara para ambos.

Si bien los clientes originalmente querían un producto que permitiera a cada usuario asumir una mayor carga de trabajo, estas conversaciones revelaron la oportunidad de desbloquear ahorros para sus clientes al optimizar la carga de trabajo existente.

Esta información le permitió al fundador desarrollar un producto que empoderó a los humanos en el circuito y le ahorró a la gerencia más dinero del que tendría la solución que pensaban que querían.

Sea claro sobre lo que es el teatro de IA

Si limita el grado en que exagera lo que puede hacer su IA, puede evitar consecuencias irresponsables y vender su producto de manera más efectiva.

Sí, la publicidad en torno a la IA ayuda a vender productos. Sin embargo, es crucial saber cómo evitar que esas palabras de moda se interpongan en el camino de la precisión. Si bien hablar sobre las capacidades autónomas de su producto puede ser bueno para las ventas, puede ser contraproducente si aplica esa retórica indiscriminadamente.

Por ejemplo, uno de los fundadores con los que hablamos descubrió que aprovechar el poder de su IA también aumentaba las preocupaciones de privacidad de sus clientes. Esta preocupación persistió incluso cuando los fundadores explicaron que las partes del producto en cuestión no se basaban en datos, sino más bien en el juicio humano.

La elección del idioma puede ayudar a alinear las expectativas y generar confianza en un producto. En lugar de utilizar el lenguaje de la autonomía con sus usuarios, algunos de los fundadores con los que hablamos descubrieron que las palabras como “aumentar” y “ayudar” tenían más probabilidades de inspirar la adopción. Este encuadre de “IA como herramienta” también tenía menos probabilidades de generar la confianza ciega que puede conducir a malos resultados en el futuro. Ser claro puede disuadir el exceso de confianza en la IA y ayudarte a vender.

Estas son algunas lecciones prácticas aprendidas por fundadores reales para mitigar el riesgo de daños imprevistos de la IA y crear productos más exitosos construidos a largo plazo. También creemos que existe una oportunidad para que las nuevas empresas creen servicios que ayuden a que sea más fácil crear una IA ética que también sea buena para los negocios. Así que aquí hay un par de solicitudes para startups:

Involucre a los humanos en el ciclo: Necesitamos startups que resuelvan el problema de la atención de “humanos en el bucle”. Delegar en humanos requiere asegurarse de que esos humanos noten cuando una IA no está segura para que puedan intervenir de manera significativa. Si una IA es correcta el 95% de las veces, la investigación muestra que las personas se vuelven complacientes y es poco probable que capten el 5% de los casos en que la IA se equivoca. La solución requiere algo más que tecnología; Al igual que las redes sociales fueron más una innovación psicológica que técnica, creemos que las nuevas empresas en este espacio pueden (y deberían) surgir de las percepciones sociales.

Cumplimiento de estándares para IA responsable: Existe una oportunidad para las nuevas empresas que consolidan los estándares existentes en torno a la inteligencia artificial responsable y miden el cumplimiento. Publicación de Estándares de IA ha ido en aumento en los últimos dos años a medida que la presión pública sobre la regulación de la IA ha ido en aumento. A encuesta reciente mostró que el 84% de los estadounidenses piensan que la inteligencia artificial debe manejarse con cuidado y califica esto como una prioridad máxima. Las empresas quieren señalar que se están tomando esto en serio y demostrar que están siguiendo los estándares establecidos por IEEE, CSET y otros sería útil. Mientras tanto, el borrador actual del expansivo Ley de IA (AIA) enfatiza fuertemente los estándares de la industria. Si se aprueba la AIA, el cumplimiento se convertirá en una necesidad. Dado el mercado que se formó en torno al cumplimiento de GDPR, creemos que este es un espacio para observar.

Ya sea que esté probando uno de estos consejos o iniciando una de estas empresas, las prácticas de inteligencia artificial simples y responsables pueden permitirle desbloquear inmensas oportunidades comerciales. Para evitar la creación de un producto dañino, debe ser cuidadoso en su implementación de IA.

Afortunadamente, esta consideración pagará dividendos cuando se trata del éxito a largo plazo de su negocio.


Source link