MVP versus EVP: ¿Es hora de introducir la ética en el modelo ágil de inicio?

MVP versus EVP: ¿Es hora de introducir la ética en el modelo ágil de inicio?

La trayectoria de la nave espacial de una startup es bien conocida: obtenga una idea, forme un equipo y junte un producto mínimo viable (MVP) que pueda presentar a los usuarios.

Sin embargo, las nuevas empresas de hoy deben reconsiderar el modelo MVP. a medida que la inteligencia artificial (IA) y el aprendizaje automático (ML) se vuelven omnipresentes en los productos tecnológicos y el mercado se vuelve cada vez más consciente de las implicaciones éticas de que la IA aumente o reemplace a los humanos en el proceso de toma de decisiones.

Un MVP le permite recopilar comentarios críticos de su mercado objetivo que luego informan el desarrollo mínimo requerido para lanzar un producto, creando un poderoso ciclo de comentarios que impulsa el negocio actual dirigido por el cliente. Este modelo esbelto y ágil ha tenido un gran éxito en las últimas dos décadas, lanzando miles de nuevas empresas exitosas, algunas de las cuales se han convertido en empresas de miles de millones de dólares.

Sin embargo, crear productos y soluciones de alto rendimiento que funcionen para la mayoría ya no es suficiente. Desde la tecnología de reconocimiento facial que tiene un sesgo contra las personas de color hasta los algoritmos de préstamos crediticios que discriminan a las mujeres, en los últimos años se han eliminado varios productos impulsados ​​​​por IA o ML debido a dilemas éticos que surgen aguas abajo después de millones de dólares. se han canalizado en su desarrollo y comercialización. En un mundo en el que tiene una oportunidad de llevar una idea al mercado, este riesgo puede ser fatal, incluso para empresas bien establecidas.

Las empresas emergentes no tienen que desechar el modelo de negocio lean en favor de una alternativa más adversa al riesgo. Existe un término medio que puede introducir la ética en la mentalidad de una startup sin sacrificar la agilidad del modelo lean, y comienza con el objetivo inicial de una startup: obtener una prueba de concepto en una etapa temprana frente a clientes potenciales.

Sin embargo, en lugar de desarrollar un MVP, las empresas deben desarrollar y lanzar un producto éticamente viable (EVP) basado en inteligencia artificial responsable (RAI), un enfoque que considera las consideraciones éticas, morales, legales, culturales, sostenibles y socioeconómicas durante el desarrollo, despliegue y uso de sistemas AI/ML.

Y si bien esta es una buena práctica para las nuevas empresas, también es una buena práctica estándar para las grandes empresas de tecnología que crean productos de IA/ML.

Aquí hay tres pasos que las nuevas empresas, especialmente las que incorporan técnicas significativas de IA/ML en sus productos, pueden usar para desarrollar un EVP.

Encuentre un oficial de ética para liderar el cargo

Las empresas emergentes tienen directores de estrategia, directores de inversiones e incluso directores de diversión. Un director de ética es igual de importante, si no más. Esta persona puede trabajar con diferentes partes interesadas para asegurarse de que la startup esté desarrollando un producto que se ajuste a los estándares morales establecidos por la empresa, el mercado y el público.

Deben actuar como enlace entre los fundadores, el C-suite, los inversionistas y la junta directiva con el equipo de desarrollo, asegurándose de que todos hagan las preguntas éticas correctas de una manera reflexiva y con aversión al riesgo.

Las máquinas se entrenan en base a datos históricos. Si existe un sesgo sistémico en un proceso comercial actual (como prácticas de préstamo desiguales por raza o género), AI se dará cuenta y pensará que así es como debe seguir comportándose. Si luego se descubre que su producto no cumple con los estándares éticos del mercado, no puede simplemente eliminar los datos y encontrar nuevos datos.

Estos algoritmos ya han sido entrenados. No se puede borrar esa influencia más de lo que un hombre de 40 años puede deshacer la influencia que sus padres o hermanos mayores tuvieron en su educación. Para bien o para mal, estás atascado con los resultados. Los directores de ética deben detectar ese sesgo inherente en toda la organización antes de que se arraigue en los productos impulsados ​​por IA.

Integrar la ética en todo el proceso de desarrollo

La IA responsable no es solo un punto en el tiempo. Es un marco de gobierno de extremo a extremo centrado en los riesgos y controles del viaje de IA de una organización. Esto significa que la ética debe integrarse en todo el proceso de desarrollo, desde la estrategia y la planificación hasta el desarrollo, la implementación y las operaciones.

Durante la evaluación del alcance, el equipo de desarrollo debe trabajar con el director de ética para conocer los principios éticos generales de IA que representan principios de comportamiento que son válidos en muchas aplicaciones culturales y geográficas. Estos principios prescriben, sugieren o inspiran cómo deben comportarse las soluciones de IA cuando se enfrentan a decisiones morales o dilemas en un campo de uso específico.

Sobre todo, se debe realizar una evaluación de riesgos y daños, identificando cualquier riesgo para el bienestar físico, emocional o financiero de cualquier persona. La evaluación también debe considerar la sostenibilidad y evaluar qué daño podría causar la solución de IA al medio ambiente.

Durante la fase de desarrollo, el equipo debe preguntarse constantemente cómo su uso de la IA se alinea con los valores de la empresa, si los modelos tratan a las diferentes personas de manera justa y si respetan el derecho a la privacidad de las personas. También deben considerar si su tecnología de IA es segura y robusta y qué tan efectivo es el modelo operativo para garantizar la responsabilidad y la calidad.

Un componente crítico de cualquier modelo de aprendizaje automático son los datos que se utilizan para entrenar el modelo. Las empresas emergentes deben preocuparse no solo por el MVP y cómo se prueba el modelo inicialmente, sino también por el contexto final y el alcance geográfico del modelo. Esto permitirá que el equipo seleccione el conjunto de datos representativo correcto para evitar futuros problemas de sesgo de datos.

No se olvide de la gobernanza continua de la IA y el cumplimiento normativo

Dadas las implicaciones para la sociedad, es solo cuestión de tiempo antes de que la Unión Europea, los Estados Unidos o algún otro organismo legislativo apruebe leyes de protección al consumidor que rijan el uso de AI/ML. Una vez que se aprueba una ley, es probable que esas protecciones se extiendan a otras regiones y mercados de todo el mundo.

Ha sucedido antes: la aprobación del Reglamento General de Protección de Datos (GDPR) en la UE provocó una ola de otras protecciones al consumidor en todo el mundo que requieren que las empresas demuestren el consentimiento para recopilar información personal. Ahora, personas de todo el espectro político y empresarial piden pautas éticas en torno a la IA. Nuevamente, la UE está liderando el camino después de publicar una propuesta de 2021 para un marco legal de IA.

Las empresas emergentes que implementan productos o servicios impulsados ​​por AI/ML deben estar preparadas para demostrar una gobernanza y un cumplimiento normativo constantes, teniendo cuidado de desarrollar estos procesos ahora antes de que se les impongan las regulaciones más adelante. Realizar un escaneo rápido de la legislación propuesta, los documentos de orientación y otras pautas relevantes antes de construir el producto es un paso necesario de EVP.

Además, es recomendable revisar el panorama regulatorio/político antes del lanzamiento. Tener a alguien que esté involucrado en las deliberaciones activas que se están llevando a cabo actualmente a nivel mundial en su junta directiva o junta asesora también ayudaría a comprender lo que es probable que suceda. Las regulaciones están llegando, y es bueno estar preparado.

No hay duda de que AI/ML presentará un enorme beneficio para la humanidad. La capacidad de automatizar tareas manuales, agilizar los procesos comerciales y mejorar las experiencias de los clientes es demasiado grande para descartarla. Pero las nuevas empresas deben ser conscientes de los impactos que AI/ML tendrá en sus clientes, el mercado y la sociedad en general.

Las empresas emergentes suelen tener una oportunidad de éxito, y sería una lástima que se elimine un producto de alto rendimiento porque algunas preocupaciones éticas no se descubrieron hasta después de que llega al mercado. Las empresas emergentes deben integrar la ética en el proceso de desarrollo desde el principio, desarrollar un EVP basado en RAI y continuar asegurando el gobierno de AI después del lanzamiento.

La IA es el futuro de los negocios, pero no podemos perder de vista la necesidad de compasión y el elemento humano en la innovación.


Source link