Ícono del sitio La Neta Neta

¿Debería toda la IA ser de código abierto y qué cambiaría realmente?

¿Debería toda la IA ser de código abierto y qué cambiaría realmente?

Dado que los productos basados ​​en inteligencia artificial se están convirtiendo en parte de la vida cotidiana, la IA de código abierto es vital para la supervisión y la transparencia.

Código abierto de inteligencia artificial está de nuevo en el ojo público. Elon Musk recientemente provocó otro debate en torno a la táctica cuando avaló el código abierto de los algoritmos de Twitter para impulsar la transparencia y promover la libertad de expresión. Pero la charla sobre el tema ha sido un elemento integral del desarrollo de la IA desde hace un tiempo. Antes de entrar en el meollo de la cuestión, es crucial comprender primero el significado del término y sus implicaciones clave. En el dominio del desarrollo de software, el software de código abierto tiene su código fuente accesible públicamente, lo que permite que cualquier parte interesada lo vea, modifique y distribuya. En pocas palabras, es una ruta descentralizada y colaborativa para el desarrollo de software.

VÍDEO DEL DÍA

Linux, WordPress, Mozilla Firefox y VLC media player son algunos de los ejemplos más conocidos de software de código abierto que dejan un impacto duradero. El código abierto tiene algunos beneficios cruciales, como una tasa acelerada de desarrollo e implementación de software, ya que no hay barreras para las partes interesadas o incluso para los entusiastas. Otro aspecto fundamental es la revisión y aceptación de la comunidad, que permite a los expertos criticar y ayudar a mejorar un proyecto sin barreras corporativas. No hace falta decir que las comunidades de código abierto aceleran el ritmo de la innovación. Pero la mayor ventaja, especialmente cuando se trata de un tema divisivo como la Inteligencia Artificial, es la transparencia.

En la superficie, mantener el desarrollo de IA cerca del cofre corporativo y colocarlo detrás de las barreras de las leyes de propiedad intelectual sofoca la innovación. Cuando un proyecto de IA está en desarrollo entre un círculo cercano de empleados, independientemente de cuán prometedor o avanzado sea, tomará mucho más tiempo porque carece de un circuito de retroalimentación externo que podría permitir que un equipo resuelva más problemas de los previstos. Para el proyecto. Pero la IA no se trata únicamente del ritmo de la innovación o de resolver más problemas de los propuestos inicialmente en una diapositiva de presentación corporativa. La diversidad, y el sesgo, se han convertido en uno de los aspectos más desafiantes de la creación de productos de IA inclusivos. A pesar de ser un producto de inteligencia artificial de vanguardia que surge de líderes como Google y Microsoft, un programa de inteligencia artificial que se ha desarrollado en una atmósfera no inclusiva con datos de capacitación que carecen de diversidad casi siempre es una mala noticia.

Se trata más de cuándo y cómo va a suceder

Por ejemplo, el chatbot Tay de Microsoft tardó solo unos días en convertirse en un pozo negro de ideas racistas. Lo mismo sucedió con Delphi AI. Dall-E 2, el chico guapo favorito en el bloque de IA que produce imágenes geniales basadas en descripciones de texto, también ha estado produciendo resultados que apuntalan estereotipos de género contra las personas de color y las mujeres. Sam Altman, CEO de la compañía detrás de DALL-E 2, lo llamó “la cosa más encantadora” creado por OpenAI hasta ahora, pero la investigación sugiere que algunos de los resultados no son tan agradables después de todo. OpenAI también lo sabe y ha reconocido el problema en el repositorio GitHub de DALL-E 2. También hay algún precedente para eso. Desde el conglomerado chino Xiaomi que abre su divertido proyecto de ciberperro hasta un gigante financiero como Goldman Sachs que deja que los ingenieros externos jueguen con algunos de sus sistemas de gestión de riesgos y gestión de precios impulsados ​​por ML, ya hay un precedente para comenzar.

En un mundo profundamente comprometido con productos fabricados por titanes como Google, Amazon, Apple, Meta y Microsoft, el código abierto para productos impulsados ​​por IA es de vital importancia. Tomemos, por ejemplo, un algoritmo de moderación de contenido impulsado por IA imaginario, que ha sido entrenado a puerta cerrada utilizando datos provenientes principalmente de la demografía occidental. Podría funcionar, pero cuando se trata de moderar miles de millones de archivos multimedia impulsados ​​por cientos de millones de usuarios con diferentes rasgos faciales e idiomas, el sistema de moderación basado en IA está destinado a fallar. Sin embargo, no es una preocupación imaginaria, ya que Facebook ha sido objeto de un intenso escrutinio por descuidar mercados no ingleses ni estadounidenses, con algunos resultados terribles derivados de esa ignorancia. En un mundo que está adoptando cada vez más los sistemas impulsados ​​por IA para todo, desde clasificar los currículos de los candidatos para un trabajo hasta evaluar las solicitudes relacionadas con préstamos y viviendas, un sistema que no sea inclusivo tendrá algunas ramificaciones serias en el mundo real.

Solo eche un vistazo a cómo los algoritmos en plataformas como TikTok e Instagram se han ajustado detrás de velos para mantener a los usuarios interesados, alimentándolos con un flujo interminable de contenido que es curado por una IA conductual. Los programas de IA de código abierto no solo aumentarán la tasa de desarrollo, sino que también garantizarán que los productos de IA con un impacto tan crítico no se implementen antes de una lluvia de ideas con un panel diverso para que cualquier laguna o problema se aborde a su debido tiempo. Además de la IA de código abierto, los expertos también han exigido regulación, el establecimiento de consorcios de ética para evitar el abuso de AIy el desarrollo de iniciativas financiadas por el gobierno que pueden apoyar a los expertos que desean analizar y mejorar los productos de IA que afectarán la vida de las personas a diario.

Fuentes: Forbes, GitHub, The Wall Street Journal




Source link

Salir de la versión móvil