El GPT-4 con visión de OpenAI todavía tiene fallas, revela un artículo

El GPT-4 con visión de OpenAI todavía tiene fallas, revela un artículo

by

in

Cuando OpenAI presentó por primera vez GPT-4, su modelo insignia de IA generadora de texto, la compañía promocionó la multimodalidad del modelo; en otras palabras, su capacidad para comprender el contexto de imágenes y texto. GPT-4 podría subtitular, e incluso interpretar, imágenes relativamente complejas, dijo OpenAI, por ejemplo, identificando un adaptador de cable Lightning a partir de una imagen de un iPhone conectado.

Pero desde el anuncio de GPT-4 a finales de marzo, OpenAI ha frenado las características de imagen del modelo. según se informa sobre los temores sobre abusos y cuestiones de privacidad. Hasta hace poco, la naturaleza exacta de esos temores seguía siendo un misterio. Pero a principios de esta semana, OpenAI publicó un informe técnico. papel detallando su trabajo para mitigar los aspectos más problemáticos de las herramientas de análisis de imágenes de GPT-4.

Hasta la fecha, GPT-4 con visión, abreviado internamente “GPT-4V” por OpenAI, solo ha sido utilizado regularmente por unos pocos miles de usuarios de Be My Eyes, una aplicación para ayudar a las personas ciegas y con baja visión a navegar por los entornos que los rodean. Sin embargo, en los últimos meses, OpenAI también comenzó a colaborar con los “equipos rojos” para investigar el modelo en busca de signos de comportamiento no intencionado, según el documento.

En el documento, OpenAI afirma que ha implementado salvaguardas para evitar que GPT-4V se utilice de forma maliciosa, como romper CAPTCHA (la herramienta antispam que se encuentra en muchos formularios web), identificar a una persona o estimar su edad o raza y sacar conclusiones. basado en información que no está presente en una foto. OpenAI también dice que ha trabajado para frenar los sesgos más dañinos de GPT-4V, particularmente aquellos que se relacionan con la apariencia física y el género o etnia de una persona.

Pero como ocurre con todos los modelos de IA, las salvaguardas no pueden hacer mucho.

El artículo revela que GPT-4V a veces tiene dificultades para hacer las inferencias correctas, por ejemplo, combinando por error dos cadenas de texto en una imagen para crear un término inventado. Al igual que el GPT-4 básico, el GPT-4V es propenso a alucinar o inventar hechos en un tono autoritario. Y no es por encima de faltar texto o caracteres, pasar por alto símbolos matemáticos y no reconocer objetos y cubiertos bastante obvios.

Créditos de imagen: Abierto AI

No es sorprendente, entonces, que en términos claros e inequívocos, OpenAI diga que GPT-4V no debe usarse para detectar sustancias peligrosas o productos químicos en imágenes. (Este periodista ni siquiera había pensado en el caso de uso, pero aparentemente, la perspectiva es lo suficientemente preocupante para OpenAI como para que la compañía sintiera la necesidad de denunciarla). Los miembros del equipo rojo descubrieron que, si bien el modelo ocasionalmente identifica correctamente alimentos venenosos como tóxicos, hongos, identifica erróneamente sustancias como el fentanilo, el carfentanilo y la cocaína a partir de imágenes de sus estructuras químicas.

Cuando se aplica al dominio de imágenes médicas, GPT-4V no obtiene mejores resultados, y a veces da respuestas incorrectas a la misma pregunta que respondió correctamente en un contexto anterior. Tampoco conoce prácticas estándar como ver exploraciones de imágenes como si el paciente estuviera frente a usted (lo que significa que el lado derecho de la imagen corresponde al lado izquierdo del paciente), lo que lo lleva a diagnosticar erróneamente cualquier cantidad de afecciones.

Créditos de imagen: Abierto AI

En otros lugares, advierte OpenAI, GPT-4V no comprende los matices de ciertos símbolos de odio; por ejemplo, no comprende el significado moderno de la Cruz Templaria (supremacía blanca) en los EE. UU. Más extraño, y tal vez un síntoma de sus tendencias alucinatorias, GPT- Se observó que 4V hacía canciones o poemas alabando a ciertas figuras o grupos de odio cuando se les proporcionaba una imagen de ellos, incluso cuando las figuras o grupos no estaban nombrados explícitamente.

GPT-4V también discrimina a ciertos sexos y tipos de cuerpo, aunque sólo cuando las salvaguardas de producción de OpenAI están desactivadas. OpenAI escribe que, en una prueba, cuando se le pidió que diera un consejo a una mujer fotografiada en traje de baño, GPT-4V dio respuestas relacionadas casi en su totalidad con el peso corporal de la mujer y el concepto de positividad corporal. Se supone que ese no habría sido el caso si la imagen fuera la de un hombre.

Créditos de imagen: Abierto AI

A juzgar por el lenguaje de advertencia del documento, GPT-4V sigue siendo en gran medida un trabajo en progreso, a unos pocos pasos de lo que OpenAI podría haber imaginado originalmente. En muchos casos, la empresa se vio obligada a implementar salvaguardias demasiado estrictas para evitar que el modelo arrojara toxicidad o información errónea, o comprometiera la privacidad de una persona.

OpenAI afirma que está creando “mitigaciones” y “procesos” para ampliar las capacidades del modelo de una manera “segura”, como permitir que GPT-4V describa rostros y personas sin identificarlas por su nombre. Pero el artículo revela que GPT-4V no es una panacea y que OpenAI tiene mucho trabajo por delante.


Source link