Google hoy lanzado AI Test Kitchen, una aplicación que permite a los usuarios probar sistemas experimentales impulsados por IA de los laboratorios de la empresa antes de entrar en producción. A partir de hoy, las personas interesadas pueden completar un formulario de registro a medida que AI Test Kitchen comienza a implementarse gradualmente en grupos pequeños en los EE. UU.
Como se anunció en la conferencia de desarrolladores de I/O de Google a principios de este año, AI Test Kitchen ofrecerá demostraciones rotativas centradas en tecnologías de IA novedosas y de vanguardia, todo desde Google. La compañía enfatiza que no son productos terminados, sino que están destinados a dar una idea de las innovaciones del gigante tecnológico al tiempo que ofrecen a Google la oportunidad de estudiar cómo se utilizan.
El primer conjunto de demostraciones en AI Test Kitchen explora las capacidades de la última versión de LaMDA (Language Model for Dialogue Applications), el modelo de lenguaje de Google que consulta la web para responder preguntas de forma similar a la humana. Por ejemplo, puede nombrar un lugar y hacer que LaMDA ofrezca caminos para explorar, o compartir un objetivo para que LaMDA lo divida en una lista de subtareas.
Google dice que agregó “múltiples capas” de protección a AI Test Kitchen en un esfuerzo por minimizar los riesgos en torno a sistemas como LaMDA, como sesgos y resultados tóxicos. Como lo ilustró más recientemente el BlenderBot 3.0 de Meta, incluso el los chatbots más sofisticados hoy puede descarrilarse rápidamente, profundizando en teorías de conspiración y contenido ofensivo cuando se le solicita con cierto texto.
Créditos de imagen: Google
Los sistemas dentro de AI Test Kitchen intentarán detectar y filtrar automáticamente palabras o frases objetables que puedan ser sexualmente explícitas, odiosas u ofensivas, violentas o ilegales, o divulgar información personal, dice Google. Pero la compañía advierte que el texto ofensivo aún podría llegar ocasionalmente.
“A medida que las tecnologías de IA continúan avanzando, tienen el potencial de desbloquear nuevas experiencias que respaldan interacciones más naturales entre humanos y computadoras”, escribieron en una publicación de blog el gerente de productos de Google, Tris Warkentin, y el director de administración de productos, Josh Woodward. “Estamos en un punto en el que la retroalimentación externa es el próximo paso más útil para mejorar LaMDA. Cuando califique cada respuesta de LaMDA como agradable, ofensiva, fuera de tema o falsa, utilizaremos estos datos, que no están vinculados a su cuenta de Google, para mejorar y desarrollar nuestros productos futuros”.
AI Test Kitchen es parte de una tendencia más amplia y reciente entre los gigantes tecnológicos para probar las tecnologías de IA antes de que se lancen a la naturaleza. Sin duda, informados por errores como el chatbot Tay que arroja toxicidad de Microsoft, Google, Meta, OpenAI y otros han optado cada vez más por probar los sistemas de IA entre grupos pequeños para asegurarse de que se comportan según lo previsto, y para ajustar su comportamiento cuando sea necesario.
Por ejemplo, OpenAI lanzó hace varios años su sistema de generación de lenguaje, GPT-3, en una versión beta cerrada antes de que estuviera ampliamente disponible. Inicialmente, GitHub limitó el acceso a Copilot, el sistema de generación de código que desarrolló en asociación con OpenAI, para seleccionar desarrolladores antes de lanzarlo con disponibilidad general.
El enfoque no se debió necesariamente a la bondad del corazón de nadie; a estas alturas, los jugadores de alta tecnología son muy conscientes de la mala prensa que la IA que sale mal puede atraer. Al exponer los nuevos sistemas de IA a grupos externos y adjuntar amplios descargos de responsabilidad, la estrategia parece anunciar las capacidades de los sistemas y, al mismo tiempo, mitigar los componentes más problemáticos. Queda por ver si esto es suficiente para evitar la controversia, incluso antes del lanzamiento de AI Test Kitchen, LaMDA llegó a los titulares por todas las razones equivocadas – pero una porción influyente de Silicon Valley parece tener confianza en que lo hará.
Source link