Mejora de Google Lens, su aplicación impulsada por visión artificial de Google que brinda información relacionada con los objetos que identifica, con nuevas características.
A partir de hoy, Lens puede revelar condiciones de la piel similares a las que podría ver en su propia piel, como lunares y erupciones. Cargar una imagen o foto a través de Lens iniciará una búsqueda de coincidencias visuales, lo que también funcionará para otras enfermedades físicas que quizás no esté seguro de cómo describir con palabras (como un bulto en el labio, una línea en las uñas o pérdida de cabello). ).
Está un paso por debajo de la aplicación impulsada por IA que Google lanzó en 2021 para diagnosticar afecciones de la piel, el cabello y las uñas. Esa aplicación, que debutó primero en la UE, enfrentó barreras de entrada en los EE. UU., donde tendría que haber sido aprobada por la Administración de Alimentos y Medicamentos. (Google se negó a buscar aprobación).
Créditos de imagen: Google
Aún así, la función Lens podría ser útil para las personas que deciden si buscar atención médica o tratamientos de venta libre.
En otros lugares, como se anunció previamente en I/O, Lens se está integrando con Bard, la experiencia de chatbot impulsada por IA de Google. Los usuarios podrán incluir imágenes en sus avisos de Bard y Lens trabajará entre bastidores para ayudar a Bard a entender lo que se muestra. Por ejemplo, si se le muestra una foto de zapatos y se le pregunta cómo se llaman, Bard, informado por el análisis de Lens, regresará con una respuesta.
Es la última actualización de Bard, la respuesta de Google a ChatGPT, ya que Google invierte una cantidad cada vez mayor de recursos en tecnologías de inteligencia artificial generativa. La semana pasada, Google introdujo una capacidad que le permite a Bard escribir, ejecutar y probar su propio código en segundo plano, mejorando su capacidad para programar y resolver problemas matemáticos complejos. Y en mayo, Google se asoció con Adobe para llevar la generación de arte a Bard.
Source link