Ícono del sitio La Neta Neta

8 grandes anuncios de Google I/O 2018

8 grandes anuncios de Google I/O 2018

Google inauguró su conferencia anual de desarrolladores de E/S en el Anfiteatro Shoreline en Mountain View, California. Estos son algunos de los anuncios más importantes del discurso de apertura del día 1. Habrá más en los próximos días, así que sigue todo lo relacionado con Google I/O en TechCrunch.

Google apuesta por la inteligencia artificial y cambia el nombre de su división de investigación a Google AI

Justo antes del discurso de apertura, Google anunció que cambiará el nombre de su división Google Research a Google AI. El movimiento indica cómo Google se ha centrado cada vez más en la investigación y el desarrollo en la visión por computadora, el procesamiento del lenguaje natural y las redes neuronales.

Google hace que hablar con el Asistente sea más natural con “conversación continua”

Lo que Google anunció: Google anunció una actualización de “conversación continua” para el Asistente de Google que hace que hablar con el Asistente se sienta más natural. Ahora, en lugar de tener que decir “Hey Google” o “OK Google” cada vez que quieras decir un comando, solo tendrás que hacerlo la primera vez. La compañía también está agregando una nueva función que le permite hacer múltiples preguntas dentro de la misma solicitud. Todo esto se implementará en las próximas semanas.

Por qué es importante: Cuando tiene una conversación típica, lo más probable es que esté haciendo preguntas de seguimiento si no obtuvo la respuesta que deseaba. Pero puede ser molesto tener que decir “Hola Google” cada vez, y rompe todo el flujo y hace que el proceso se sienta poco natural. Si Google quiere ser un jugador importante en lo que respecta a las interfaces de voz, la interacción real debe sentirse como una conversación, no solo como una serie de consultas.

Google Photos recibe un impulso de IA

Lo que Google anunció: Google Photos ya te facilita la corrección de fotos con herramientas de edición integradas y funciones impulsadas por IA para crear automáticamente collages, películas y fotos estilizadas. Ahora, Fotos está recibiendo más correcciones impulsadas por IA, como coloración de fotos en blanco y negro, corrección de brillo y rotaciones sugeridas. Una nueva versión de la aplicación Google Photos sugerirá soluciones rápidas y ajustes como rotaciones, correcciones de brillo o agregar toques de color.

Por qué es importante: Google está trabajando para convertirse en un centro para todas sus fotos y puede atraer a usuarios potenciales al ofrecer herramientas poderosas para editar, ordenar y modificar esas fotos. Cada foto adicional que obtiene Google le ofrece más datos y los ayuda a mejorar cada vez más en el reconocimiento de imágenes, lo que al final no solo mejora la experiencia del usuario para Google, sino que también mejora sus propias herramientas para sus servicios. Google, en el fondo, es una empresa de búsqueda y necesita una gran cantidad de datos para que la búsqueda visual sea correcta.

El Asistente de Google y YouTube llegan a las pantallas inteligentes

Lo que Google anunció: Las pantallas inteligentes fueron el tema de conversación del impulso de CES de Google este año, pero no hemos escuchado mucho sobre el competidor Echo Show de Google desde entonces. En I/O, obtuvimos un poco más de información sobre los esfuerzos de visualización inteligente de la empresa. Las primeras pantallas inteligentes de Google se lanzarán en julio y, por supuesto, contarán con la tecnología del Asistente de Google y YouTube. Está claro que la empresa ha invertido algunos recursos en la creación de una primera versión visual de Assistant, lo que justifica la adición de una pantalla a la experiencia.

Por qué es importante: Los usuarios se están acostumbrando cada vez más a la idea de algún dispositivo inteligente sentado en su sala de estar que responderá a sus preguntas. Pero Google está buscando crear un sistema donde un usuario pueda hacer preguntas y luego tener la opción de tener algún tipo de pantalla visual para acciones que simplemente no se pueden resolver con una interfaz de voz. El Asistente de Google maneja la parte de voz de esa ecuación, y tener YouTube es un buen servicio que va junto con eso.

El Asistente de Google llega a Google Maps

Lo que Google anunció: El Asistente de Google llegará a Google Maps, disponible en iOS y Android este verano. La adición está destinada a proporcionar mejores recomendaciones a los usuarios. Google ha trabajado durante mucho tiempo para que Maps parezca más personalizado, pero dado que Maps ahora es mucho más que solo direcciones, la compañía está introduciendo nuevas funciones para brindarle mejores recomendaciones para lugares locales.

La integración de mapas también combina la cámara, la tecnología de visión artificial y Google Maps con Street View. Con la combinación de cámara y Maps, realmente parece que has saltado dentro de Street View. Google Lens puede hacer cosas como identificar edificios, o incluso razas de perros, simplemente apuntando la cámara al objeto en cuestión. También será capaz de identificar texto.

Por qué es importante: Maps es uno de los productos más grandes e importantes de Google. Hay mucho entusiasmo en torno a la realidad aumentada (puede señalar fenómenos como Pokémon Go) y las empresas apenas comienzan a rascar la superficie de los mejores casos de uso. Averiguar direcciones parece un caso de uso tan natural para una cámara, y aunque fue un poco una hazaña técnica, le da a Google otra ventaja para que sus usuarios de Maps los mantengan dentro del servicio y no cambien a otras alternativas. Una vez más, con Google, todo vuelve a los datos y es capaz de capturar más datos si los usuarios se quedan en sus aplicaciones.

Google anuncia una nueva generación para su hardware de aprendizaje automático TPU

Lo que Google anunció: A medida que se intensifica la guerra por la creación de hardware de IA personalizado, Google dijo que está lanzando su tercera generación de silicio, la Unidad de Procesador Tensor 3.0. El CEO de Google, Sundar Pichai, dijo que el nuevo pod de TPU es 8 veces más potente que el año pasado, con un rendimiento de hasta 100 petaflops. Google se une a casi todas las demás empresas importantes en la búsqueda de crear silicio personalizado para manejar las operaciones de su máquina.

Por qué es importante: Hay una carrera para crear las mejores herramientas de aprendizaje automático para desarrolladores. Ya sea a nivel de marco con herramientas como TensorFlow o PyTorch o a nivel de hardware real, la empresa que pueda encerrar a los desarrolladores en su ecosistema tendrá una ventaja sobre sus competidores. Es especialmente importante ya que Google busca convertir su plataforma en la nube, GCP, en un negocio masivo mientras se enfrenta a AWS de Amazon y Microsoft Azure. Brindar a los desarrolladores, que ya están adoptando TensorFlow en masa, una forma de acelerar sus operaciones puede ayudar a Google a continuar atrayéndolos al ecosistema de Google.

MOUNTAIN VIEW, CA – 8 DE MAYO: El CEO de Google, Sundar Pichai, pronuncia el discurso de apertura en la Conferencia Google I/O 2018 en el Anfiteatro Shoreline el 8 de mayo de 2018 en Mountain View, California. La conferencia de desarrolladores de dos días de Google se extiende hasta el miércoles 9 de mayo. (Foto de Justin Sullivan/Getty Images)

Google News obtiene un rediseño impulsado por IA

Lo que Google anunció: Cuidado, Facebook. Google también planea aprovechar la IA en una versión renovada de Google News. La aplicación de destino de noticias rediseñada y con tecnología de inteligencia artificial “permitirá a los usuarios mantenerse al día con las noticias que les interesan, comprender la historia completa y disfrutar y apoyar a los editores en los que confían”. Aprovechará los elementos que se encuentran en la aplicación de revista digital de Google, Newsstand y YouTube, e introduce nuevas funciones como “noticieros” y “cobertura completa” para ayudar a las personas a obtener un resumen o una visión más holística de una noticia.

Por qué es importante: El producto principal de Facebook se llama literalmente “Noticias”, y sirve como una importante fuente de información para una parte no trivial del planeta. Pero Facebook está envuelto en un escándalo por los datos personales de hasta 87 millones de usuarios que terminaron en manos de una firma de investigación política, y hay muchas preguntas sobre los algoritmos de Facebook y si revelan información legítima. Ese es un gran agujero que Google podría explotar al ofrecer un mejor producto de noticias y, una vez más, encerrar a los usuarios en su ecosistema.

Google presenta ML Kit, un SDK que facilita agregar inteligencia artificial a las aplicaciones de iOS y Android

Lo que Google anunció: Google presentó ML Kit, un nuevo kit de desarrollo de software para desarrolladores de aplicaciones en iOS y Android que les permite integrar modelos de aprendizaje automático proporcionados por Google en las aplicaciones. Los modelos admiten reconocimiento de texto, detección de rostros, escaneo de códigos de barras, etiquetado de imágenes y reconocimiento de puntos de referencia.

Por qué es importante: Las herramientas de aprendizaje automático han permitido una nueva ola de casos de uso que incluyen casos de uso creados sobre el reconocimiento de imágenes o la detección de voz. Pero a pesar de que los marcos como TensorFlow han facilitado la creación de aplicaciones que aprovechan esas herramientas, aún puede requerir un alto nivel de experiencia para ponerlas en marcha. Los desarrolladores a menudo descubren los mejores casos de uso para nuevas herramientas y dispositivos, y los kits de desarrollo como ML Kit ayudan a reducir la barrera de entrada y brindan a los desarrolladores sin mucha experiencia en aprendizaje automático un campo de juego para comenzar a descubrir casos de uso interesantes para esas aplicaciones.

Entonces, ¿cuándo podrás jugar con todas estas nuevas características? La versión beta de Android P está disponible hoy y puede encontrar la actualización aquí.


Source link
Salir de la versión móvil