Tiene sentido que los fabricantes de teléfonos estén prestando especial atención a cómo se muestran las caras en las fotos, y el nuevo Pixel 6, anunciado hoy por Google, presenta un conjunto de nuevas herramientas impulsadas por IA para que los humanos se muestren mejor que nunca. Los dos aspectos más destacados son Face Unblur, que ayuda a reducir el desenfoque en las caras en movimiento, y Real Tone. Este último es algo de magia de posprocesamiento impulsada por IA, impulsada por el nuevo chip Tensor de Google, con el objetivo de hacer que las caras con todos los tonos de piel se muestren lo mejor posible.
Ya sea que esté tomando selfies o alguien más, la gran mayoría de las fotos tomadas con un teléfono inteligente son de seres humanos. Tradicionalmente, ha sido extremadamente difícil lograr que la exposición se vea bien en las fotos en las que aparecen varios rostros en la foto, especialmente si todos los rostros tienen diferentes tonos de piel. El nuevo Pixel 6 aporta una capa de fotografía computacional a la mezcla para garantizar que todos los que aparecen en la foto se vean lo mejor posible. El equipo de Pixel trabajó con un conjunto diverso de creadores de imágenes y fotógrafos expertos para ajustar el balance de blancos, la exposición y los algoritmos. Afirman que esto asegura que las fotos funcionen para todos, de todos los tonos de piel.
Google destaca que ve Real Tone como una misión y una mejora en sus sistemas de cámaras, en lugar de una solución concluyente a los desafíos que enfrentan los fotógrafos. La compañía ha invertido recursos sustanciales para garantizar que todas las personas, y en particular las personas de color, estén mejor representadas en la forma en que las cámaras capturan sus rostros.
“Mi madre es una mujer negra de piel oscura, mi padre es un alemán blanco. Toda mi vida ha habido una pregunta: ¿Cómo podemos obtener una imagen en la que todos se vean bien? ”, Dijo Florian Koenigsberger, director de marketing de productos de fotografía avanzada del equipo de Android, en una breve entrevista antes del lanzamiento de los nuevos teléfonos. “La nueva cámara es un paso en el camino. Los números de diversidad de Google no son un misterio para el mundo, y sabíamos que definitivamente teníamos algunas deficiencias en términos de experiencia vivida y quién podía hablar con autenticidad sobre esto “.
El equipo de cámara trabajó con fotógrafos, coloristas, directores de fotografía, directores de fotografía y directores para obtener una comprensión más profunda de los desafíos en la iluminación y la captura de un conjunto diverso de tonos de piel, y en particular personas con tonos de piel más oscuros. Entre otros, el equipo se apoyó en la experiencia de un amplio espectro de profesionales, incluido el director de fotografía de Insecure. Ava Berkofsky, fotógrafo Joshua Kissiy director de fotografía Kira Kelly.
“Nos enfocamos en traer este conjunto de perspectivas realmente diverso, no solo en términos de origen étnico y tonos de piel, sino también una variedad de prácticas”, dijo Koenigsberger. “Los coloristas fueron en realidad algunas de las personas más interesantes con las que hablar porque piensan en esto como una ciencia que ocurre en el proceso de creación de imágenes”.
El equipo de productos de Google trabajó con estos expertos en imágenes para proporcionarles cámaras y los desafió a capturar situaciones de imágenes extremadamente desafiantes, incluidas fuentes de luz mixtas, retroiluminación, interiores, múltiples tonos de piel en una imagen, etc.
“Tuvimos que aprender dónde se derrumban las cosas, especialmente para estas comunidades, y a partir de ahí podemos averiguar qué dirección podemos tomar a partir de ahí”, explica Koenigsberger. “Los profesionales de la imagen fueron muy francos y estuvieron directamente en la sala con nuestros ingenieros. Ayudé a facilitar estas conversaciones y fue fascinante ver no solo los aprendizajes técnicos, sino también el aprendizaje cultural que sucedió en este espacio. Hablo de ceniza, tonos de piel más oscuros, texturas. Los matices de los tonos medios pueden variar “.
El proceso comienza con los algoritmos de detección facial de la cámara. Una vez que la cámara sabe que está mirando una cara, puede comenzar a descubrir cómo renderizar la imagen de una manera que funcione bien. Al realizar pruebas en todos los dispositivos, el equipo de Google descubrió que el Pixel 6 siempre se desempeñaba mejor que los de los fabricantes de la competencia, e incluso los teléfonos Pixel de la generación anterior.
No está claro de inmediato cómo funciona la función en la práctica, y si realiza ediciones globales (es decir, aplica el mismo filtro en toda la imagen) o si la IA edita caras individuales como parte de su pase de edición. Esperamos profundizar en este aspecto específico de la funcionalidad de la cámara para ver cómo funciona en la práctica muy pronto.
El equipo de cámara destaca que el trabajo realizado en este espacio significa que los conjuntos de entrenamiento para crear los algoritmos de la cámara son más diversos en un factor de 25. La función Real Tone es una parte central de los algoritmos de la cámara y no se puede apagar ni discapacitado.
Source link