Los últimos teléfonos insignia de Google tienen un impresionante conjunto de herramientas automatizadas con tecnología de inteligencia artificial para ayudar a que sus fotos se vean mejor, con desenfoques inteligentes, eliminación de objetos y exposición al tono de la piel. Si bien tendremos que probarlos para ver si funcionan como se anuncia, podrían ser útiles para todos, desde observadores de píxeles hasta tomadores de instantáneas casuales.
Las nuevas cámaras en sí mismas son bastante impresionantes para empezar. La cámara trasera principal, compartida por Pixel 6 y Pixel 6 Pro, es una bestia de 50 megapíxeles con pozos de píxeles de tamaño decente y una apertura equivalente a f / 1.85 (no, no captura tanta luz como una f / 1.8 en una DSLR, pero sigue siendo bueno). El ultra ancho, también compartido, es de 12 megapíxeles yf / 2.2 en un sensor más pequeño, así que no espere una calidad de imagen alucinante. El 6 Pro obtiene un teleobjetivo de 48 megapíxeles con menos capacidad con poca luz pero un zoom equivalente a 4x. Todos están estabilizados y tienen enfoque automático asistido por láser.
Básicamente, si desea la mejor calidad en cualquier situación, apéguese a la cámara principal, pero si está seguro de su luz, continúe y active el ancho o el zoom. Parece que todas las nuevas funciones de la cámara funcionan en todas las cámaras, pero en general, cuanto mejor sea la toma para empezar, mejor será el resultado final.
La herramienta más sencilla de utilizar probablemente sea “eliminar el desenfoque de la cara”. ¿Cuántas veces has conseguido la toma perfecta pero no es del todo nítida? La cámara de píxeles siempre capturará automáticamente múltiples exposiciones (es parte del proceso ordinario de tomar una foto ahora) y combina la toma principal de una cámara con una toma clara del rostro capturado con otra. Para hacerlo, simplemente toque en una toma de su galería que no sea muy nítida y si hay una opción de “borrar el rostro”: boom.
Créditos de imagen: Google
De acuerdo, definitivamente es un poco extraño tener solo la cara nítida en una foto borrosa, como puedes ver en la muestra, pero mira: ¿quieres la imagen o no? Pensado así.
También en el departamento de desenfoque hay dos nuevos “modos de movimiento”. Una es una “panorámica de acción” que ayuda a capturar claramente un sujeto en movimiento como un automóvil que pasa, mientras difumina el fondo de manera “creativa”. Eso significa que aplica un desenfoque de zoom dirigido en lugar del desenfoque de la computadora de mano que normalmente tendría, por lo que se ve un poco “ shoppy ”, por así decirlo, pero es una opción divertida. El otro es un ayudante de exposición prolongada que agrega desenfoque a los sujetos en movimiento mientras mantiene el fondo claro. Útil para hacer algo como las rayas de los faros delanteros sin un trípode. Estos se encontrarán en su propia área de modo de movimiento en la aplicación de la cámara.
Créditos de imagen: Google
“Magic Eraser” es la cosa más obvia de “IA” aquí. Si toma una foto y es genial, excepto que alguien acaba de pasar al fondo o hay un automóvil estacionado en la vista panorámica, lo ayudará a eliminar esos molestos objetos del mundo real para que pueda olvidar que alguna vez existieron. Toque la herramienta y resaltará automáticamente las cosas que quizás desee eliminar, como personas distantes, automóviles y, según el ejemplo que proporcionaron, incluso registros antiestéticos y otras características aleatorias. Driftwood, sin embargo, en la playa … ¿de verdad? Afortunadamente, puede elegir cuál arrojar en el agujero de la memoria, sin presión, o rodear objetos no reconocidos y hará todo lo posible para deshacerse de ellos.
La “Mejora del habla” no es para imágenes, obviamente, pero cuando estás en el modo de cámara frontal puedes optar por que el dispositivo atenúe el ruido ambiental y se enfoque en tu voz. Básicamente Krisp de Google. Si también funciona en algún lugar cercano, probablemente querrá usarlo todo el tiempo.
“Real Tone” es una característica interesante pero potencialmente tensa que analizaremos con más detalle pronto. Google lo describe así: “Trabajamos con un conjunto diverso de creadores de imágenes y fotógrafos expertos para ajustar nuestro AWB [auto white balance], AE [auto exposure]y algoritmos de luz parásita para garantizar que los productos de imágenes y cámaras de Google funcionen para todos, con cualquier tono de piel “.
Se ven geniales, seguro… pero son modelos. Créditos de imagen: Google
Básicamente, querían asegurarse de que las funciones principales de su cámara “inteligente” no funcionaran mejor o no se vieran mejor en ciertos tonos de piel que en otros. Esto ha sucedido muchas, muchas veces antes y es un insulto y una vergüenza cuando las empresas de miles de millones de dólares lo explotan una y otra vez. Es de esperar que Real Tone funcione, pero incluso si lo hace, existe la cuestión fundamental de si equivale a aclarar u oscurecer la piel de alguien en la foto, un asunto delicado para muchas personas. “Esta función no se puede desactivar ni desactivar”, dice Google, por lo que deben estar seguros. Probaremos esto y hablaremos con desarrolladores y fotógrafos sobre la función, así que busque una inmersión más profunda en este interesante pero complejo rincón del campo.
No está del todo claro cuántas de estas funciones estarán disponibles más allá de la línea de teléfonos Pixel o cuándo, pero le informaremos lo que averigüemos.
Source link