Los nuevos iPhones tienen excelentes cámaras, sin duda. Pero siempre es bueno verificar las afirmaciones de Apple en el escenario con informes de primera mano. Tenemos nuestra propia revisión de los teléfonos y sus sistemas de fotografía, pero los desmontajes brindan el invaluable servicio de permitirle ver los cambios más grandes con sus propios ojos, aumentados, por supuesto, por un microscopio de alta potencia.
Ya hemos visto Desmontaje sólido como siempre de iFixit del teléfono, pero TechInsights se acerca mucho más a los componentes del dispositivo, incluida la cámara mejorada del iPhone XS y XS Max.
Aunque, por lo que podemos decir, la óptica de la nueva cámara no ha cambiado desde la X, el sensor es nuevo y vale la pena mirarlo de cerca.
La microfotografía de la matriz del sensor muestra que las afirmaciones de Apple se confirman y algo más. El tamaño del sensor ha aumentado de 32,8 mm2 a 40,6 mm2, una gran diferencia a pesar de las unidades pequeñas. Cada poquito cuenta a esta escala. (A modo de comparación, el Galaxy S9 tiene 45 mm2 y el Pixel 2, que pronto será reemplazado, es de 25 mm2).
Los píxeles en sí mismos también, como se anuncia, crecieron de 1,22 micrones (micrómetros) a 1,4 micrones, lo que debería ayudar con la calidad de imagen en todos los ámbitos. Pero hay un desarrollo interesante y más sutil que ha cambiado continua pero silenciosamente desde su introducción: los “píxeles de enfoque”.
Esa es la marca de Apple para los puntos de enfoque automático de detección de fase (PDAF), que se encuentra en muchos otros dispositivos. La idea básica es enmascarar medio subpíxel de vez en cuando (lo que supongo que lo convierte en un subpíxel), y al observar cómo ingresa la luz a estos detectores semicubiertos, puede saber si algo está adentro. enfocarse o no.
Por supuesto, necesita un montón de ellos para sentir los patrones de la imagen con alta fidelidad, pero debe lograr un equilibrio: perder medio píxel puede no parecer mucho, pero si lo hace un millón de veces, es medio megapíxel efectivamente. por el desagüe. ¿Se pregunta por qué todos los puntos PDAF son verdes? Muchos sensores de cámara utilizan un patrón de subpíxeles “RGBG”, lo que significa que hay dos subpíxeles verdes para cada uno rojo y uno azul; es complicado por qué. Pero hay el doble de subpíxeles verdes y, por lo tanto, el canal verde es más robusto para perder un poco de información. Apple introdujo PDAF en el iPhone 6, pero como puede ver en el gran diagrama de TechInsights, los puntos son bastante escasos. Hay uno por cada 64 subpíxeles, y no solo eso, todos están enmascarados en la misma orientación: la mitad izquierda o derecha ha desaparecido.
Los 6S y 7 Plus vieron el número duplicarse a un punto PDAF por 32 subpíxeles. Y en el 8 Plus, el número se mejora a uno por 20, pero hay otra adición: ahora las máscaras de detección de fase también están en la parte superior e inferior de los subpíxeles. Como puede imaginar, hacer detección de fase en múltiples direcciones es una propuesta más sofisticada, pero también podría mejorar significativamente la precisión del proceso. Todos los sistemas de enfoque automático tienen sus debilidades, y esto puede haber abordado una que Apple lamentó en iteraciones anteriores.
Lo que nos lleva al XS (y Max, por supuesto), en el que los puntos PDAF ahora son uno por cada 16 subpíxeles, habiendo aumentado la frecuencia de los puntos de detección de fase vertical para que sean iguales en número al horizontal. . Claramente, el experimento valió la pena y cualquier pérdida de luz consecuente se ha mitigado o contabilizado.
Tengo curiosidad por saber cómo se comparan los patrones de subpíxeles de los teléfonos Samsung, Huawei y Google, y lo estoy investigando. Pero quería resaltar esta pequeña evolución interesante. Es un ejemplo interesante del tipo de cambios que son difíciles de entender cuando se explican en forma numérica simple – hemos duplicado esto, o hay un millón más de eso – pero que tienen sentido cuando los ves en forma física.
Source link