Google Pixel 2, el móvil con la mejor cámara del mercado gracias a la fotografía computacional

Hoy voy a contaros mi experiencia de uso con la cámara del móvil Google Pixel 2 XL. Durante dos semanas he tenido la oportunidad de probarla y tengo que decir que estoy realmente impresionado con el rendimiento fotográfico de este aparato, puntero en el uso de la fotografía computacional.

La verdad es que yo no le dedico demasiada atención a las cámaras de los teléfonos móviles. Después de cuarenta años utilizando una réflex se me quedan siempre cortas. Sin embargo, hace poco vi las fotografías de ejemplo capturadas con este modelo de móvil que Google estuvo enviando a los medios de comunicación con motivo de su lanzamiento y me llamaron poderosamente la atención. Cualquier ojo experto era capaz de ver inmediatamente que la inmensa mayoría de las fotografías estaban tomadas en situaciones de luz muy críticas en las que típicamente el rango dinámico de la escena (la diferencia entre las altas luces y las sombras) excedía las posibilidades de captación del sensor y, esa era la sorpresa, en las fotografías quedaban bien plasmadas tanto las zonas más iluminadas como las oscuras.

Por añadidura, el análisis realizado por el prestigioso laboratorio DxO, que incluye una batería de más de 1.500 pruebas, le dio al Google Pixel 2 una nota final de 98, la puntuación más alta obtenida hasta la actualidad por ninguna cámara de teléfono móvil. Si queréis ver los detalles de su análisis, los podéis encontrar en este enlace: Análisis del Google Pixel 2

Este fue el motivo que me llevó a solicitar a los chicos de Google que me prestaran por unos días el Pixel 2 XL con el fin de ver si realmente su respuesta era tan buena como la que evidenciaban las fotografías del lanzamiento.

Un nuevo estándar en fotografía móvil

Por no mantener el suspense, empezaré por decir que los resultados de la cámara son sin lugar a dudas, realmente excepcionales. El aparato brilla con luz propia en diversos aspectos como la aplicación muy certera del HDR, pero también el desenfoque inteligente del fondo en los retratos, la estabilización y compensación del movimiento tanto en fotografía como en video, la profundidad de los negros, la capacidad de tomar fotografías nocturnas sin apenas ruido… En otras palabras, me ha encantado y ha sido una separación realmente dolorosa cuando he vuelto a meter el teléfono en su caja para devolvérselo a Google.

La estrategia de Google para desarrollar esta cámara es diferente a la seguida por la mayoría de los fabricantes. Hna creado un sensor de 12 Mp y, al contrario de la actual tendencia de incorporar un par de cámaras traseras (parece que el nuevo Huawei P11 tendrá tres), llegar a acuerdos con fabricantes de óptica prestigiosos o aumentar el número de megapíxeles de su sensor, los ingenieros de Mountain View decidieron que la respuesta para una mejor fotografía estaba en el software.

El rango dinámico de la fotografía superior es amplísimo. Entre el brillo especular de la torre y las zonas de negros profundos hay muchos más pasos de diafragma de los que puede reproducir adecuadamente un buen sensor, pero gracias a la fotografía computacional el resultado es brillante. El recorte al 100% de la fotografía inferior permite ver el detalle original.

Fotografía computacional

Desde el momento en que se aprieta el disparador de la cámara de un móvil hasta que vemos el resultado de la fotografía, la cámara realiza un largo proceso que conlleva 30 o 40 pasos, entre ellos el ajuste del balance de blancos, la compensación de altas luces, la disminución del ruido, la reparación de píxeles muertos del sensor, el enfoque, el ajuste del contraste, etcétera.

La mayoría de las cámaras integradas en los teléfonos móviles realizan estas tareas mediante el hardware, circuitos integrados especializados en hacer cada una de esas cosas. La estrategia de Google es distinta, sustituye el hardware por el software y saca ventaja de algo que hoy en día es una realidad, la inteligencia computacional y su capacidad de aprendizaje.

Los avances de fotografía computacional de esta cámara se han orientado fundamentalmente a dos cosas: HDR y modo de retrato. Y los extraordinarios resultados que se consiguen con el Google Pixel 2 tienen una explicación.

Hoy hay ya bastante software que utiliza la inteligencia artificial para mejorar fotografía con resultados aceptables, pero no llegan ni de lejos a los que consigue el Google Pixel 2 ¿Por qué? Pues sencillamente porque los ingenieros de Google no trabajan sólo con la imagen terminada para procesarla y mejorarla, sino que antes de eso, han programado su cámara para que ésta haga automáticamente hasta 10 tomas por cada fotografía y con distintos ajustes, para luego, a la hora de aplicar los ajustes de procesado, disponer de mucha información para componer con ella la toma final.

Los resultados de las fotografías tomasdas con iluminación artificial en la noche son notables. No sólo los colores se reproducen con gran fidelidad y los negros son profundos, sino que además la estabilización física de la cámara produce fotografías nítidas. En la fotografía inferior se puede ver un recorte de la imagen al 100%

Cómo funciona el HDR en el Pixel 2

Cada vez que apretamos el botón disparador, la cámara del móvil de Google analiza los valores lumínicos de la escena y realiza una serie de hasta 10 fotografías en ráfaga. Las fotografías no son iguales ya que el aparato realiza automáticamente ajustes de luminosidad.

Con esa serie de fotografías obtenida en cada disparo, el procesador realiza un trabajo automático de fusión de las imágenes para ofrecernos una fotografía final en la que altas luces y sombras quedan compensadas para evitar que las primeras se quemen y las segundas se empasten. Simultáneamente, el software de la cámara detecta la existencia de “fantasmas” (elementos en movimiento que aparecen en una toma, pero no en otras) y los elimina de la escena.

Esto que a cabo de describir es sencillamente el trabajo que hacen todos los programas de HDR, lo que ocurre es que la cámara de Google realiza esa tarea de forma automática en el momento mismo de la toma y está programado para adoptar autónomamente decisiones sobre el grado de compensación de luces y sombras que nos va a ofrecer. Y esto último es muy importante para obtener resultados naturales.

Durante mucho tiempo las fotos de alto rango dinámico (HDR) han sido a menudo una galería de horrores con resultados muy artificiales. Sin embargo, el algoritmo implementado en este teléfono proporciona unas imágenes absolutamente naturales que replican el alto rango dinámico propio de la visión humana. Por esta razón, cuando miramos las fotos nos parece que el resultado es sencillamente natural… cuando en realidad es un milagro de la ingeniería y el software.

En situaciones normales de iluminación, luz día, la respuesta de los colores y el contraste es brillante. Debajo recorte al 100% de una zona de la imagen superior.

La solución de Google para los retratos

Cuando se trata de hacer retratos, la cámara de este teléfono móvil detecta que nuestro sujeto es una persona y desarrolla otro proceso que combina hardware y software para desenfocar el fondo.

Los sensores de las cámaras fotográficas integradas en los teléfonos móviles son diminutos. Esto hace que las escenas que captan tengan una grandísima profundidad de campo donde todo, desde el primer término hasta el fondo, queda a foco.

Por el contrario, las cámaras réflex de formato completo o las de formato medio con ópticas muy luminosas o teleobjetivos, son capaces de hacer retratos en los que el sujeto se recorta con naturalidad y belleza en un fondo desenfocado.

Para imitar ese resultado profesional, los ingenieros de Mountain View han combinado varios recursos. En primer lugar, han dotado al sensor de la cámara de una tecnología de dual pixel que consiste en dividir cada pixel en dos. Esto permite un enfoque muy rápido, pero también hace posible que se puedan desenfocar zonas de la imagen durante el procesado.

Además, los ingenieros se valieron de la inteligencia computacional para entrenar al programa en el reconocimiento de sujetos en muy diversas situaciones. Esto se hizo suministrándole al ordenador cerca de un millón de fotografías con personas en muy diversas situaciones: solas, en grupo, en casas, en la naturaleza, de día, de noche, con animales, en el agua, etc. y afinando un software capaz de distinguir el sujeto de lo que le rodeaba.

Una vez conseguido esto, el procesador de la cámara del Google Pixel 2 XL genera en tiempo real una máscara como haríamos nosotros manualmente en Photoshop, y le aplica cierto grado de desenfoque a lo que queda fuera de esa máscara, tomando para ello la información proveniente del sistema Dual Pixel.

Una vez conseguido esto, el procesador de la cámara del Google Pixel 2 XL genera en tiempo real una máscara como haríamos nosotros manualmente en Photoshop, y le aplica cierto grado de desenfoque a lo que queda fuera de esa máscara, tomando para ello la información proveniente del sistema Dual Pixel.

Otra escena más en la que se mezclan zonas de altas luces, cielo luminoso y sombras abiertas, con un resultado muy bueno. Debajo recorte al 100% de parte de la fuente.

No sólo de software vive la cámara

Los prodigios conseguidos por la fotografía computacional son el verdadero rasgo distintivo de la cámara de este teléfono móvil. Sin embargo, éste tiene otras características de hardware que también son importantes y contribuyen a la calidad de las fotografías y videos grabados por el aparato.

Un ejemplo de ello es el enfoque nocturno que la cámara realiza gracias a una diminuta fuente de infrarrojos situada junto al objetivo y que le ayuda en esta tarea de forma muy efectiva, a juzgar por mi experiencia.

Otra de las fortalezas distintivas de esta cámara es la efectividad de su sistema de estabilización. El aparato logra la estabilización por hardware ya que el objetivo está como suspendido de unos muelles que lo mueven ligeramente en uno u otro sentido en función de los movimientos percibidos por el giroscopio que lleva el aparato.

Supongo que en fotografía en situaciones de muy poca luz el efecto será muy notable pero desde luego cuando lo he podido apreciar de forma muy evidente ha sido al rodar algunos videos de prueba en movimiento. La estabilidad de la cámara en esa situación era equivalente a la que se conseguiría con un steady Cam.

Interior iluminado y exterior nocturno oscuro. La compensación luces y sombras es efectiva y convincente, muy lejos de los HDR falsos.. Debajo recorte al 100% de un detalle de la imagen.

Almacenamiento indefinido de fotografías

Aunque no voy a entrar en absoluto en las brillantes características que ofrece el Google Pixel 2XL como teléfono, si me parece interesante destacar que sus usuarios tienen derecho a almacenamiento gratuito de todas sus imágenes y vídeos en Google fotos sin limitación de tamaño. Lo cierto es que Google fotos es gratuito a para todos los usuarios, pero se limita el tamaño que pueden tener las imágenes almacenadas en el sistema. Si estas imágenes provienen del teléfono de Google esa limitación no existe.

Por lo demás, este teléfono se comporta como era de esperar en un aparato de alta gama. Su tacto es muy agradable, también lo es su estética. La duración de la batería aun haciendo muchas fotografías y videos es excepcional…

Sí me parece importante destacar que en aunque las fotografías que podéis ver a continuación corresponden a un Googel Pixel 2 XL, la cámara que equipa el Googel Pixel 2 es exactamente la misma.

A continuación se puede ver una galería con fotografías tomadas por el Google Pixel 2 XL en situaciones de iluminación diversas, la mayoría de ellas complicadas, y la respuesta que ofrece, siempre muy buena. Todas las fotografías mostradas en la galería al igual que las anteriores, están tal como las grabó la cámara, sin que yo les haya aplicao ningún procesado posterior.

[Best_Wordpress_Gallery id=»2″ gal_title=»Google Pixel 2″]

2 COMENTARIOS

  1. De igual manera jamas me había preocupado por ver las prestaciones de las cámaras en los móviles, y aunque este articulo ya tiene un año la verdad la información me parece EXCELENTE. Estoy leyendo cuanto puedo de «fotografía computacional» y la verdad me gustaría saber si algún fabricante de DSLR pensara incorporar dicha capacidad en 2018-2019… saludos!.

  2. También me gustaría a mi saberlo. Supongo que el futuro va por ahí pero imagino que esto entrará antes en las compactas que en las reflex. Ya veremos. Por cierto ya salió hace meses el Google Pixel 3, pero no he tenido oportunidad de probarlo.

DEJA UNA RESPUESTA

Por favor, haz tu comentario
Por favor, introduce tu nombre