Servicio al Cliente

clientes@chileguia.cl
Categorias

Detrás de escena: las cámaras Pixel de Google no intentan ser cámaras en absoluto

Si está buscando un teléfono inteligente con una buena cámara, no hay duda de que ha visto la serie Pixel de Google en una lista de recomendaciones. Año tras año, Google ha descubierto cómo hacer una cámara que ofrezca excelentes resultados cada vez. Desde el blogger de tecnología de espionaje de píxeles hasta el consumidor cotidiano, es difícil encontrar una sola persona que no ame las cámaras de Pixel.

Excepto que Google no está tratando de hacer cámaras. Está tratando de hacer magia.

Recientemente tuve la oportunidad de sentarme con Marc Levoy e Isaac Reynolds, las mentes centrales detrás del sistema de cámara frustrantemente bueno de la serie Pixel. Tuvimos largas conversaciones sobre las nuevas funciones de la cámara del Pixel 4 , desde su vista nocturna mejorada hasta su visor HDR + en tiempo real WYSIWYG (Lo que ves es lo que obtienes). Se habló mucho sobre cómo Google está habilitando estas funciones, pero una cosa quedó clara al final. La cámara Pixel de Google no se trata de intentar ser una cámara en absoluto.

"Nuestra filosofía central es construir una cámara que haga magia, que es esa combinación de simplicidad y calidad de imagen", explicó Reynolds, "así que Night Sight sigue ahí, HDR + predeterminado sigue ahí". Todo el procesamiento que se lleva a cabo debajo del capó para obtener una gran foto del modo predeterminado todavía está allí. Y en realidad también hemos simplificado mucho más ”.

Modo por defecto. Simplificación. Magia. Estas son frases que Google está usando como parte de su filosofía central para la cámara de Pixel. En las mentes de Levoy y Reynold, capturar el momento no tiene que ver con los diales de modo y los menús de configuración. Google no está tratando de construir una cámara en su teléfono, está tratando de construir algo que produzca imágenes consistentemente excelentes desde la puerta, a través de medios tradicionales o de otra manera.

Lo que ves, es lo que tienes

Una de las nuevas características del Pixel 4 es el visor WYSIWYG, lo que significa que verá los resultados de HDR + incluso antes de tomar la foto. Esto puede parecer una característica menor, pero permite algunas cosas que simplemente no son posibles en cámaras no controladas por computadora.

El objetivo de ese visor WYSIWYG es reducir la interacción del usuario tanto como sea posible. Al mostrar la imagen resultante justo cuando abre la cámara, sabrá si está obteniendo una exposición uniforme de inmediato, y puede enfocarse en clavar su toma.

"Si vemos que el usuario hizo tapping, sabemos que la cámara no le dio lo que quería desde el principio", continúa Reynolds. "Entonces, un tap, para mí, es potencialmente un caso de falla que nos gustaría mejorar. . "

Los sistemas de cámara tradicionales son bastante malos para obtener la imagen que desea directamente de la cámara. Puede exponer para los reflejos y aumentar las sombras más tarde, o exponer para las sombras pero apagar los reflejos. Gracias a la tecnología, podemos hacer ambas cosas, y aquí es donde la fotografía computacional realmente comienza a hacer realidad esa magia.

"Tener un visor WYSIWYG ahora significa que podemos repensar cómo controlar la exposición en la cámara si lo desea", dice Levoy, "así que si toca, mientras que antes obtendría un control deslizante de compensación de exposición, ahora obtendrá dos deslizadores Llamamos a esta función Control de exposición dual. Y podrían ser reflejos y sombras. Podría ser brillo y rango dinámico. Hay muchas maneras de hacer esas dos variables. Lo hemos configurado para hacer brillo y sombras. Y eso te da un tipo de control que nadie ha tenido en una cámara antes ".

Estás editando la foto incluso antes de tomar la foto.

Levoy tiene razón. El control de exposición dual es algo que solo se puede producir a través de imágenes computacionales. Como línea de base, la imagen será uniforme, con reflejos preservados y sombras visibles. Pero si lo desea, tiene el poder de ajustar individualmente los reflejos y las sombras, incluso antes de tomar la foto. Eso es algo que anteriormente solo podía hacer en el software de edición de fotos, después de tomar la foto.

El equipo de Levoy está tratando de ver más allá de las limitaciones de la cámara tradicional enfocando sus esfuerzos en las limitaciones que tienen las cámaras tradicionales. Si bien la mayoría de los fabricantes están introduciendo modos Pro para brindarle control de apertura, velocidad de obturación e ISO, Google está tratando de crear automáticamente una mejor imagen de la que podría, incluso si tuviera esos botones perfectamente.

Mira a las estrellas

Levoy llama a esta nueva capacidad "HDR + con esteroides". Donde HDR + estándar toma una ráfaga de 10-15 exposiciones cortas y alignes y las promedia para obtener imágenes nítidas con poco ruido, este nuevo modo toma hasta 15 series de exposiciones de 16 segundos, para crear una exposición de 4 minutos. Luego, el sistema alinea las imágenes (ya que las estrellas se mueven con el tiempo) y ajusta la configuración adecuada mientras reduce el ruido con promedios de píxeles para crear algunas imágenes asombrosas.

Levoy me mostró algunos ejemplos de fotos que su equipo tomó de la vía láctea, y mi mandíbula literalmente cayó. Si bien es posible realizar exposiciones prolongadas en los sistemas de cámara tradicionales, generalmente necesita un equipo adicional para encender la cámara con el tiempo si desea imágenes extra nítidas. Con Night Sight, puede simplemente apoyar su teléfono contra una roca, golpear el obturador y el dispositivo hará el resto.

Quizás la parte más inteligente de este nuevo modo Astro Night Sight es que no es un modo separado en absoluto. Todo sucede con el botón Night Sight. HDR + ya usa el giroscopio para detectar movimiento y alinear ráfagas de imágenes, y Night Sight ahora detectará cuánto tiempo puede tomar una imagen de manera factible dependiendo de qué tan estable esté el dispositivo cuando presiona el botón del obturador, hasta cuatro minutos. También detectará cielos utilizando un método llamado segmentación semántica, que permite al sistema tratar ciertas áreas de la imagen de manera diferente para obtener el mejor resultado.

"Queremos que las cosas sean fáciles de usar para todos", dice Reynolds, "así que cada vez que encontramos algo en el producto que no necesita estar allí, podemos quitarle esa responsabilidad y resolver eso por usted".

Esa declaración realmente reduce lo que Google está tratando de hacer con la cámara de Pixel. En lugar de ver cómo pueden hacer que funcione como una cámara, Google está tratando de resolver problemas que ni siquiera sabía que existían, y presentarlos de la forma más simple posible.

Por supuesto, hay méritos para ambos lados. Algunas personas pueden querer una cámara de teléfono que funcione como una cámara, con controles manuales y diales. Es posible que quieran sensores más grandes y modos Pro. Pero mientras que otros ODM se centran casi exclusivamente en el hardware, Google está mirando en una dirección totalmente diferente.

Está buscando hacer magia.

Últimos de Foro (0)
Publicidad
Chileguía

El directorio en línea más completo para encontrar detalles de negocios, contactos, productos, servicios y precios.

info@chileguia.cl

© Chileguia. Todos los derechos reservados.
Implementado por Chileguia