Как удалось улучшить портретный режим на Google Pixel 4?

Google Pixel 4 — первый смартфон из линейки Pixel, оснащенный более, чем одной камерой. Сегодня все ожидают от производителей уже тройных камер, так что компания очень вовремя пошла на такой шаг.

Телефонам Google и раньше удавалось делать потрясающие снимки даже с одной камерой, в том числе в портретном режиме, для которого, как правило, требуется целых две. На днях компания объяснила в своем блоге, посвященном искусственному интеллекту, как именно им удалось улучшить портретный режим на Pixel 4.

Оказывается, что в новом Pixel 4 используются определенные технологии, которые были разработаны еще для одинарной камеры прошлой модели. В прошлых Pixel для портретного режима использовался двойной пиксельный автофокус: каждый пиксель 12-мегапиксельной камеры делится пополам, и каждая половина «видит» изображение под своим углом, особенно это влияет на восприятие камерой фона. Выбор соответствующих пикселей между двумя отличными ракурсами позволяет примерно определять глубину картинки.

В блоге однако говорится, что у этой технологии есть свои минусы. Двойные пиксели ограничены маленькой одинарной камерой, а значит разница между ракурсами невероятно мала. Для лучшего определения глубины нужен более широкий угол обзора.

Google переходит на длиннофокусные камеры

Для Pixel 4 же была выбрана длиннофокусная камера — по словам Google, расстояние между точкой обзора основной камеры и длиннофокусной составляет 13 миллиметров. На анимации из блога Google ниже можно увидеть эту разницу. Обратите внимание, что у камеры с раздвоенными пикселями (слева) изображение лишь несколько смещается вертикально, у двойной же камеры разница между углами обзора куда более заметна.

Двойные камеры однако сталкиваются с другой проблемой — некоторые пиксели, которые видны на основную камеру, не попадают в поле зрения длиннофокусной. Именно поэтому от использования своей фирменной технологии в портретном режиме Pixel 4 в Google полностью отказываться не собираются.

«Например, пиксели фона справа от мужчины на снимке, которые попадают в поле зрения основной камеры, не имеют соответствий в изображении со второй камеры. Так, измерить параллакс, чтобы определить глубину для этих пикселей, используя исключительно двойную камеру, невозможно», — пишут в блоге Google. «Однако, эти пиксели видно при использовании технологии раздвоенных пикселей (слева), что позволяет более точно определить глубину на этих участках изображения».

Помимо всего прочего, двойная камера позволяет решить так называемую проблему диафрагмы — затрудненное определение глубины по вертикали. Более того, нейросеть Google также обучена довольно точно рассчитывать глубину даже с использованием только одного из доступных методов (раздвоенные пиксели/двойная камера). Представители компании утверждают, что телефон использует сразу оба метода, если объект отдален хотя бы на 20 сантиметров  — это минимальное фокусное расстояние для длиннофокусной камеры.

Также, по словам Google, новые разработки позволили сделать эффект боке на фоне снимка — характерные расплывчатые круги — более заметным.

Это не единственная новая технология для телефонов Pixel — ранее компания подробно рассказала о том, как работает режим астросъемки. Будем надеяться, что на этом Google не остановится и будет и дальше развивать технологии вычислительной фотографии.

Подробный обзор Pixel 4 XL — уже на нашем сайте!

Вниманию всех, кто планировал купить телефон Google Pixel 4 или Pixel 4 XL — новинка уже поступила в продажу в наш фирменный магазин!

Добавить комментарий