创新科技资讯:这正是Google改进Pixel 4上人像模式的方式

导读 连日来这正是Google改进Pixel 4上人像模式的方式向来一不断的有小伙伴关注,不仅如此还衍生出了各大相关话题,那么跟着小编来看看这正是Go

连日来这正是Google改进Pixel 4上人像模式的方式向来一不断的有小伙伴关注,不仅如此还衍生出了各大相关话题,那么跟着小编来看看这正是Google改进Pixel 4上人像模式的方式以及它的相关资讯吧!

在谷歌像素4是与一个以上的后置摄像头,第一像素装置,标志着一个时间公司期待已久的举动时,三联相机的预期。

Google能够使用单摄像头Pixel手机,特殊是使用纵向模式(传统上需要第二个后置摄像头)的情况下,发挥奇特的作用。现在,该公司已在其AI博客上解释了Pixel 4纵向模式如何改善事物。

事实证明,Pixel 4仍然使用与以前的Pixels相同的一些单相机人像模式技术。较早的手机将双像素自动对焦技术用于人像模式,将12MP主摄像头上的每个像素均分为一半。相机像素的每一半都看到一个略微不同的视点(尤其是在背景中)。这同意 通过在两个视点之间找到对应的像素来粗略估量深度。

谷歌在博客中指出,这种解决方案有其局限性,因为双像素仅限于一个微小的单摄像头。这意味着视点之间的差异非常小,您确实需要更宽的视点以更好地进行深度估量。

谷歌发现远摄相机

Pixel 4的远摄镜头正是在这里发挥作用的,正如Google指出的那样,主摄像头和远摄相机之间的距离为13mm。Google在下面的GIF中说明了双像素和双相机之间的区别。请注意,双像素(L)的垂直偏移很小,而双摄像头的偏移非常明显。

Google AI博客

在这方面,双摄像头确实带来了一个重大挑战,因为在一个视图中可能无法在另一视图中找到像素(由于视角较宽)。这就是为什么Google不会在Pixel 4上放弃肖像模式的传统方法的原因。

“例如,主摄像机图像中紧靠男人右边的背景像素在次摄像机图像中没有相应的像素。因此,当仅使用双摄像头时,不可能测量视差以估量这些像素的深度。”从AI博客中摘录。“但是,仍然可以通过双像素视图(左)看到这些像素,从而可以更好地估量这些区域的深度。”

尽管如此,双摄像头也有助于解决所谓的光圈问题,这使垂直线的深度估量更具挑战性。此外,当惟独一种方法(双像素或双摄像头)可用时,谷歌还训练了其神经网络来足够好地计算深度。该公司表示,当相机距离拍摄对象至少20cm(长焦相机的最小焦距)时,手机会同时使用两种深度映射方法。

最后,谷歌表示,它还努力使bokeh更加突出,因此您可以在镜头背景中更清晰地看到bokeh光盘。查看上面的图片,以更好地了解成品。

这不是Google Pixel手机上目前唯一的新技术,因为该公司先前详细介绍了其天文摄影模式的工作原理。无论哪种方式,我们都希翼Google在2020年继续突破计算摄影的界限。