iPhone 11 1200万像素为何拍照更出色?怎么拍?
原创

iPhone 11 1200万像素为何拍照更出色?怎么拍?

好文
试试语音读文章

热门回答:

在问答上的517个问题。只写接地气的科技内容。欢迎关注。

2K分辨率的手机屏幕。包含的像素点也不过区区400万不到。所以1200W像素是足够的。

在如今相机动不动三摄四摄的年代。当我们评判拍照的时候。首先还是要去想一下:到底三摄四摄是怎样协同工作的?这里我们就拿iPhone 11系列的镜头举例子。来看看成像的关键因素到底是什么。

三摄工作机制

首先目前旗舰手机来说。一般至少会标配三枚镜头:一枚是超广角镜头。用于拍摄风光照片;一枚是广角主摄镜头。用于多数场景的成像;一枚是长焦镜头。用户拍摄物体和人像使用。同时可以协助变焦。三枚镜头实际上是协同工作。共同来完成拍照任务的。

我们拿iPhone 11 Pro的三摄来举例子:当用户使用13mm超广角镜头拍摄的时候。其实26mm主摄和52mm长焦镜头也在工作。这样他们的画面可以使得中心画面的成像质量更好。拍下的照片也会保存26mm和52mm镜头采集的数据。使得照片有更大的后期空间。使用26mm拍照的时候也是一样。13mm镜头工作。画面可以弥补边缘画质。52mm也可以弥补中心画质。所以三摄是共同工作。相辅相成的。

那么总要有一个镜头说了算对吧。三枚镜头毕竟硬件素质不同。传感器不同。如何确保呢?实际上三枚镜头工作时。所有的测光和对焦参数都是以主摄像头为准的。这样就确保了三枚镜头成像的画质是相似的。这也是为什么主摄像头会配备更好的传感器。配备更好的对焦系统。也就当之无愧对得起“主摄”的称号了。

背后的软件方案

硬件只是成像的基础。实际上决定最后成像质量的。其实是最终的软件方案。

当光想非常好的环境下。成像是比较简单的。无非就是记录下三摄的镜头成像数据。做好拼接。软件微微调色。最多就是虚化的时候实现机器算法的抠图弥补。识别出物体之间的前后关系。把主物体提取出来。背景适当虚化掉。华为采用了一枚景深镜头来实现。iPhone这一次则是单纯使用的算法。

当光线比较阴暗的时候。也就是室内环境或者阴天。此时为了获得比较好的成像。就需要使用到多帧合成技术了。也就是三枚镜头同时成像。而且是一次多次成像。比如说iPhone 11 Pro每枚镜头会记录下三张。一共9张照片。做堆叠。这时候就需要有优秀的算法处理能力了。也就是不仅仅要分辨出物体关系。还要明白物体是什么?天是天。人是人。山是山。树是树。然后给每个物体匹配相应的颜色实现正常曝光。

当光线极度昏暗的时候。也就是我们常说的夜景成像。三摄镜头就不仅仅是多张记录。还会适当增加曝光时间来提升光线的接收数量。但是手机毕竟是手机。传感器很小。再怎样接收的光线也不多。怎么办呢?这个时候就真正需要用到机器学习了。也就是镜头采集的画面。可能只能够识别出轮廓。但是很多地方是没办法看清楚的。怎么办呢?那就只能“机器脑补”了。也就是机器自动来弥补出画面......是不是很牛X?

处理器和算法才是背后的功臣

想要完成这样的使命。光靠ISP图形处理模块是不够的。核心还是硬件和算法的进步。

拿硬件来说吧。iPhone 11搭载的A13芯片。在CPU上新增了两个“机器学习模块”。其实就是用来处理算法问题的。作为地表最强性能的A13芯片。处理能力可以达到万亿次每秒。一方面可以实现更高效的运算。另一方面则是减少用户的等待时间。可以按下快门就得到照片。提升用户体验。

至于算法层面。就是谷歌前几年一直在做的算法革命了。比如弥补脸部的算法。其实是实验室阶段学习了百万张人脸在这个光线环境下的状态得到的。这样一来即便没有抓取到清晰的像素。但是依旧可以依靠算法“脑补”出正确的影像和光线。看似简单的背后。都是长久以来算法工程师做出的努力。

为什么iPhone 11能够拍出更好的照片。这样看来。你觉得跟1200W像素关系大么?

其他观点:

关于这个问题。我们首先要知道像素高不一定拍照效果就更好。不说苹果11就比如苹果5的时期。1200万的国产机也无法超越苹果的800万。国产机像素高反而照片质量差。

那拍照效果看什么呢。手机的拍照效果不是只看像素。镜头。传感器。后期优化。缺一不可。苹果手机虽然像素低。但是其它地方足够优秀。特别是在系统优化上。可以说做的是非常完美的。在拍照的优化上也是如此。

同样苹果手机的IOS系统大家都清楚。相对安卓开放系统来说就是有得天独厚的优势。虽然苹果手机的硬件水平不是最好的。但是ios系统还是能够流畅的一直运行。而不像安卓手机一样用一段时间就会明显变得卡顿一样。苹果的拍摄也是如此。尽管苹果手机的像素不是最高的。但是拍出来的照片还是要比像素更高的手机看着好。这就是依靠软件处理图像的算法有直接的关系。

当前一些国内手机公司也发现了这些问题。比如华为寻找徕卡合作。就是想提高自己的图像优化能力。

因此。虽然苹果11的硬件配置不高。但是凭借其优秀的图像处理能力和系统的整体优化能力。它的拍照效果自然就很出色了。

其他观点:

我们在使用iPhone11 1200万像素手机时。在拍照时。只所以更出色。源于苹果手机的1200万像素的成熟技术 。这就是为什么1200万像素的手机。拍出的实际照片效果甚至远超国产机动辄4800万像素或者6400万像素镜头的原因。只所以苹果手机不断地更新换代。但一直沿用1200万像素的镜头。其底气就在于其技术相当成熟。能适应各种复杂环境拍摄。且能保证实际拍摄的效果。

其实手机像素的高低只是影响成像质量的一个方面。在实际拍摄过程中。影响成像质量的因素是多方面的。高像素只是其中一个。实际上。像素高只是分辨率提高了。也就是说照片放大后可以输出更大尺寸的照片。还可以将照片解析为更小的单元。所以高像素的优势就是照片放大后更清晰。

所以。如果单从解析力这个方面来理解。高像素的肯定要强于低像素的。也就是说4800万像素的肯定要强于1200万像素的。但像 IPS、传感器面积等也是影响成像质量的关键因素。像整体成像效果还和ISP图像处理、传感器关系密切。ISP就像是相机的大脑一样。对于传感器输入的信号进行运算处理。最终得出经过线性纠正、噪点去除、颜色插值、白平衡矫正等处理后的结果。而苹果经过这么多年的发展、提练、总结、提升。其ISP是非常强大的。

另外。苹果的传感器方面也是极其出色的。一直都是业内最顶尖的。光圈大小影响着摄像头的光线通过。所以大光圈的手机在弱光环境下也能拍出清晰靓丽的照片。而苹果也一直沿用大光圈镜头。当然苹果的AI能力也不错。从另一个方面也能较好地保证了拍照的优化。

所以说。尽管苹果的摄像头一直都是使用1200万像素的。但他们不断地在技术更新。在优先保证提升镜头光圈大小、传感器面积品质的同时。并积极运用AI算法。使苹果的最终成像质量始终保持在较高的水准上。

在怎么拍的问题。以拍摄理论为基础。结合实际情况。通过现场选景、精准构图。再释以相关拍摄操作技巧。就能拍出满意的照片。









您还感兴趣的文章推荐

以上就是由互联网推广工程师 网创网 整理编辑的,如果觉得有帮助欢迎收藏转发~

分享到 :
相关推荐

发表评论

您的电子邮箱地址不会被公开。

评论(2)

  • 且听风雨 永久VIP 2022年12月27日 13:41:10

    镜头,像素,苹果,算法,照片,手机,传感器,光线,物体,效果

  • 旧日梦 永久VIP 2022年12月27日 13:41:10

    没想到大家都对iPhone 11 1200万像素为何拍照更出色?怎么拍?感兴趣,不过这这篇解答确实也是太好了

  • 孤飘的蒲公英 永久VIP 2022年12月27日 13:41:10

    在问答上的517个问题。只写接地气的科技内容。欢迎关注。2K分辨率的手机屏幕。包含的像素点也不过区区400万不到。所以