iPhone影像的掉队问题,苹果打算用「自研」来解决
2010年,苹果在半导体领域上交出了第一张关于「自研」的答卷——Apple A4,这颗搭载于iPhone 4上的SoC,提供了强悍的性能表现。
自此,苹果踏上了「自研」这条路。
彭博社科技记者Mark Gurman在最新一期《Power On》时事通讯中透露,苹果正在计划自研相机传感器,以增加其在影像部分的掌控能力。自研的相机传感器预计将在iPhone、虚拟现实设备与自动驾驶汽车等领域里使用。
(图源:Apple)
众所周知,自iPhone诞生以来,基本上每一代都采用「定制款」相机传感器,这导致其在前十年,领先整个智能手机市场里的其他竞品,可在后十年,iPhone的硬件水平却远远落后于Android阵营。
「独家定制」,让苹果对iPhone的影像系统有更高的话事权,但这种「偏执」也让其在影像上的实际表现开始让消费者感到失望。苹果计划自研相机传感器,真的能让iPhone重新回到智能手机市场影像的巅峰吗?
自研相机传感器,苹果是被逼的
苹果每次开始探索自研项目,基本上都是与「钱」有关。
譬如,在与高通的专利纠纷中,苹果选择站队英特尔,自iPhone 8系列开始就搭载来自英特尔研发的4G基带,其中iPhone 11系列的基带性能表现最强,具体型号为XMM 7660。但实际上的表现,却是一言难尽。
在这场纠纷里,苹果明白了一个道理:想要不被拿捏,那就必须「自研」。尽管苹果能悟出这个道理,但自研也不是靠口嗨就能完成,苹果将英特尔移动业务团队收归麾下已有几年时间,自研基带项目毫无起色。
(图源:AppleInsider)
同样的,苹果自研显示面板也是如此。
在进入到全面屏时代后,苹果的面板供应商基本就是三星和LG,尤其是前者,几乎承包了「Pro」系列iPhone超90%的订单。这样的占比,于战略、于价格,都是苹果无法接受的。但现实是,三星在OLED领域耕耘数十年,苹果只能靠投资下一代面板技术来「弯道超车」。
只可惜,苹果自研MicroLED面板也并不是很顺利,有消息指出,苹果已经暂缓开发中型尺寸面板,有待技术突破。
(图源:AppleInsider)
在影像上,索尼与苹果的合作从iPhone 4S时期开始,往后的每一代iPhone,几乎都搭载来自索尼的定制款相机传感器。而今年,苹果迎来了影像部分最大的需求——虚拟现实。
Apple Vision Pro,作为苹果首款虚拟现实设备,机身上搭载了12颗摄像头、6颗麦克风与5颗传感器。其中,索尼提供4颗IMX416传感器用于影像、1颗IMX418传感器用于肢体行为识别。足以说明,即便到了虚拟现实领域,苹果也依然需要高度依赖索尼提供的影像硬件。
(图源:Apple)
当然,过度依赖单个厂商提供的硬件,不利于苹果「压价」,这就导致Apple Vision Pro的整体售价来到25000元人民币,过于昂贵的售价,很难让这个产品走向千家万户,自然也不利于苹果朝着新领域前进。苹果自研相机传感器,一方面是为了掌握更多话事权,对硬件的需求更加明确;另一方面,苹果可以以更低的价格生产,精准控价。
对于「果粉」而言,苹果能不能掌握话事权,能不能控价,都不重要,重要的是,苹果自研的相机传感器,能不能让iPhone在影像能力得到提升。
「解绑」索尼,iPhone拍照有救了?
苹果自2010年开始与索尼合作,独家定制了往后每一代iPhone的相机传感器,但随着进入到计算摄影时代,苹果对于硬件上的追求,远不如从前高。
2013年,iPhone 5S首发了索尼的首款堆栈式传感器——索尼IMX145(衍生款),尽管像素依然是800万,但得益于单独芯片构建的像素单元和电路单元,较前代在画质上有了明显的提升。次年,索尼在这颗传感器上加入相位对焦技术,提升其在多场景下的对焦速度和完成率。
除了不断加入一些新鲜技术之外,iPhone极少对传感器的硬件进行大规模地升级,例如索尼IM145及其衍生款,苹果整整用了3代,涵盖三款机型。而进阶至1200万像素时期后,iPhone直至去年才迎来像素、传感器面积的进化,横跨8年。
(图源:Notebook Check)
如此看来,苹果似乎并不怎么看重参数上的迭代,而是更注重技术上的需求。iPhone 14 Pro/Max首次用上了来自索尼的IMX803传感器,这颗传感器像素为4800万,尺寸达到1/1.3英寸。在这一代,iPhone终于也用上了QuadBayer排列像素四合一,输出2.44um的单位像素。
而放眼Android阵营,三星已经进入到2亿像素时代,而小米、vivo等厂商,则是用上了比肩卡片相机的1英寸传感器。只看硬件,iPhone的「独家定制」,并没有什么优势。
目前,iPhone成像最大的问题依然是缺乏影调、画质表现不佳、变焦能力不足,另外,由于计算摄影的介入,iPhone在像素合成时也会出现各种诡异的Bug。最诡异的还是蓝宝石玻璃带来的鬼影,但这个问题也不完全赖苹果。
(图源:Sony)
在iPhone 15 Pro Max上,苹果小秀了一把相机模组设计的能力。全新加入的5倍光学变焦在有限的空间里,将光线通过4次折射成像,并单纯依靠传感器位移防抖来消除抖动杂讯,不突出、不改变设计语言,却升级了变焦能力。但是,为了不改变整个iPhone的相机Deco设计语言,这样折中的方案,也完全没有带来影像上的突破。
归根结底,苹果没办法自己设计传感器,即便镜组设计可以不断修改,也达不到苹果想要的效果。一旦苹果开始自研相机传感器,那么可控的范围就会增加不少,同时也为设计师提供了更多利好的空间。虽说即便苹果自研传感器后,iPhone的影像能否有提升,还不敢打包票,但至少未来iPhone不会再出现这样「别扭」的妥协。
押注自研,苹果另辟蹊径
回顾苹果的发展历程,不难发现,每次「自研」产品的出炉,都给市场带来巨大的冲击。
在iPhone 4上的A4芯片获得市场一致好评后,苹果于2011年发布的iPhone 4S上搭载了改动幅度更大的Apple A5芯片,凭借前代积累的口碑与这颗自研芯片的魅力,其销量得到了大幅上涨。据统计,iPhone 4S累计销量达7200万台,而前代iPhone 4的销量则是3900万台。
在2020年苹果发布Apple Silicon的首款桌面级芯片,Apple M1之后,Mac系列产品线在销量上也得到了长足的进步。2021年,MacBook的市占率达到了惊人的10%,较去年同期增长了26%。
(图源:Apple)
据IBM高管在采访中透露,苹果从英特尔转向Apple Silicon之后,每年至少节约近25亿美元采购成本。以Apple M1为例,其制造成本为40-50美元之间,而向英特尔采购一颗酷睿i5处理器的价格则是200美元。
对于苹果而言,自研关键零部件既能有营销上的噱头,又能节省一大批采购费,同时还是按照需求定制这些零部件的设计,一举三得。更关键的是,影像已经成为智能手机领域里内卷最严重的部分,也是各家厂商比拼实力的主战场,苹果启用自研相机传感器,有利于苹果为iPhone、Apple Vision Pro等产品,提供更强的影像表现。
(图源:Sony)
当然,苹果除了A系列和M系列芯片之外,其他核心零部件的自研进度都相当缓慢,自研基带搞了几年也没什么进展,更别提目前还在计划中的相机传感器了。但也可以预见,自研是苹果未来的发展方向,至于何时才能落实、初代产品表现如何,可能还需再等待一段时间。
来源:雷科技
原文标题 : iPhone影像的掉队问题,苹果打算用「自研」来解决
最新活动更多
-
即日-12.5立即观看>> 松下新能源中国布局:锂一次电池新品介绍
-
7.30-8.1马上报名>>> 【展会】全数会 2025先进激光及工业光电展
-
精彩回顾立即查看>> 2024中国国际工业博览会维科网·激光VIP企业展台直播
-
精彩回顾立即查看>> CIOE中国光博会维科网·激光VIP企业展台直播
-
精彩回顾立即查看>> 2024(第五届)全球数字经济产业大会暨展览会
-
精彩回顾立即查看>> OFweek 2024中国激光产业高质量发展峰会
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论