随着现在的生活水准越来越高,大家购买苹果的产品也是越来越多了,那么苹果的产品当中有很多的功能大家是未必知道如何去使用的,当然也包括要去多了解苹果新出的新功能之类的,那么今天小编就收集了一些关于苹果透过 LiDAR 开启「扩增实境」领域大门AR眼镜随后就到的一些信息来分享给大家,欢迎大家接着往下看哦。
苹果在 2020 年首波新品中,率先替新款 iPad Pro 加入双镜头与全新 LiDAR (光学雷达扫描仪),在外型依旧延续採用前一代外观和萤幕,处理器A12Z 也仅针对 GPU 提升,反而不少人被新款巧控键盘给吸引住,从里面也让我们看见苹果对于 iPad Pro 定位与未来方向有了重大改变,iPad Pro 将会是第一款拓展AR扩增实境设备。
几乎每一代苹果产品都会有个最亮眼功能,今年 2020 款 iPad Pro 最重要和主打功能就是「LiDAR」,也许这块镜头模组就像是 iPhone 11 Pro 造型,苹果在多年 AR 布局后,在 2019 年 WWDC 上替 ARKit 更新至 3.5 ,今年先是替 iPad Pro 加入 ToF(Time of Flight , 飞时测距),随后 iPhone 12 Pro 系列也会加入,软硬体都到位后,那么相信 AR 领域方向也就从今年开始拓展。
两大阵营 ToF 差异性我们所知道苹果不会贸然使用一个不成熟技术,也许有人会认为安卓手机早已经有 ToF 相机,苹果到现在才加入,也许又会被不少人认为那有什么好得意?
到现在安卓阵营多数还无法确定未来发展,甚至小米集团副总裁兼红米品牌经理卢伟冰认为:「ToF小米技术预研早就ready认为是个噱头、没啥用,骗用户瞎花钱。」,但荣耀产品副总裁熊军民反驳认为:「这是你解决不了问题,也不能认为别人也没能力,一个公司可以没有自己的技术,做整合也不可耻,但是要指责别人的努力和进展,变成反技术公司就不太合适。」
实际上小米是因为ToF传感器分辨率低、功耗大、不成熟最终导致无法量产;连同 Google Tango 系列也早已经加入结构光(Structured light)和ToF技术用于 AR 功能,不过因为体验不佳和生态过早,最后表现不佳。
然而其实 Google 阵营手机与 Apple 手机所用的 ToF 模组也不太ㄧ样,Android 多数都是採用iToF 模组,而 iPad Pro 这次搭载的是 dToF 模组,两者差异可透过下方表格了解:
iToF vs dToF模组模组iToFindirect time of flightdToFdirect time of flight原理间接飞行时间法直接飞行时间法优势原理简单系统设计难度低速度快功耗低抗干扰能力强(光源)无需模数转换时间採样在皮秒、纳秒级缺点精準度与解析度低精準度会随距离明显下降功耗随距离会明显增加容易受到外部光源干扰模拟电路价格标定相对複杂晶片和系统设计难度高如今在三星、华为、OPPO、荣耀、vivi厂商也都替Android 手机加入 ToF 镜头,但目前面临最大的问题解析度低、功耗高、容易受干扰,多数只用于人脸特效、美颜、散景和暗部对焦,在3D 建模和 AR 功能则是还没有广泛被利用,也不太明显,最主要是因为 Google ARCore 发展比较缓慢、硬体需求高,最后造成大家各自研发,对于一般用户没有高度使用需求,比起 Apple ARKit 差异极大。
iPad Pro 搭载 LiDAR 开启 AR 大门在苹果替推出 2020款 iPad Pro后,可能感受不出来有明显改进,镜头额外加上一颗超广角镜,双镜头规格其实就与 iPhone 11 完全类似,处理器升级至A12Z反而被认为是在挤牙膏,导致这次升级确实不明显,导致受到普通用户重点变成巧控键盘设计上。
如今苹果不管是在新闻稿或是官网 iPad Pro 介绍,在 LiDAR 功能介绍就佔了不少页面,开头更写着「它的专业级相机,可转变真实世界的实境。」暗示将透过镜头实现 AR 实境,那么可以确定 AR虚拟实境是未来几年最重要的发展方向。
比较令人感到兴奋的是今年开始有大动作,从 WWDC 2019 发表会上公布 ARKit 升级后,率先替 iPad Pro 新加入一颗全新 ToF 模组,并称之为「LiDAR(光学雷达)」,不论在室内或室外,都能利用直线飞行时间,来测量最远达 5 公尺的光线反射,替 AR 扩增实境带来更不一样体验,整体在软硬体都全到位后,那么 AR 也将会全速发展。
不过LiDAR到现在可能大家还有点模糊,不太懂这玩意到底是怎么运做,底下告诉大家:
可以将 ToF 视为蝙蝠,能够在一个看不见的环境中,利用超音波回声侦测环境和猎物,其实原理就像是 LiDAR 技术。
但是 ToF 并不是透过超音波,而是利用光线射出后计算反射时间,我们知道光线射出到不同物体上,深度都会不同,回来的时间也就会不一样,这样就可以準确得知深度,当然苹果的 LiDAR 比起安卓dToF 相机更为複杂和先进技术,相对在深度上就会获得更準确资讯。
苹果还特别强调光学雷达扫描仪可以光子等级运作,以奈秒(1秒的10亿分之1)的速度从光子层运行扫描,甚至被 NASA 运用在接下来火星登陆任务上,意思为即时测距系统已经设计到非常完善。
AR到底能用在哪些地方?那么 LiDAR 真的可以改善 AR 体验吗?或许大家可以透过 iPhone 玩看看现有内建的 AR 应用「测距仪」App,如果有使用过会发现到,在量测空间、家具等物体的长宽高数值时,会发现有时候定位的线会跑掉,那在搭载 LiDAR 扫描仪后,就不会出现这类情况。
主要是因为 LiDAR(光学雷达扫描仪)与镜头、动作感测是和 iPadOS 架构同时实现软硬体运算,能够快速测量深度,如画面有人遮住或动作时,就不会导致人与背景之间出现明显白边或马赛克情况,AR体验效果就会更加明显。
同时苹果也已经预告「测距仪」App 还会加入「尺标显示方式」,可进行更精细的测量,并可让使用者储存所有测量的列表并搭配截图,以供日后使用。
苹果已经在 AR 深耕多年,甚至还特别规划一个独立页面来介绍AR(扩增实境),在官方提到一句话:「扩增实境 (AR) 是一种运用科技的全新方式,改变你工作、学习、游戏以及与周围一切联繫的方式。而这,还只是个开端。一个全新世界,欢迎你加入。」
看完这句话,非常确定苹果已经定下 AR 领域发展方向,将会运用于「工作、学习、游戏、生活」四个层面上,并不像是 Android 只是单纯用来美肌让人感觉摸不着前方的路。
看完以上官方影片后,可以让我们清楚 AR 非常适合应用于室内设计,影片中更展示透过《Shapr3D》测量深度技术,可以将画面拍摄起来后立即转成3D场景模型,大量减少建模时间也能依照客户要求做及时修改。
甚至还可以透过《IKEA Place》先挑选家俱,可以藉由 AR 来摆放合适的沙发、桌子、地毯、檯灯等,能避免买错家具。
在游戏运用上,也是能够让游戏场景与实际场景叠合,让画面看起来就更逼真,在这部分则是可以看见《Hot Lava》游戏可以将热岩浆与真实场景进一步结合,就感觉真实环境有热岩浆。
iPad Pro 和 iPhone 先开路, AR 眼镜随后就到也许 iPad Pro 早该在去年就推出,不过被延迟到了今年才发表,至于延迟原因不太确定是什么造成,但苹果为什么会选择 iPad Pro 当成首款 LiDAR 机种?
根据疯先生的理解, iPad Pro 运算、GPU速度非常适合用来生产/测试 AR 应用工具,也就是这款产品是目前让开发者研发 AR 最佳产品,毕竟目前 AR 市场最需要的就是要有大量的厂商投入开发应用和游戏。
接下来下半年 iPhone 12 Pro 系列也在 iOS 14 代码中,被证实会搭载 LiDAR 扫描仪,从这些步调来看, iPad Pro 和 iPhone 12 Pro 算 AR 开路先锋,据传苹果也已经布局好未来三年新品,将于 2021 年至 2022 年也将会推AR 穿戴式头盔,直到 2023 年才会额外推出一款轻型 AR 眼镜。
实际上看起来也非常合理,毕竟这颗 LiDAR 扫描仪直接嵌入至头盔和眼镜内,运算则是由 iPhone 处理,搭配 AirPods 当成耳机,即可够让用户不需要透过iPad 或 iPhone 萤幕,藉由眼睛看见虚拟实境世界,精準判断周围3D深度、精準计算画面、物体位置,更能打造完整 AR 体验。
那么你觉得哪个新技术能够改变现在手机产业?是以弯曲萤幕吗?还是AR眼镜会比较有机会?
两年~三年后,如果再回来看这篇与这句「你的下一部电脑,非电脑。」和「它的专业级相机,可转变真实世界的实境。」相信会更有感。
如喜欢这篇文章教学的话,后续也想了解更多 Apple 资讯、 iPhone 、Mac 隐藏 3C 技巧,欢迎追蹤 疯先生 FB 粉丝团、Telegram、MeWe、Instagram以及 订阅YouTube频道,将会有更多非常实用的技巧教学分享给大家。