蓝冠注册 融合?它是如何
 
 
苹果公司的深度融合技术专注于机器学习和成像,旨在帮助你在使用iPhone 11系列智能手机时拍出更好的照片。
 
苹果全球营销高级副总裁菲尔·席勒(Phil Schiller)在周二发布iPhone时这样描述深融合的能力:“计算摄影疯狂科学”。
 
苹果的新闻稿是这样说的:
 
今年秋季晚些时候,“深度融合”将推出一种新的图像处理系统,由A13仿生神经引擎支持。深度融合使用先进的机器学习技术对照片进行逐像素处理,优化照片的纹理、细节和每个部分的噪音。”
 
深度融合将与iPhone 11上的双摄像头(超宽和超宽)系统兼容。它也适用于iPhone 11 Pro系列的三摄像头系统(超宽、宽、远焦)。
 
核聚变的深度
 
席勒解释说,深度融合将九张不同的曝光融合成一张图像。这意味着,当你在这种模式下拍照时,你的iPhone相机会在每次拍照时捕捉四张短照片、一张长曝光照片和四张辅助照片。
 
在你按下快门按钮之前,它已经拍摄了四张短照片和四张辅助照片,蓝冠注册当你按下快门按钮时,它需要一次长时间的曝光,而在一秒钟内,神经引擎就会分析组合并从中选出最好的。
 
在这段时间里,你的A13芯片上的深度融合通过图像上的每一个像素(全部2400万个像素)来选择和优化每一个像素的细节和噪声——所有这一切都在一秒钟内完成。这就是席勒称之为“疯狂科学”的原因。
 
结果呢?
 
丰富的图像细节,令人印象深刻的动态范围和非常低的噪声。如果你放大细节,尤其是纺织品,你会看到这个。
 
这就是为什么苹果的示例图片中出现了一个身穿多色羊毛套头衫的男子。
 
席勒说:“这种景象以前是不可能出现的。该公司还声称,这是第一次神经引擎“负责生成输出图像”。
 
相机的一些细节
 
iPhone 11的双摄像头由两个1200万像素的摄像头组成,一个是26mm焦距f/1.8的宽摄像头,另一个是13mm焦距的超宽摄像头,f/2.4提供120度视角的图像。
 
Pro系列增加了第三个1200万像素的长焦距52mm的f/2.0远摄相机。
 
你会发现在长焦和广角相机光学图像稳定。
 
前置摄像头也得到了改进。1200万像素的摄像头现在可以拍摄4K/60fps和1080/120fpsp慢动作视频。
 
那种夜间模式
 
苹果还在iPhone 11中使用机器智能来提供夜间模式。这是通过在多个快门速度下拍摄多个帧来实现的。然后将它们组合在一起以创建更好的图像。
 
这意味着更少的运动模糊和更多的细节在夜间拍摄-这也应该被视为苹果的回应谷歌的夜视功能在像素手机,虽然深融合走得更远。
 
当然,有趣的是,苹果似乎打算等到今年秋季晚些时候谷歌可能推出Pixel 4时再推出这项新功能。
 
关于芯片
 
支撑所有这些ML活动的是苹果A13仿生处理器内部的神经引擎。在其登台演示中,苹果高管们声称,这款芯片是智能手机中速度最快的CPU,启动速度最快的GPU。
 
它不会就此止步。
 
该公司还声称,该芯片是其所制造的最节能的芯片——这就是为什么它可以为iPhone 11提供最多4小时的额外电池寿命,为11 Pro提供5小时的额外电池寿命。
 
为了实现这一目标,苹果公司在微观层面上进行了研究,设置了数千个电压和时钟门,当芯片的元件不使用时,这些电压和时钟门就会关闭这些元件的电源。
 
该芯片包括85亿个晶体管,每秒可处理1万亿次运算。你会发现CPU中有两个性能核心和四个效率核心,GPU中有四个,神经引擎中有八个。
 
结果呢?
 
是的,你的iPhone 11在两次充电之间的续航时间会更长,而且看起来会比你现在拥有的iPhone更快(如果你有的话)。但这也意味着你的设备能够在一秒钟内完成复杂的计算任务,比如分析和优化2400万像素的图像。
 
开发人员可以做什么?
 
我想让你们简单地思考一下,然后考虑一下苹果正在向iOS 13的开发者开放一系列新的机器学习功能。
 
这些包括:
 
核心ML 3中的设备上模型个性化;您可以为设备上的用户构建个性化的ML模型,以保护隐私。
 
改进的视觉框架,包括一个称为图像显著性的特性,它使用ML来确定用户最可能关注图像的哪些元素。您还将发现文本识别和图像搜索。这种ML在训练用于图像优化的ML方面显然具有重要意义,并将其注入同样升级了的(而且越来越多地由人工智能驱动)金属中。
 
ARKit支持同时使用前后摄像头。它还提供了人遮挡功能,当人们在你的AR体验中移动时,你可以隐藏和显示物体。
 
新的语音和声音框架。
 
我可以在这个列表中添加一些内容,但我想说明的是,蓝冠注册尽管苹果的深度融合本身就很了不起,但它也可以被视为机器学习增强的典型代表,而机器学习增强正是苹果平台所支持的。
 
现在,我们有ML模型可用,开发人员可以使用它为图像、文本、语音和声音构建应用程序。在未来(正如苹果的U1芯片及其尖端空投方向分析所显示的那样),将有机会把苹果的ML系统与传感器收集的数据结合起来,来探测位置、方向,甚至是你眼睛所面对的方向。
 
现在,还不清楚这些技术将释放哪些解决方案。但大的图景实际上比深核聚变提供的图景更大。苹果似乎已经把iPhone变成了世界上最强大的移动ML平台。