苹果不炒作人工智能?他们只是没做大模型 | 速途网
在刚刚结束的WWDC 2023大会上,苹果又一次选择了“谨慎对待”当前大火的人工智能,相比较“Artificial Intelligence”(人工智能),苹果似乎更倾向于使用“Machine learning”(机器学习),去还原技术的本质……
苹果第一次提“Machine learning”这个词,是在2017年6月5日的WWDC 2017主题演讲中。彼时,苹果的高级副总裁Craig Federighi宣布了Core ML和Create ML两个机器学习框架,让开发者可以更容易地在苹果设备上集成机器学习模型。也是在这次WWDC之后,苹果就一直在不断地推进机器学习技术的发展和应用。
对于大多数的消费者来说,谈到苹果的人工智能,人们印象最深的应用莫过于“漏洞百出”的Siri了。从2011年iPhone 4S登场,成为人人“调戏”的对象,到时至今日,Siri的交流能力依旧算不上市场前沿,成为鲜有人问津的鸡肋功能。面对井喷式增长的人工智能行业,在人工智能领域迟迟缺乏新动作的苹果公司,让行业普遍认为已经开始进入“掉队”的行列之中。
牢据市场一隅,苹果更喜欢“精确”
面对各种质疑的声音,苹果CEO库克表示,苹果本质上还是硬件厂商,公司并没有谷歌或微软那样的通过升级软件提高生产力的压力。
在WWDC 2023中,苹果还推出了iOS 17系统,为用户提供了一系列的新功能和改进,包括电话和FaceTime的个性化和互动功能、全新的日记应用、新的待机模式、新的动态小工具、CarKey数字汽车钥匙功能的增强,以及ARKit API框架的改进等。
依靠简单、优质、个性化的产品和服务,苹果赢得了大批的赞誉和忠诚度。在移动市场中,凭借其占有率和封闭且高效的iOS生态系统的优势吸引了更多的用户。同时,苹果不断创新和拓展产品线,打造了Mac、iPad、Apple Watch、AirPods、Apple TV等一列自生态产品。
简言之,苹果强大的品牌号召力与生态影响力,使其消费电子类产品(除开奢侈品品牌)在定价方面堪称同类“天花板”,却仍然在销量上牢牢占据市场一隅。强大的产品优势是苹果的独具一格底气,但强大的开发者号召力也是其App Store经久不衰为苹果源源不断贡献收入的因素之一,这意味着,在开发者对于人工智能需求不断增长的今天,苹果所持有谨慎的态度,并不代表其不正视这项技术的未来发展与前景。“曲线救国”服务硬件,苹果只是没做大模型
作为硬件厂商,苹果拥有自己的芯片、服务、系统等产品,这些产品所构成的完整生态也为苹果在人工智能领域提供了强大的基础设施和平台,可以在硬件和软件之间实现高效的协同和优化,提升用户体验和性能,也可以更好地保护用户隐私。
即将更新的iOS 17也使用了Transformer语言模型,能够根据用户语义与语言习惯进行输入单词的预测,并使得自动纠错更加准确;在语音识别方面,iOS 17利用神经引擎使语音识别更加准确。
值得注意的是,目前人工智能领域的数据与隐私泄露风险以及人工智能监管问题已经成为全世界要共同面对的问题。国内外都出台了一系列的政策法规来维护人工智能发展,甚至ChatGPT之父山姆·奥特曼也在听证会上向政府申请对OpenAI实施监管。
Unity中国AI技术负责人暴林超先生对大模型之家表示:人工智能对于数据是饥渴的,目前数据和隐私安全等问题已经在一定程度延缓了人工智能的发展,这就需要企业密切关注数据调用问题,在确保不侵犯用户隐私的基础上寻求途径推动人工智能的进步。
而苹果对用户隐私和数据安全的重视在行业里也是家喻户晓,甚至将其隐私保护功能作为产品的重要卖点。苹果采用了多种技术手段,如加密、生物识别、差分隐私等,来保护用户数据不被泄露或滥用。同时,这将使苹果的人工智能业务能够更加合规地接触并使用用户数据,进行更有精确的服务用户,并且大幅度提升人工智能的响应速度和可靠性。Vision Pro上演堆料艺术
在即将面世的Vision Pro产品展示中不难发现,虽然苹果对“人工智能”只字未提,但似乎所有的新动作都围绕着“人工智能”展开。
Vision Pro也使用了基于Transformer的语音识别模型让语音识别更加准确。并且可以有效地处理自然语言的序列数据。作为基于自注意力机制的深度学习模型,它还可以进行自动纠错和词预测,提高了语音识别的准确性。
同时,Vision Pro还依靠视觉生成建模,通过前置摄像头扫描人的面部信息,再基于机器学习技术,系统会使用先进的编码神经网络,为用户生成一个“数字分身”。利用先进的机器学习模型,根据对用户的眼球追踪和瞳孔状态,来预测用户的身体和大脑状态,比如是否对当前事物好奇,是否走神,注意力是否被分散等等。
这些数据可以帮助Vision Pro提供更个性化和智能的体验,比如根据用户的注意力、放松程度或学习情况来更新虚拟环境,或者根据用户的眼睛注视方向来创建生物反馈。
还有Vision Pro配备的卷积神经网络,通过卷积层、激活层、池化层和全连接层来实现高效和准确的图像识别和对象检测功能,为用户提供了丰富和逼真的混合现实体,在自动驾驶、安防监控、医学图像分析等领域都发挥着重要作用。
值得一提的是,Vision pro也是市面上唯一一款完全不需要装配手柄就能实现控制的MR头显。因此,想通过动态捕捉、动态分析、眼部追踪等技术实现人机交互便对Vision Pro的运算处理能力提出了极高的要求。
Vision Pro内置M2和R1两款芯片,M2芯片负责运行操作系统和应用程序,而R1芯片负责定位、协同、视觉图像处理或传输等功能。
R1芯片是苹果专门为Vision Pro设计的新芯片,专门用于处理传感器数据和空间计算,能够在12毫秒内将新图像流式传输到显示器,比眨眼快8倍,这对于提供与现实同步的沉浸式混合现实体验至关重要。可以说,为实现机器学习满足用户的需求,R1芯片就是人工智能时代苹果向世界交出的“答卷”。
对于苹果来说,或许“Machine learning”这个词更精确的描述苹果的技术特点。但通过Vision Pro、iOS 17以及纵观整个苹果生态不难看出,苹果并不希望模糊地定义人工智能,他们热衷于用技术改造或扩展自己的产品品类,打造自己的品牌,而不是使用行业通用的词汇。
诚然,相比ChatGPT这样的人工智能大模型而言,苹果在人工智能领域的积累,并不能让其拥有如同iPhone那样“改变世界”的能力,但是苹果用Vision Pro这款产品,试图去教育世界AI如何与空间计算的场景结合,发挥出“1+1>2”的效果。更用另一种XR的实现形式(此前一种为微软的HoloLens),打开了行业迈向“空间计算时代”的大门。
与微软和谷歌等公司相比,苹果对人工智能技术的开放性较低,但依靠庞大市场需求支持,苹果更希望维护好产品带给用户的优质体验,无论是“机器学习”还是“人工智能”其核心要义还是能为用户带来什么。大模型之家认为,无论是硬件软件用户在使用的时候只在意产品能否更完美的匹配自己的需求,多高的算力和多大的数据参数最终为产品打分的只能是消费者的满意程度,相信人工智能发展的最终形态会向着平民化、日常化的方向前进。