原文:电子发烧友网点这里查看OKX官网!
生成式人工智能又称 AIGC 或生成式 AI,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。中国科学院大学人工智能学院教授、亚太人工智能学会执行主席雷渠江认为,未来,生成式 AI 在医疗保健、生命科学、游戏、娱乐、计算机工程等垂直领域都将产生巨大影响。国际调研机构 Gartner 预测,AIGC 渗透率有望在 2025 年提升至 10%,市场规模或将于 2030 年逾万亿人民币。多家公司纷纷进入这个赛道,谷歌、微软、Snapchat、Meta 公司先后宣布在自己的产品中推出 AIGC 类工具。作为全球边缘 AI 领域的领导者,高通的进展如何?点这里进入OKX官网!
“今天,生成式 AI 的能力让大家兴奋不已,作为一项变革性的技术,它将带来广泛应用,颠覆我们的工作、娱乐方式。”6 月 16 日,在高通 AI 业务媒体线上沟通会上,高通技术公司产品管理高级副总裁兼 AI 负责人 Ziad Asghar 表示。
点这里进入OKX官网!图片来源:由无界 AI 生成
终端侧的边缘AI体验如何明显提升?在边缘侧,生成式AI如何成为生产力?混合AI技术为什么是AI技术的未来?带着这些热点话题,高通技术公司产品管理高级副总裁兼AI负责人Ziad Asghar和记者们畅谈了AI技术的发展趋势和生成式AI落地的最新进展。
生成式 AI 终端侧用例丰富,高通 AI 技术和软件栈全面助力
“生成式 AI 拥有非常丰富的应用领域,包括搜索、内容生成、生产力、代码编写等,颠覆了众多技术领域。有些内容可以在几秒内通过大模型生成。但是很多人看到AI就认为是云端 AI 完成的,但是在高通公司,通过先进的技术,我们能够让这些出色的用例在边缘侧实现。” Ziad Asghar说。
在手机、PC、XR、物联网和汽车上,生成式 AI 的应用已经大量涌现。首先在手机端,手机作为高度个性化的设备,能够通过生成式 AI 成为消费者真正意义上的数字助手,可以接受用户的需求,甚至在没有联网的情况下完成任务。比如并完全通过大型基础模型(例如文本生成文本模型 LLaMA)与用户交流;在 XR 上,生成式 AI 能够根据终端侧所提供的用户信息进行定制和优化,为用户带来完全不同的独特虚拟世界体验;在 PC 上,以骁龙本举例,生成式 AI 能够基于视频会议的语音转录内容,制定任务清单,并自动生成完整的演示文稿直接供用户使用,使生产力能够成倍增长。在本地有硬件组块,让用户在本地生成 AI 能力,区别于其他竞争对手。
图:智能座舱当中对话式 AI 电子发烧友拍摄
此外,在今年全球增长迅猛的汽车端用例丰富。比如在座舱中使用对话式 AI,向你推荐餐厅,还可以将你的工作任务制定规划。生成式 AI 还可以根据出发点和目的地信息,结合汽车的丰富传感器数据制定不同的路线规划,找到最佳路线;在物联网领域,生成式 AI 能够助力打造面向专业领域的 GPT 类型模型,以及帮助用户完成不同任务的 IoT 助手,适用于医疗、零售、酒店管理中提升顾客和员工体验。
“在云端运行一个超过 10 亿参数的生成式 AI 模型,可能需要数百瓦的功耗,而在终端侧运行需要的功耗仅有几毫瓦。高通实现了全球首个 Android 手机上的 Stable Diffusion 终端侧演示。Stable Diffusion 是一个参数超过 10 亿的超大神经网络基础模型,能够基于输入的文本提示生成图片。”Ziad Asghar 指出,“通过我们的全栈 AI 优化,这一模型能够完全在终端侧运行,实现在 15 秒内完成 20 步推理,生成饱含细节的图像。高通的 AI 技术能够支持终端在既定功耗下完成更多处理工作,遥遥领先竞争对手,这赋予了我们在生成式 AI 领域的独特优势。”
据悉,高通面向 Stable Diffusion 进行了全栈 AI 优化。2022 年 6 月,高通专门推出了面向边缘 AI 的领先软件栈产品—高通 AI 软件栈。它支持从软件层面进行模型优化。
Ziad Asghar 强调说:“高通在 AI 业务领域的三大关键要素包括:1、行业领先的硬件,支持在既定功耗下实现更高性能;2、行业领先的高通软件栈;3、领先的工具,包括高通 AI 模型增效工具包(AIMET)等。数以十亿计的终端,充分利用高通在人工智能技术方面的硬件、软件和工具的优势,发挥作用。在高通统一技术路线图的背景下,我们能将核心的硬件、软件以及工具技术扩展到不同产品线。开发人员只需要进行一次开发,就可以将开发成果和经验应用于其他使用高通技术和平台的产品上。”
混合 AI 技术是 AI 未来,高通 AI 技术从 C 端到 B 端全面发力
“在云端和终端进行分布式处理的混合AI才是AI的未来。混合AI的优势在于,即使不同终端处理能力不尽相同,但仍然能够提供相近的体验,同时带来包括成本、能耗、隐私与安全、个性化等优势;还能通过出色的5G连接技术确保信息在端到端之间进行高效传输。” Ziad Asghar对AI未来做出了清晰的判断。
为何云端 AI 难以支持生产式 AI 的规模化扩展?这是因为云端处理存在成本的乘数效应,用户进行查询的次数越多,模型规模就越大,也就会导致云端的成本不断上升。节省成本是主要推动因素。据估计使用基于生成式 AI 的搜索,每一次查询成本是传统搜索方法的 10 倍,而这只是众多生成式 AI 的应用之一。此外,应用数量和用户数量的增加,也会导致成本的提高。云端完成所有生成式 AI 所需的工作负载,是难以实现的。我们需要更多地利用混合 AI 的方式,将部分处理交给终端侧完成,从而真正发挥生成式 AI 的优势。
混合 AI 架构可以根据模型和查询需求的复杂度等因素,选择不同方式在云端和终端侧之间分配处理负载。“以汽车为例,在数字座舱里,我们可以为用户提供真正意义上的虚拟助手。在汽车领域我们需要将多模态相结合,同时结合雷达、激光雷达、以及摄像头等传感器数据,从而让我们在使用生成式 AI 规划路线时,获得最佳的效果。汽车需要非常强大的处理能力。一方面,汽车领域的生成式 AI 用例需要非常丰富的终端侧处理能力,同时,它还需要通过高速低时延的 5 G 连接,在需要的情况下利用云端资源进行处理。与其他产品线对比,汽车产品高通能够提供更多的生成式 AI 处理能力。”Ziad Asghar 对电子发烧友记者表示。
Ziad Asghar 透露,目前高通能够支持 Stable Diffusion 超过 10 亿参数的模型在终端侧运行,但我们也看到,许多关键的生成式 AI 模型,比如文本生成图像、自然语言处理、编程、图像理解、图像创作等,模型规模一般在 10 亿到 100 亿参数之间。未来几个月,高通将有望支持参数超过 100 亿的模型在终端侧运行,这也将成为基于高通技术的产品的一大差异化优势。混合 AI 策略适用于所有生成式 AI 应用和终端领域,包括手机、笔记本、XR 头显、汽车和物联网,从 C 端到 B 端,这个策略对于生成式 AI 规模化扩展至关重要。
点这里查看OKX官网!
本文内容部分来自网络,仅供参考。如有侵权,请联系删除。