当前位置:农村经济网首页 > 科技
大模型的火烧到了手机侧 聚焦轻量化大模型
2023-08-18 23:31:46 | 作者: | 来源: 搜狐新闻

  根据深燃此前的报道,小米集团AI实验室主任王斌博士曾说,小米不会单独发布一款类ChatGPT产品,自研大模型最终会由产品带出来,相关投入约几千万人民币级别

  他说:“对于大模型,我们属于理智派。小米有应用场景优势,我们看到的是大模型跟场景结合的巨大机会。”

  他透露,在ChatGPT诞生之前,小米内部做过大模型相关的研发和应用,当时是通过预训练+下游任务监督微调的方式来做人机对话,参数规模在28亿到30亿。这主要是在预训练基座模型的基础上,通过对话数据的微调实现的,并非现在所说的通用大模型。

  “未来大模型对手机行业来说可能是一个颠覆性的变革,AI让手机真正实现理解用户的大跨越。”

  在8月17日的小米沟通会上,小米向搜狐科技等媒体透露,小米做了两个大模型,分别是13亿和60亿参数,并且整体按照五倍的拓展速度去规划。

  不仅仅是小米,包括苹果、华为等终端厂商,高通、联发科等芯片厂商,均已对外表示在布局大模型技术,并推动大模型在手机终端侧应用的快速发展。

  一般来说,大模型往往是在云端服务器上运行,比如用户只需要打开OpenAI网站,就能通过网络连接到云服务器上的ChatGPT服务。

  与云端相比,大模型运行在端侧在算力上不具备优势,但可以为用户带来更好的隐私保护、响应速度更快,适用于无网或者弱网的环境。目前来看,终端厂商发展大模型的策略均是强调端、云的协同,来让用户得到更好的体验。

大模型的火,烧到了手机侧

  伴随着大模型的热潮席卷全球,如何推动大模型赋能手机用户,成为了手机产业链公司共同关注的话题。

  终端厂商对大模型的响应速度并不相同,小米、华为均已展示在大模型技术上的能力,并率先开启商用落地进程。苹果、一加、荣耀均在布局相关技术,但具体情况暂无透露。

  “小米将全面拥抱大模型技术。”8月14日,小米创始人雷军表示小米于今年4月正式组建了AI实验室大模型团队,并透露小米将13亿参数的大模型在手机上跑通了。

  与此同时,升级大模型的小米语音助手小爱同学也开启内测,提供超级问答、个性化创作、上下文理解与复杂任务处理等一系列的能力。

  在前不久的华为开发者大会上,华为宣布鸿蒙4将接入盘古大模型,华为语音助手“小艺”在智慧交互、高效生产力、个性化服务的能力上实现提升,可以帮助用户生成文案、多语种翻译、快速摘要资讯等。

  在最新的财报发布会上,苹果CEO库克表示,苹果在研究生成式人工智能技术,但并未具体透露相关具体进程。

  有爆料显示,苹果正在秘密开发自己的AI大模型,旨在与OpenAI ChatGPT和谷歌Bard等展开正面竞争。并且,苹果已经完成了其大语言模型的基础框架,叫做“Ajax”,是支持对话式 AI 技术的系统。

  “我已经参加了几次关于大模型在终端产品上到底如何落地的会议。”在8月16日的媒体沟通会上,一加中国区总裁李杰对搜狐科技等媒体表示,一加还在探索相关具体应用场景,希望在四季度之前能够明确。

  今年6月底,荣耀CEO赵明曾表示,当前智能手机行业正处在一个AI、5G+开启的新一轮创新周期中,荣耀将紧抓机遇,在AI等方面持续创新,未来将率先把AI大模型引入端侧,打造更加个人化的端侧个人模型。不过,对于何时将大模型引入终端,荣耀并没有透露。

  值得注意的是,AI大模型将消耗大量算力,所以产业链上游芯片零部件企业的参与,也是推动大模型在端侧应用的关键。

  在今年3月的2023 MWC上,高通在搭载第二代骁龙8的智能手机上,运行了超过10亿参数的文生图模型Stable Diffusion。上个月,高通展示了在安卓手机上运行ControlNet图像生成图像模型,参数规模达15亿。

  联发科预计将于10月发布天玑9300,芯片将加入大模型技术,并强调未来运算不会只在云端,终端上的运算也很重要。

聚焦轻量化大模型,率先升级语音助手

  从目前的应用落地情况来看,手机厂商布局大模型的思路均是以语音助手作为突破口,并且聚焦本地化部署轻量化的大模型。

  雷军表示,大模型需要海量数据,很容易涉及到隐私问题,还有需要巨大的算力,用起来成本也很高,所以小米聚焦轻量化和本地部署。

  赵明也指出,荣耀的核心会聚焦在端侧AI,“ChatGPT那种大模型不是我们公司核心的发力方向。

  其实,在端侧和云侧部署大模型各有利弊,所以厂商们虽然更聚焦在端侧大模型,但也都是选择的端云协同的路线。

  据了解,在端侧部署大模型意味着在本地运行,首先理论上的响应速度更快,比如实时翻译等功能的时延会更低。其次,应用的环境更广,比如在弱网或者无网的情况下,端侧大模型也能保证相关服务随时可以使用。

  端侧运行大模型主要的劣势在于算力和资源,所以当执行比较逻辑推理等比较复杂的任务时,调取云端的能力是更具有优势的。

  与服务器相比,手机的算力并不不足以支撑参数量级较大的大模型,所以端侧大模型的参数规模一般来说是达不到百亿级别的。

编辑:璐璐
免责声明:文章未标注“本站原创”或“农村经济网”的文章均转载自网络。文章内容不代表本站观点,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,风险自己甄别并承担后果;如本文内容影响到您的合法权益,请及时联系本站,我们会及时删除处理!邮箱地址:xyxxfc2022@163.com