具身机器人展开处于早期 后摩智能吴强 国际首颗端边大模型存算一体AI芯片公布 (具身机器人展会)
7月27日信息,2025全球大会暨人工智能全球控制初级别会议(WAIC 2025)正在举行。
本届WAIC以“智能时代 同球共济”为主题,来自30余个国度和地域的1200余位嘉宾齐聚沪上,其中包括12位图灵奖、诺贝尔奖得主,80多位中外院士,以及多个国际顶尖实验室代表;展厅方面,展览面积初次打破7万平方米,吸引800多家企业参展,集中公布3000余项前沿展品,包括40余款大模型、50余款AI终端产品、60余款智能及100余款“全球”或“中国”新品。
WAIC大会时期,国际端边大模型公司后摩智能公布了全新端边大模型 AI 芯片——后摩漫界M50,同步推出力擎系列M.2卡、力谋系列减速卡及计算盒子等配件组合,构成掩盖移动终端与边缘场景的完整产品矩阵。
这是国际首颗面向端边大模型的存算一体AI芯片。M50芯片成功了160TOPS(INT8)、100TFLOPS(bFP16)的物理 ,搭配最大48GB内存与153.6 GB/s的超高带宽,典型功耗仅10W,相当于手机快充的功率,就能让PC、智能语音设备、机器人等智能移动终端高效运转1.5B到70B(700亿)参数的本地大模型。和传统架构相比,M50 的能效优化5-10倍,真正成功“高算力、低功耗、即插即用”。
会后媒体交流时,后摩智能CEO吴强表示, 目前公司研发的端边推理减速卡可以适配从7B到70B的DeepSeek模型,芯片下限大约在100B(1000亿)参数规模,并且在与一同研发一体机产品。他以为,具身智能机器人更像是十年前的智能驾驶,这一赛道展开才刚刚末尾,这是一个很大的新兴垂直赛道,格式还未定,大家依然无机遇,一旦具身智能机器人展开起来,必需比智能驾驶要大很多。 “具身智能是我们的机遇之一。”
据悉, 后摩智能成立于2020年,努力于运行先进存储器件等技术做存算一体大算力智驾芯片,提供高能效比、低本钱芯片及处置方案。公司开创人吴强毕业于美国普林斯顿大学,早前曾在AMD、Facebook公司任职,此前是地平线公司CTO,团队硕博占比达70%以上。
通常上,所谓存算一体(Computing in Memory)指的是在存储器中嵌入计算才干,以新的运算架构启动二维和三维矩阵乘法/加法运算。与以往的冯诺依曼架构相比,其打破了由于计算单元与存储单元过于独立而形成的“存储墙”,处置算力展开速度远超存储、存储带宽限制计算系统的速度等疑问,成为后摩尔时代下新的技术展开途径。
地下数据显示,估量到2030年,中国存算一体芯片市场规模将逾越1100亿元。
成立至今,后摩智能已成功四轮融资,投资方包括红杉资本中国基金、启明、经纬创投、联想创投、和玉资本、金浦投资等机构。最近一轮是在2024年7月,后摩智能宣布成功数亿元人民币的战略融资,由中国移动旗下北京中移数字新经济产业基金、上海中移数字转型产业基金共同对公司启动投资。
鸿途H30公布两年之后,后摩智能片面转型和聚焦端边大模型AI算力赛道, 其研发的端边AI芯片,将普遍运转于Pad、PC、智能语音设备、机器人等多种终端,以及一体机、计算盒子、任务站等智能边缘设备上,落地于消费终端、智能办公、智能工业等范围场景。
吴强坦言,这个转型环节十分痛苦,关键是以为存算一体和大模型有很多契合点。
谈到新的产品, 吴强表示,力谋LM5050 减速卡与力谋LM5070 减速卡区分集成 2 颗、4颗M50芯片,为单机及超大模型推理提供高密度算力,最高可达640TOPS。此外,M50芯片的存算一体技术从SRAM-CIM,到DRAM-PIM,不时在探求DRAM-PIM的产品化。
展望未来, 吴强强调,后摩智能已启动下一代DRAM-PIM技术的AI芯片研发,经过将计算单元直接嵌入DRAM阵列,使计算与存储的协同愈加严密高效,而且能效较现有水平再优化三倍,推进百亿参数大模型在终端设备成功普及,让更弱小的 AI 算力能够融入PC、平板等日常设备。该芯片估量最快于2026年对外公布。
“M50的公布只是一个末尾,我们的目的是让大模型算力像一样随处可得、随取随用,真正走进每一条产线、每一台设备、每一集团的指尖。”吴强称。
(本文首发于媒体App,作者|林志佳,编辑|盖虹达)
移远端侧AI大模型处置方案,激活场景智能新范式
移远端侧AI大模型处置方案,激活场景智能新范式
在AI技术一日千里的今天,移远通讯仰仗其深沉的技术底蕴和前瞻性的战略目光,在AI大模型端侧部署范围取得了清楚成就。 其端侧AI大模型处置方案不只推进了AI设备的改造,更为场景智能化的新范式注入了弱小动力。
一、端侧AI市场蓝海宽广,大模型减速落地
近年来,端侧AI市场出现出迸发式增长。 据头豹研讨院报告预测,中国端侧AI市场规模从2023年的1,939亿元,估量将在2028年增至19,071亿元,年均复合增长率高达58%。 这一惊人增长面前,是端侧设备对智能化、实时性需求的急剧优化。 经过将AI大模型部署在端侧,不只处置了云端部署在网络延迟、隐私安保、算力本钱等方面的痛点,还充沛释放了设备端的算力潜力,为AI运行的深度拓展开拓了新途径。
二、三大中心驱动力,助推端侧AI部署
端侧AI的加快开展离不开三大中心驱动力的支撑:
三、移远端侧大模型处置方案:技术三角重构智能逻辑
移远通讯在AI大模型范围率先规划,于2024年8月推出了端侧AI大模型处置方案。 该方案以“LLM(大言语模型)+ RAG(检索增强生成)+ Agent(智能体)”技术三角为中心,经过深度优化与增强AI模型,重新定义了端侧设备的智能化逻辑。
四、实践运行案例:AI具身理疗机器人
移远通讯结合德壹发布的AI具身理疗机器人,便是基于其端侧AI大模型处置方案的出色运行。 该机器人在在理疗师介入、无网络衔接的环境下,能够迅速了解用户指令和意图,高效成功通用聊天、医疗范围RAG问答、指令控制等义务。 这一实践运行充沛展现了移远端侧AI大模型处置方案的出色性能和适用价值。
五、展望未来:继续深化AI算力平台迭代
随着AI大模型端侧部署时代的片面开启,移远通讯将继续深化AI算力平台的迭代更新,推出具有更高算力的AI模组,将AI大模型的才干拓展至更多的端侧场景。 同时,移远通讯也将积极与产业链上下游企业协作,共同推进端侧AI技术的开展和运行,为构建愈加智能、方便、安保的未来全球奉献力气。
以上便是移远端侧AI大模型处置方案的详细引见,其仰仗弱小的技术实力和普遍的运行场景,正引领着场景智能化的新范式。
Sora担任人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相
编辑:编辑部在2024年的智源大会上,星光熠熠,干货满满,学术巨佬含量超标,展现了AI圈最不容错过的顶级盛会。 智源研讨院不负众望,发布多项学术效果,包括全球首个低碳单体稀疏万亿参数大模型Tele-FLM,以及全新思绪的原生多模态「全球模型」Emu 3等。 此次大会会聚了国际外顶尖学者和产业专家,共200+人,包括图灵奖得主、国际明星机构与技术团队代表,以及国际主流大模型公司的CEO与CTO。 技术途径判别下,智源大模型全家桶应运而生,包括言语大模型、多模态大模型、具身大模型、生物计算大模型,以及支撑这些大模型技术迭代的基座,即算力集群「操作系统」。 面对算力紧缺难题,智源研讨院和中国电信人工智能研讨院结合研发并推出Tele-FLM-1T,以低碳生长、高能效、良好的模型收敛性和稳如泰山性,仅用112台A800主机在4个月内成功训练,成功训练出万亿稀疏模型。 评价结果显示,Tele-FLM-52B在英文才干上接近Llama3-70B,优于Llama2-70B和Llama3-8B;在中文才干上,Tele-FLM-52B为开源最强,优于Llama3-70B和Qwen1.5-72B。 在对话模型性能方面,Tele-FLM-Chat到达GPT-4中白话语才干的96%,总体才干到达GPT-4的80%。 此外,智源研讨院在过去一年里发布多项引领整个开源社区的相关研讨。 Emu 3正在紧锣密鼓地训练中,一致了文字、图像、视频,经常使用自回归的技术路途,成功图像、视频、文字的输入和输入,并具有更多模态的可扩展性。 BGE模型是全球下载量最高的国产AI模型,是基于创新性的监视预训练和多阶段的对比学习,以及构建多言语关联文本的数据集cmtp研发而出的。 具身智能大模型在多模态大模型的推进下,让计算机进一步感知和了解全球,更化身为弱小智能体。 微软Build大会上发布的Copilot+ PC和苹果在WWDC上发布的Apple Intelligence展现了AI助手在PC上自主成功义务和在手机上成功智能控制的才干。 智源在过去一年里在这一范围取得了打破性效果,团队研发的Cradle可以操控一切软件,像人一样经过看屏幕、点击鼠标成功计算机上的义务,并启动自我反思和未来规划。 此外,智源还在机器人抓取、具身大小脑、导航、配件等范围片面展开研发,取得了一系列亮眼效果。 生物计算大模型方面,智源设计了OpenComplex 2全原子生物分子模型,能够预测蛋白质和各种复合物。 在药物研发范围,AI在化合物挑选、预测大分子结构建模方面有潜力取得打破。 FlagOpen是面向异构芯片、支持多种框架的大模型全栈开源技术底座,能够真正成功一栈式抢先的高效运行算法和工具,与Linux、Hugging Face等全球主流基金集协作,并构建了为大模型而生、支持异构芯片的算力集群「操作系统」FlogOS。 智源还发布了两个开源数据集,包括首个千万级中英文高质量指令微调数据集InfinityInstruct和全球最大的中英文多行业数据集IndustryCorpus。 同时,智源还发布了FlagEval大模型评测榜单,为业界打造了权衡模型才干的「尺子」。 经过开源承诺和继续创新打破,FlogOpen系列的开源模型框架工具在过去一年的全球总下载量超越了4755万次,在国际AI机构中处于相对抢先。 在2023年智源大会的「AI安保论坛」上,多位AI大佬会聚,包括Hinton、Altman、Tegmark、Russell等,针对安保与对齐疑问启动了深化讨论。 智源大会不只成为AI安保范围的「追星现场」,还约请到了Sora模型团队担任人Aditya Ramesh和纽约大学谢赛宁教授启动深度对谈。 Aditya Ramesh回忆了近年来生成式模型的开展,分享了DALL-E 1到DALL-E系列模型的扩展进程,并对大模型能否能真正学习到全球的紧缩表征、通向AI智能启动了反思。 经过与谢赛宁教授的对谈,进一步讨论了大模型在学习视觉才干、构建全球模拟器方面的潜力。 智源作为AI范围的研发机构,不只在国际乃至国际上树立了旗帜,而且成为了AI圈最具创新与生机的代表。 从模型发布开源到构建部署模型全链技术栈,再到举行顶级学术盛会,智源在学术社区、生态范围都发扬了关键作用,为中国AI企业提供了加快安康开展的平台和支持。 在大模型范围加快变化的背景下,智源作为引领者,将继续推进学术创新和AI前沿路途探求,为未来带来更多惊喜。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。