让OpenAI o1大模型才干逆天的慢思索方式 360两月前就做出来了 (让openai翻译为表格)
日前,OpenAI 公布 o1-preview,问鼎最弱小言语模型,引发业内惊扰。也正因如此,国际也出现了质疑的声响:为何大模型范围国际追逐了一两年,差距似乎没见参与,甚至是扩展了。
差距真的是在扩展吗?理想或许并非如此。
依据行业专家张俊林的观念,o1-preview 之所以能够更强,其方法实质上是思想链(Chain-of-Thought, CoT)
的智能化。我们知道,经过 CoT 把一个复杂疑问拆解成若干方便步骤,这有利于大模型处置复杂逻辑疑问,但之前这个环节关键靠人工来达成。o1 采纳的这种方法,将使得 Prompt 工程逐渐消亡,也就是说一切复杂人工环节的智能化成为了大势所趋。
但其实,这种思想和方法并非 OpenAI 的首创,更非首创。早在 7 月底的 ISC.AI2024 大会上,360集团开创人周鸿祎就宣布,“用基于智能体的框架打造慢思索系统,从而加弱小模型的慢思索才干”,并且尔后屡次强调相似观念。这种方法的技术和产品运转上,国际也曾经走在前面:还是在 ISC.AI 上 360 公布的CoE(Collaboration-of-Experts,专家协同)技术架构及混合大模型,就是该方法的产物;并且,该技术架构曾经落地到了多个产品中,比如360AI搜寻、360AI阅读器。
值得一提的是,在大模型技术前沿,国际比 OpenAI 在开通协作的路途上走的更远,愈加“open”。比如 CoE 架构并非只接入了一家企业的模型,而是由 360 牵头,百度、腾讯、阿里巴巴、智谱AI、Minimax、月之暗面等 16 家国际支流大模型厂商协作打造的,目前曾经接入了这些企业的 54 款大模型产品,未来估量会全量接入 100 多款大模型产品。
更进一步的是,CoE 技术架构不只接入了“大模型”,还接入了很多十亿甚至更小参数的专家模型,这使得整个系统愈加智能。CoE 架构在成功“让最强的模型回答最难的疑问”的同时,还能在回答方便疑问时调用更精准的“小模型”,在取得高质量回答的同时,糜费推理资源、优化照应速度。
有了上述的多种底层技术创新,基于CoE 架构的混合大模型在翻译、写作等 12 项目的的测试中取得了80.49分的综分解绩,跨越了GPT-4o的69.22分;特地是在“弱智吧”和“诗词赏析”这类比拟具有中文特征的疑问上,该架构的抢先优点愈加清楚。即使是关于最新公布的 o1-preview,CoE 架构在未经专门优化的状况下也展现出了优点。
拥有了底层技术创新的状况下,国际在做运转和产品层面的优点更大。CoE 架构和混合大模型没有止步于技术创新,而是比OpenAI更快一步地进入了通常运转范围。
一方面,360 经过 CoE 技术架构,构建了国际首个大模型竞技平台——模型竞技场(bot.360.com),目前曾经入驻360AI阅读器,成为国际大模型范围的基础设备。在多模型协作方式下,用户可以从 16 家国际支流大模型厂商的 54 款大模型中恣意选择 3 款大模型,启动多模型协作,以此达成比单个大模型回答疑问好得多的效果。
另一方面,CoE 还成为了支撑360AI搜寻的底层技术架构。正是由于全球抢先的技术架构的支撑,和国际多家支流大模型厂商的通力协作,让360AI搜寻能够让360AI搜寻能够在2024年1月降生后八九个月的时期里,就跨越 Perplexity AI,成为全球最大的AI原生搜寻引擎。
因此,我们完全有理由以为,在AI大模型这条赛道上,我们国际厂商不只没有被“扩展差距”,反而是在思想前瞻性、技术产品落中央面,都走在了以 OpenAI 为代表的国际水平前面。况且,我国基于高素质的工程师人才优点,和新时代创新精气,完全有或许让AI大模型赛道,成为继新动力汽车之后的又一个领跑国际前沿的关键科技创新范围。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。