OpenAI o1 摆开与国产大模型距离?360集结16家国产大模型能够对抗

09-16 623阅读 0评论

  日前,OpenAI 发布 o1-preview,闻名最强壮言语模型,引发业界颤动。也正因如此,国内也产生了质疑的声响:为何大模型范畴国内追赶了一两年,距离如同没见缩小,乃至是扩展了。

  距离真的是在扩展吗?现实或许并非如此。

  依据职业专家张俊林的观念,o1-preview 之所以可以更强,其办法本质上是思维链(Chain-of-Thought, CoT)的主动化。经过 CoT 把一个杂乱问题拆解成若干简略进程,这有利于大模型处理杂乱逻辑问题,但之前这个进程主要靠人工来达到。o1 选用的这种办法,将使得 Prompt 工程逐步消亡,也便是说一切杂乱人工环节的主动化成为了大势所趋。

  但其实,这种思维和办法并非 OpenAI 的创始,更非首创。早在 7 月底的 ISC.AI2024 大会上,360集团创始人周鸿祎就宣告,“用根据智能体的结构打造慢考虑体系,然后增强壮模型的慢考虑才能”,而且尔后屡次着重相似观念。这种办法的技能和产品使用上,国内也现已走在前面:仍是在 ISC.AI 上 360 发布的CoE(Collaboration-of-Experts,专家协同)技能架构及混合大模型,便是该办法的产品;而且,该技能架构现已落地到了多个产品中,比方360AI查找、360AI浏览器。

  值得一提的是,在大模型技能前沿,国内比 OpenAI 在敞开协作的道路上走的更远,愈加“open”。比方 CoE 架构并非只接入了一家企业的模型,而是由 360 牵头,百度、腾讯、阿里巴巴、智谱AI、Minimax、月之暗面等 16 家国内干流大模型厂商协作打造的,现在现已接入了这些企业的 54 款大模型产品,未来预计会全量接入 100 多款大模型产品。

  更进一步的是,CoE 技能架构不只接入了“大模型”,还接入了许多十亿乃至更小参数的专家模型,这使得整个体系愈加智能。CoE 架构在完成“让最强的模型答复最难的问题”的一起,还能在答复简略问题时调用更精准的“小模型”,在取得高质量答复的一起,节省推理资源、提高响应速度。

  有了上述的多种底层技能立异,根据CoE 架构的混合大模型在翻译、写作等 12 项目标的测验中取得了80.49分的归纳成果,逾越了GPT-4o的69.22分;特别是在“弱智吧”和“诗词赏析”这类比较具有中文特征的问题上,该架构的抢先优势愈加显着。即使是关于最新发布的 o1-preview,CoE 架构在未经专门优化的情况下也展示出了优势。

  具有了底层技能立异的情况下,国内在做使用和产品层面的优势更大。CoE 架构和混合大模型没有停步于技能立异,而是比OpenAI更快一步地进入了实践使用范畴。

  一方面,360 经过 CoE 技能架构,构建了大模型竞技渠道——模型竞技场(bot.360.com),现在现已入驻360AI浏览器,成为国内大模型范畴的基础设施。在多模型协作形式下,用户可以从 16 家国内干流大模型厂商的 54 款大模型中恣意挑选 3 款大模型,进行多模型协作,以此达到比单个大模型答复问题好得多的作用。

  另一方面,CoE 还成为了支撑360AI查找的底层技能架构。正是因为全球抢先的技能架构的支撑,和国内多家干流大模型厂商的通力协作,让360AI查找可以让360AI查找可以在2024年1月诞生后八九个月的时间里,就逾越 Perplexity AI。

  我国根据高素质的工程师人才优势和年代立异精力,彻底有或许让AI大模型赛道,成为继新能源轿车之后的又一个领跑世界前沿的重要科技立异范畴。 【修改:邵婉云】

发表评论

快捷回复: 表情:
评论列表 (暂无评论,623人围观)

还没有评论,来说两句吧...

目录[+]