一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

AI行业动态4个月前发布 ainavi
4,032 0

半年时间,月之暗面把 AI 模型支持的上下文长度提升了一个数量级,实现了 200 万字上下文的「无损压缩」。

一个能读 200 万字的 AI 助手是什么概念?这意味着,它可以一口气读完整个《甄嬛传》剧本,然后和你讨论剧情。或者一口气读完一本厚厚的中医诊疗手册,给你提出诊疗建议。对于人类来说,成为某个领域的专家可能需要 10000 个小时的学习,但对于这个 AI 来说,只需要 10 分钟就够了。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

将甄嬛传全集几十万字的剧本传给 AI 助手,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。它能在不同时间段、各个场景的故事情节中,深入挖掘甄嬛、果郡王的情感线以及他们孩子的真相,堪比一个看了好几十遍电视剧的「甄」学家。一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

                               上传一份完整的近百万字中医诊疗手册,这个 AI 助手可以针对用户问题给出诊疗建议。

这是国内大模型创业公司月之暗面(Moonshot AI)刚刚官宣的新突破。他们打造的 Kimi 智能助手目前已经支持 200 万字超长无损上下文,并于即日起开启产品「内测」。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

Kimi 智能助手于去年 10 月份正式亮相,那时就已经能够支持 20 万字的上下文窗口,是当时全球市场上能够产品化使用的大模型服务中所能支持的最长上下文输入长度(参见《大模型开启「长」时代,杨植麟的新公司把对话框容量做到了世界第一》)。但令人没想到的是,仅仅过了半年,月之暗面就将这一数字提升了 10 倍。

为什么要死磕超长无损上下文这件事?创始人杨植麟曾经解释说,「通往通用人工智能(AGI)的路上,无损的长上下文将会是一个很关键的基础技术。从 word2vec 到 RNN、LSTM,再到 Transformer,历史上所有的模型架构演进,本质上都是在提升有效的、无损的上下文长度…… 上下文长度可能存在摩尔定律,但需要同时优化长度和无损压缩水平两个指标,才是有意义的规模化。

在实际使用场景中,超长无损上下文带来的好处也是显而易见的。在支持 20 万字的时候,你就已经能够用它进行专业学术论文的翻译和理解、辅助分析法律问题、一次性整理几十张发票、快速理解 API 开发文档…… 如今,这个数字提升了一个数量级,你能拿它做的事情就更多了。

在媒体沟通会现场,月之暗面展示了一些超长无损上下文的使用场景示例。例如,你可以上传几十万字的经典德州扑克长篇教程后,让 Kimi 扮演德扑专家为自己提供出牌策略的指导。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

上传英伟达过去几年的完整财报,让 Kimi 成为英伟达财务研究专家,帮你分析、总结英伟达历史上的重要发展节点。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

上传一个代码仓库里的源代码,可以询问 Kimi 关于代码库的所有细节,即便是毫无注释的陈年老代码也能帮助你快速梳理出代码的结构。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

也就是说,如果你有一份想要快读学习的资料,你可以把它上传给 Kimi,让它帮助你练习专业技能,或者启发新的想法。如此一来,快速学习任何一个新领域都会变得更加轻松。

不过,有时,这些文本是分布在不同的文档中的,这就需要 AI 助手具备跨文档处理的能力。据悉,Kimi 现在能够一口气精读 500 个,甚至更多数量的文档,帮助你快速分析所有文档的内容,并且支持通过自然语言进行信息查询和筛选,大大提高了信息处理效率。例如,公司 HR 可以基于业务需求,让 Kimi 快速从最近的 500 份简历中找出有某个行业从业经历,同时从计算机类专业毕业的求职者,更加高效地筛选和识别合适的候选人。

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

在技术上,由于没有采用常规的渐进式提升路线,月之暗面团队遇到的技术难度也是指数级增加的。为了达到更好的长窗口无损压缩性能,月之暗面的研发和技术团队从模型预训练到对齐、推理环节均进行了原生的重新设计和开发,不走「滑动窗口」、「降采样」等技术捷径,攻克了很多底层技术难点,才取得了新的突破。

基于这些突破,Kimi 在智能搜索场景也展现出了优于传统搜索引擎的能力。比如,你可以让 Kimi 主动去搜索和对比两家同领域上市公司的最新财报数据,它会根据你的问题,分析和总结最相关的多个页面,生成更直接、更准确的答案。这离不开其背后大模型的无损长上下文能力。具体来说,对于主动搜索得到的多篇资料,Kimi 会作为上下文的一部分交给模型去推理。正是因为 Kimi 大模型支持的上下文窗口足够长,窗口内的信息损失足够低,Kimi 智能助手才能输出高质量的结果,为用户带来截然不同的搜索体验。而传统的搜索引擎通常只能根据用户的问题,返回一些参杂着广告信息网页链接。

另一项与大模型的无损上下文能力息息相关的指标是指令遵循(Instruction Following)能力。指令遵循能力主要体现在两个方面:第一,模型在多轮对话中是否能够始终遵循用户的指令,理解用户的需求;第二,模型是否能够遵循复杂指令,有时候复杂指令可能长达几千、上万字。从产品推出以来的用户反馈来看,Kimi 智能助手的多轮交互和超长指令遵循能力,也同样具备显著优势。

「我们相信,大模型无损上下文长度的数量级提升,也会进一步帮助大家打开对 AI 应用场景的想象力,包括完整代码库的分析理解、可以自主帮我们完成多步骤复杂任务的智能体 Agent、不会遗忘关键信息的终身助理、真正统一架构的多模态模型等等。」月之暗面工程副总裁许欣然在媒体沟通会上表示,「无论是内存、算力还是网络带宽,历史上每一次基础技术的升级,都会解锁新的产品形态和应用场景。我们对 200 万无损上下文的 Kimi 可以带来哪些超出想象力的创新机遇充满期待。」

据 AI 产品榜(aicpb.com)的统计数据,Kimi 智能助手 2 月份的访问量已经突破 300 万。月之暗面也刚刚收获 10 亿美元的融资,成为估值 25 亿美元的 AI 独角兽。

如果你也有对超长无损上下文能力的需求,可到 Kimi 智能助手网页版 kimi.ai 首页申请抢先体验。

© 版权声明

关注公众号,免费获取chatgpt账号
免费获取chatgpt

相关文章

暂无评论

暂无评论...