2023年8月3日报道,“腾讯混元大模型”已经进入应用内测阶段 。截至9月,腾讯混元助手大模型已获国家网信办备案,主要用途为“应用于智能对话场景,服务于对话问答类企业端客户,根据用户提出的问题,结合上下文,生成相应的文本。9月4日消息,2023中国国际智能产业博览会在重庆举行,腾讯集团副总裁、政企业务总裁李强表示,腾讯自研的混元大模型将于近期会正式对外发布。他透露,腾讯提出了内部所有产品接入大模型或基于大模型进行改造 。9月6日,微信上线“腾讯混元助手”小程序。根据小程序信息,“腾讯混元助手”的功能包括AI问答、AI绘画等 。9月7日,腾讯正式发布混元大模型 。9月15日,混元大模型已首批通过《生成式人工智能服务管理暂行办法》备案 。
数据统计
数据评估
本站优智创想智能工具导航提供的腾讯混元都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由优智创想智能工具导航实际控制,在2023-10-12 10:24收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,优智创想智能工具导航不承担任何责任。
相关导航
以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,斯坦福大学等机构的研究人员先后在其上进行「二创」,开源了基于 LLaMA 的 Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型,大大降低了这类模型的研究、应用门槛,训练、推理成本一再降低。 由于「二创」过于丰富,生物学羊驼属的英文单词都快不够用了,但富有创意的研究者似乎总能给他们的模型找到新名字。近日,来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学、加州大学圣迭戈分校的研究者们又提出了一个新的模型 ——Vicuna(小羊驼)。这个模型也是基于 LLaMA,不过用到的是 13B 参数量的版本(作者表示,初步人工评测显示 13B 版本比 7B 版本模型要好不少,不过这不是一个严谨的结论)。