微比恩 > 信息聚合 > 开源大模型超越 GPT-3.5!爆火 MoE 实测结果出炉,网友:OpenAI 越来越没护城河了

开源大模型超越 GPT-3.5!爆火 MoE 实测结果出炉,网友:OpenAI 越来越没护城河了

2023-12-12 15:54:54来源: IT之家

一条神秘磁力链接引爆整个 AI 圈,现在,正式测评结果终于来了:首个开源 MoE 大模型 Mixtral 8x7B,已经达到甚至超越了 Llama 2 70B 和 GPT-3.5 的水平。(对,就是传闻中 GPT-4 的同款方案。)并且由于是稀疏模型,处理每个 token 仅用了 12.9B 参数就做到了这般成绩,其推理速度和成本也与 12.9B 的密集模型相当。消息一出,再次在社交媒体上掀起讨论热潮。OpenAI 创始成员 Andrej Karpathy 第一时间赶到现场整理起了笔记,还高亮出了重点:这家“欧版 OpenAI”透露出的最强模型,还只是“中杯”。p.s. Mixtral 8×7B 甚至只是小杯……英伟达 AI 科学家 Jim Fan 则赞说:每个月都会有十几个新的模型冒出来,但真正能经得住检验的却寥寥无几,能引发大家伙热烈关注的就更少了。并且这波啊,不仅是模型背后公司 Mistral AI 大受关注,也带动 Mo

关注公众号