微比恩 > 信息聚合 > 书生・浦语 20B 开源 AI 大模型发布,消费级 GPU 单卡即可运行

书生・浦语 20B 开源 AI 大模型发布,消费级 GPU 单卡即可运行

2023-09-21 13:17:08来源: IT之家

IT之家 9 月 21 日消息,今年 6 月,上海 AI 实验室发布了“书生・浦语”(InternLM)大模型,为 104B 参数,后续又推出了 7B 和 13B 规格模型。近日,上海 AI 实验室、商汤科技、香港中文大学、复旦大学宣布推出书生・浦语 20B 版本,这是一款中量级大模型,号称基于 2.3T Tokens 预训练语料从头训练,相较于 InternLM-7B,其理解能力、推理能力、数学能力、编程能力等都有显著提升。据介绍,相比于此前国内陆续开源的 7B 和 13B 规格模型,20B 量级模型具备更强大的综合能力,复杂推理和反思能力尤为突出,能为实际应用场景提供更有力的性能支持;同时,20B 量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级 GPU 上,因而在实际应用中更为便捷。相比于此前的开源模型,InternLM-20B 拥有几大亮点,IT之家汇总如下:以不足 1/3 的参数量,

关注公众号
标签: 开源 AI GPU 大模型