IT之家 1 月 17 日消息,商汤科技与上海 AI 实验室联合香港中文大学和复旦大学今日发布了新一代大语言模型书生・浦语 2.0(InternLM2)。据介绍,InternLM2 是在 2.6 万亿 token 的语料上训练得到的。沿袭第一代书生・浦语(InternLM)设定,InternLM2 包含 7B 及 20B 两种参数规格及基座、对话等版本,继续开源,提供免费商用授权。目前,浦语背后的数据清洗过滤技术已经历三轮迭代升级,号称仅使用约 60% 的训练数据即可达到使用第二代数据训练 1T tokens 的性能表现。与第一代 InternLM 相比,InternLM2 在大规模高质量的验证语料上的 Loss 分布整体左移,表明其语言建模能力增强。通过拓展训练窗口大小和位置编码改进,InternLM2 支持 20 万 tokens 的上下文,能够一次性接受并处理约 30 万汉字(约五六百页的文档)的输入内容。下面表格对比了
商汤“书生・浦语”2.0 大语言模型开源:200K 上下文,一次可读 30 万汉字
2024-01-17 13:06:37来源: IT之家
关注公众号
赞
你的鼓励是对作者的最大支持
- 阿里通义千问开源 Qwen2.5 大模型,号称性能超越 Llama2024-09-19 14:21:51
- “最强开源模型”Reflection 被打假,英伟达科学家称现有测试基准已不靠谱2024-09-13 18:38:35
- 元象发布中国最大 MoE 开源大模型:总参数 255B,激活参数 36B2024-09-13 20:49:18
- 开源鸿蒙 OpenHarmony 社区累计已超 8000 名贡献者,9 月 26 日举办生态主题演讲2024-09-10 04:05:08
- 国内航天领域首款智慧物联操作系统“天鸿”发布,基于开源鸿蒙打造2024-09-01 17:23:23
- 最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB2024-08-29 15:29:44
- 微软向 Wine 团队捐赠 Mono 开源项目2024-08-28 08:54:30
- 国产香山 RISC-V 开源处理器“南湖”开发板成功运行《云・原神》2024-08-24 15:02:12
- 最前线|KubeCon China 2024在香港举办,中国成为全球第二大开源贡献国2024-08-23 16:13:00
- 摩尔线程开源音频理解大模型 MooER:基于国产全功能 GPU 训练和推理2024-08-23 18:21:35