谷歌大改 Transformer,“无限”长度上下文来了。现在,1B 大模型上下文长度可扩展到 1M(100 万 token,大约相当于 10 部小说),并能完成 Passkey 检索任务。8B 大模型在 500K 上下文长度的书籍摘要任务中,拿下最新 SOTA。这就是谷歌最新提出的 Infini-attention 机制(无限注意力)。它能让 Transformer 架构大模型在有限的计算资源里处理无限长的输入,在内存大小上实现 114 倍压缩比。什么概念?就是在内存大小不变的情况下,放进去 114 倍多的信息。好比一个存放 100 本书的图书馆,通过新技术能存储 11400 本书了。这项最新成果立马引发学术圈关注,大佬纷纷围观。加之最近 DeepMind 也改进了 Transformer 架构,使其可以动态分配计算资源,以此提高训练效率。有人感慨,基于最近几个新进展,感觉大模型越来越像一个包含高度可替换、商品化组件的软件栈了
谷歌爆改 Transformer:“无限注意力”让 1B 小模型读完 10 部小说,114 倍信息压缩
2024-04-12 21:47:41来源: IT之家
关注公众号
赞
你的鼓励是对作者的最大支持
- 消息称谷歌 10 月 15 日向 Pixel 6 及后续机型推送安卓 15 更新2024-09-19 14:16:18
- 谷歌搜索将整合 C2PA 2.1 标准,标注 AI 生成 / 编辑图片2024-09-18 09:10:59
- 谷歌发布 Chrome 浏览器 129 稳定版:降低延迟,含 9 项安全修复2024-09-18 10:04:15
- 谷歌 Pixel 平板升级至 Android 15 QPR1 Beta 2 将喜提桌面模式,类似三星 Dex / Chr…2024-09-13 21:07:19
- 谷歌搜索“关于此结果”面板新增互联网档案馆网页缓存链接,替代已移除第一方功能2024-09-12 17:31:06
- 因垄断搜索市场,谷歌将在明年 8 月前接受处罚2024-09-08 19:11:36
- 英国反垄断部门:谷歌“自我推荐”自家广告交易平台的行为损害市场竞争2024-09-06 17:33:42
- 荣耀CEO赵明宣布Magic V3将支持谷歌云服务2024-09-05 20:51:24
- 谷歌 Pixel 9 Pro XL 手机被曝屏幕问题:边角触控不灵,关闭输入法时无响应2024-09-03 12:36:52
- 谷歌 AI 推出 CardBench 评估框架:含 20 个真实数据库,更全面评估基数估计模型2024-09-03 14:35:55