概览
GLM-4-Long 是一款专为处理超长文本和记忆型任务而设计的语言模型,支持 1M 超长输入(150-200万字)。
价格
1 元 / 百万 Tokens
输入模态
文本
输出模态
文本
上下文窗口
1M
最大输出 Tokens
4K
推荐场景
财报解读
财报解读
可处理数百页的年度财报,自动提取营收结构、风险提示、管理层讨论等关键信息,生成结构化分析报告;通过记忆历史财务数据,对比多期财报的趋势变化,识别潜在财务异常点。
论文读取
论文读取
支持解析数万字的学术论文,自动梳理研究背景、实验方法、结论等核心章节,将内容分主题输出;结合领域知识库,对跨章节的理论推导进行逻辑验证,辅助研究者快速定位创新点与论证漏洞。
小说阅读
小说阅读
深度分析百万字长篇小说的人物关系网、情节脉络,生成特定内容总结;基于对全文风格的记忆,实现高质量续写,保持叙事连贯性与文学性。
法律文书分析
法律文书分析
处理海量法律条文、判例和合同文本,精准提取权利义务条款、责任界定等关键内容;通过记忆类似案例,辅助律师进行法律风险评估与诉讼策略制定。
使用资源
体验中心:快速测试模型在业务场景上的效果接口文档:API 调用方式
详细介绍
1
超长文本处理能力
支持高达1M(约150-200万字)的上下文长度,相当于2本《红楼梦》或125篇论文,在超长文本处理方面的有十分强大的能力。
2
推理能力
不仅能够阅读和翻译长篇文档,还能够进行全局分析,例如分析财务报告和提取关键信息、合同条款和科研数据。GLM-4-Long 已经具备一定的推理和记忆能力,能够理解和回应复杂的查询,创建具有超长记忆的聊天机器人。
3
技术关键点
在继续预训练(Continue Pre-Training)、监督微调(SFT)和基于人类反馈的强化学习(RLHF)阶段,进行混合训练逐步扩展上下文长度,从最初的2K上下文支持发展到1M上下文支持。
调用示例
以下是一个完整的调用示例,帮助您快速上手 GLM-4-Long 模型。
- Python
- Java
- Python(旧)
安装 SDK验证安装调用示例
用户并发权益
API 调用会受到速率限制,当前我们限制的维度是请求并发数量(在途请求任务数量)。不同等级的用户并发保障如下。
V0 | V1 | V2 | V3 |
---|---|---|---|
10 | 30 | 40 | 50 |