Skip to main content

概览

GLM-4-Long 是一款专为处理超长文本和记忆型任务而设计的语言模型,支持 1M 超长输入(150-200万字)。

价格

1 元 / 百万 Tokens

输入模态

文本

输出模态

文本

上下文窗口

1M

最大输出 Tokens

4K

推荐场景

可处理数百页的年度财报,自动提取营收结构、风险提示、管理层讨论等关键信息,生成结构化分析报告;通过记忆历史财务数据,对比多期财报的趋势变化,识别潜在财务异常点。
支持解析数万字的学术论文,自动梳理研究背景、实验方法、结论等核心章节,将内容分主题输出;结合领域知识库,对跨章节的理论推导进行逻辑验证,辅助研究者快速定位创新点与论证漏洞。
深度分析百万字长篇小说的人物关系网、情节脉络,生成特定内容总结;基于对全文风格的记忆,实现高质量续写,保持叙事连贯性与文学性。
处理海量法律条文、判例和合同文本,精准提取权利义务条款、责任界定等关键内容;通过记忆类似案例,辅助律师进行法律风险评估与诉讼策略制定。

使用资源

体验中心:快速测试模型在业务场景上的效果
接口文档:API 调用方式

详细介绍

1

超长文本处理能力

支持高达1M(约150-200万字)的上下文长度,相当于2本《红楼梦》或125篇论文,在超长文本处理方面的有十分强大的能力。
2

推理能力

不仅能够阅读和翻译长篇文档,还能够进行全局分析,例如分析财务报告和提取关键信息、合同条款和科研数据。GLM-4-Long 已经具备一定的推理和记忆能力,能够理解和回应复杂的查询,创建具有超长记忆的聊天机器人。
3

技术关键点

在继续预训练(Continue Pre-Training)、监督微调(SFT)和基于人类反馈的强化学习(RLHF)阶段,进行混合训练逐步扩展上下文长度,从最初的2K上下文支持发展到1M上下文支持。

调用示例

以下是一个完整的调用示例,帮助您快速上手 GLM-4-Long 模型。
  • Python
  • Java
  • Python(旧)
安装 SDK
# 安装最新版本
pip install zai-sdk
# 或指定版本
pip install zai-sdk==0.0.4
验证安装
import zai
print(zai.__version__)
调用示例
from zai import ZhipuAiClient

# 初始化客户端
client = ZhipuAiClient(api_key="your-api-key")

# 创建聊天完成请求
response = client.chat.completions.create(
    model="glm-4-long",
    messages=[
        {"role": "user", "content": "请分析这份长篇技术文档的核心要点和技术架构...[此处可以输入非常长的文档内容]"}
    ]
)

# 获取回复
print(response.choices[0].message.content)

用户并发权益

API 调用会受到速率限制,当前我们限制的维度是请求并发数量(在途请求任务数量)。不同等级的用户并发保障如下。
V0V1V2V3
10304050
I