Documentation Index
Fetch the complete documentation index at: https://docs.bigmodel.cn/llms.txt
Use this file to discover all available pages before exploring further.
智谱AI 致力于做到人工智能的安全可控、可审计、可监督、可追溯和可信赖。为此,我们内置了安全审核机制,旨在减少模型应用中违法及不良信息的出现。
安全审核机制
当我们的内置安全审核机制识别到违法及不良信息时,将提供相应的提示信息或进行拦截处置,例如通过输入拦截、输出限制和终止内容生成。模型同步响应
当 API 检测到模型输入或输出内容中含有违法及不良信息时,系统会向开发者返回错误码(1301)、输入(role = user)或输出(role = assistant)、严重程度(level 0-3,level 0 表示最严重,3 表示轻微),不再同步生成结果。建议开发者采取措施,对用户进行正面引导,以确保内容的合规性和适当性。
返回示例
模型流式响应
在模型流式输出生成内容的过程中,我们会分批对模型生成内容进行检测,当检测到违法及不良信息时:- API 返回错误码(1301)
- API(V4)返回停止词
"finish_reason":"sensitive"
返回示例
终端用户管理
当我们检测到您的终端用户存在违规、生成违法及不良信息或其他滥用行为时,平台将会对终端用户请求进行封禁处理,避免您的企业账号因终端用户的违规或滥用行为受到影响。用户ID规范
- ID 是唯一标识终端用户的字符串
- 用户 ID 长度至少为 6 个字符,但不超过 128 个字符
- 您可以通过在 API 请求中上传终端用户 ID
请求示例
安全测试申请
违法及不良内容反馈
智谱AI 高度重视生成式人工智能服务的安全性。如果您在开发过程中发现 API 存在任何安全问题,请联系企业微信客服或者致电(400-6883-991)告知我们。我们非常感谢您的贡献和支持。
联系方式
企业微信客服
通过企业微信联系我们的客服团队
客服热线
400-6883-991
模型计费
| 模态 | 计费单位 | 单价 |
|---|---|---|
| 图片 | 次 | 0.0004 元/次 |
| 文本 | 次 | 0.00012 元/次 |
| 视频 | 秒 | 0.0002 元/秒 |
| 音频 | 秒 | 0.00005 元/秒 |