mirror of
https://github.com/infiniflow/ragflow.git
synced 2025-12-08 20:42:30 +08:00
Feat: add Zhipu GLM-4.5 model series (#9715)
### What problem does this PR solve? Add Zhipu GLM-4.5 model series. #9708. ### Type of change - [x] New Feature (non-breaking change which adds functionality) Co-authored-by: Kevin Hu <kevinhu.sh@gmail.com>
This commit is contained in:
@ -532,65 +532,65 @@
|
|||||||
"tags": "LLM,TEXT EMBEDDING,SPEECH2TEXT,MODERATION",
|
"tags": "LLM,TEXT EMBEDDING,SPEECH2TEXT,MODERATION",
|
||||||
"status": "1",
|
"status": "1",
|
||||||
"llm": [
|
"llm": [
|
||||||
{
|
|
||||||
"llm_name": "glm-4.5v",
|
|
||||||
"tags": "LLM,CHAT,IMAGE2TEXT,",
|
|
||||||
"max_tokens": 128000,
|
|
||||||
"model_type": "image2text",
|
|
||||||
"is_tools": true
|
|
||||||
},
|
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4.5",
|
"llm_name": "glm-4.5",
|
||||||
"tags": "LLM,CHAT,128K,",
|
"tags": "LLM,CHAT,128K",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4.5-x",
|
"llm_name": "glm-4.5-x",
|
||||||
"tags": "LLM,CHAT,128K,",
|
"tags": "LLM,CHAT,128k",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4.5-air",
|
"llm_name": "glm-4.5-air",
|
||||||
"tags": "LLM,CHAT,128K,",
|
"tags": "LLM,CHAT,128K",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4.5-airx",
|
"llm_name": "glm-4.5-airx",
|
||||||
"tags": "LLM,CHAT,128K,",
|
"tags": "LLM,CHAT,128k",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4.5-flash",
|
"llm_name": "glm-4.5-flash",
|
||||||
"tags": "LLM,CHAT,128K,",
|
"tags": "LLM,CHAT,128k",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
|
{
|
||||||
|
"llm_name": "glm-4.5v",
|
||||||
|
"tags": "LLM,IMAGE2TEXT,64,",
|
||||||
|
"max_tokens": 64000,
|
||||||
|
"model_type": "image2text",
|
||||||
|
"is_tools": false
|
||||||
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4-plus",
|
"llm_name": "glm-4-plus",
|
||||||
"tags": "LLM,CHAT,",
|
"tags": "LLM,CHAT,128K",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4-0520",
|
"llm_name": "glm-4-0520",
|
||||||
"tags": "LLM,CHAT,",
|
"tags": "LLM,CHAT,128K",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"llm_name": "glm-4",
|
"llm_name": "glm-4",
|
||||||
"tags": "LLM,CHAT,",
|
"tags":"LLM,CHAT,128K",
|
||||||
"max_tokens": 128000,
|
"max_tokens": 128000,
|
||||||
"model_type": "chat",
|
"model_type": "chat",
|
||||||
"is_tools": true
|
"is_tools": true
|
||||||
|
|||||||
Reference in New Issue
Block a user