配置
保存
LLM模型名称
prompt模板
temperature
maxTokens
知识库名称
topK
scoreThreshold
是否附带历史
stream