配置
LLM模型名称 prompt模板
temperature maxTokens
知识库名称 topK
scoreThreshold 是否附带历史
stream