后端:
- server: 实现完整的 HTTP 会话管理(CRUD)+ SSE 事件流推送,
支持双通道架构(POST 发消息 + GET SSE 接收流式响应)
- runtime: ContentBlock 新增 Thinking / RedactedThinking 变体,
支持思考过程和已编辑思考的序列化/反序列化
- api: 注册 GLM 系列模型(glm-4/5 等)到模型注册表,
扩展 XAI/OpenAI 兼容提供商的请求构建逻辑
前端:
- 基于 Ant Design X 构建完整聊天界面:Bubble.List 消息列表、
Sender 输入框、Conversations 会话管理、Think 思考过程折叠、
ThoughtChain 工具调用链展示
- XMarkdown 集成:代码高亮、Mermaid 图表、LaTeX 公式、
自定义脚注、流式渲染(incomplete 占位符)
- SSE Hook 对接服务端事件流,手动管理 AssistantBuffer 累积 delta
- 深色/浅色主题切换,会话侧边栏(新建/切换/删除)
|
||
|---|---|---|
| .. | ||
| src | ||
| Cargo.toml | ||
| README.md | ||
LSP 模块 (lsp)
本模块实现了语言服务协议 (Language Server Protocol, LSP) 的客户端功能,允许系统通过集成的编程语言服务器获取代码的语义信息、错误诊断和符号导航。
概览
lsp 模块的主要职责是:
- 管理多个 LSP 服务器的生命周期(启动、初始化、关闭)。
- 与服务器进行异步 JSON-RPC 通信。
- 提供跨语言的代码智能功能,如:
- 转到定义 (Go to Definition)
- 查找引用 (Find References)
- 工作区诊断 (Workspace Diagnostics)
- 为 AI 提示词 (Prompt) 提供上下文增强,将代码中的实时错误和符号关系反馈给 LLM。
关键特性
- LspManager: 核心管理类,负责协调不同语言的服务器配置和文档状态。
- 上下文增强 (Context Enrichment):定义了
LspContextEnrichment结构,能够将复杂的 LSP 响应(如诊断信息和定义)转换为易于 AI 理解的 Markdown 格式。 - 多服务器支持:支持根据文件扩展名将请求路由到不同的语言服务器(如
rust-analyzer,pyright等)。 - 同步机制:处理文档的
didOpen、didChange和didSave消息,确保服务器拥有最新的代码视图。
实现逻辑
核心模块
manager.rs: 实现了LspManager。它维护一个服务器池,并提供高层 API 来执行跨服务器的请求。client.rs: 实现底层的 LSP 客户端逻辑,处理基于tokio的异步 I/O 和 JSON-RPC 消息的分帧与解析。types.rs: 定义了本模块使用的专用数据类型,并对lsp-types库中的类型进行了简化和包装,以便于内部使用。error.rs: 定义了 LSP 相关的错误处理。
工作流程
- 系统根据配置初始化
LspManager。 - 当打开一个文件时,
LspManager启动相应的服务器并发送initialize请求。 LspManager跟踪文档的打开状态,并在内容变化时同步到服务器。- 当需要对某个符号进行分析时,调用
go_to_definition等方法,模块负责发送请求并解析返回的Location。 - 诊断信息异步通过
textDocument/publishDiagnostics通知到达,模块会缓存这些信息供后续查询。
使用示例 (内部)
use lsp::{LspManager, LspServerConfig};
// 配置并初始化管理器
let configs = vec![LspServerConfig {
name: "rust-analyzer".to_string(),
command: "rust-analyzer".to_string(),
..Default::default()
}];
let manager = LspManager::new(configs)?;
// 获取某个位置的上下文增强信息
let enrichment = manager.context_enrichment(&file_path, position).await?;
println!("{}", enrichment.render_prompt_section());