# EverMemOS-rust **Repository Path**: daoos_admin/EverMemOS-rust ## Basic Information - **Project Name**: EverMemOS-rust - **Description**: EverMemOS-rust - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-11-19 - **Last Updated**: 2025-12-14 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # EverMemOS Rust 版本 EverMemOS 是一个基于 Rust 实现的记忆系统,用于存储、检索和处理用户的记忆信息。 ## 功能特性 - 情节记忆提取 - 语义记忆联想 - 记忆存储和检索 - 支持多种 LLM 提供商(OpenAI、Qwen、Ollama 等) ## 技术栈 - Rust - Tokio 异步运行时 - Axum Web 框架 - PostgreSQL 数据库 - MeiliSearch 搜索引擎 - 支持多种 LLM 提供商 ## 使用 Ollama 本项目支持使用本地 Ollama 作为 LLM 提供商。要使用 Ollama,请按以下步骤操作: ### 1. 安装 Ollama 访问 [Ollama 官网](https://ollama.ai/) 下载并安装适用于您操作系统的版本。 ### 2. 运行 Ollama 服务 ```bash ollama serve ``` ### 3. 拉取模型 ```bash # 拉取 llama2 模型 ollama pull llama2 # 或者拉取其他您喜欢的模型 ollama pull mistral ``` ### 4. 配置 EverMemOS 使用 Ollama 在代码中配置 LLM 提供商为 Ollama: ```rust // 创建 LLM 提供商配置 let config = LLMConfig { provider_type: LLMProviderType::OpenAI, model: "Lite".to_string(), base_url: Some("https://spark-api-open.xf-yun.com/v1".to_string()), api_key: "GpXPasiNDRkAndfVmuUh:McDqHgwvoTRYjFRonrva".to_string(), temperature: 0.3, max_tokens: 16384, }; let llm_provider = LLMProvider::new(config); ``` ## 项目结构 ``` src/ ├── api/ # HTTP API 实现 ├── cli/ # 命令行工具 ├── core/ # 核心模块 ├── llm/ # LLM 提供商接口 ├── memory/ # 记忆处理模块 ├── models/ # 数据模型 ├── prompts/ # 提示词文件 └── storage/ # 存储模块 ``` ## 运行示例 ```bash # 运行情节记忆提取演示 cargo run --example episode_memory_demo ``` ## 开发 ```bash # 构建项目 cargo build # 运行测试 cargo test # 运行开发服务器 cargo run ```