快速入门指南
先决条件
在 开始使用 Eliza 之前,请确保您具备以下条件:
- Node.js 23+
- pnpm 9+
- 用于版本控制的 Git
- 代码编辑器(推荐 VS Code 或 VSCodium)
- CUDA Toolkit(可选,用于 GPU 加速)
安装
-
克隆并安装
请务必检查 最新可用的稳定版本标签。
克隆仓库
git clone https://github.com/elizaos/eliza.git
进入目录
cd eliza
切换到最新的标签版本
# 检出最新版本
# 该项目迭代迅速,因此我们建议检出最新版本
git checkout $(git describe --tags --abbrev=0)安装依赖项(首次运行时)
pnpm install --no-frozen-lockfile
快速入门指南更新
关于 pnpm 锁文件管理的重要说明
默认情况下,基于 .npmrc frozen-lockfile=true 的安装过程中,pnpm
锁文件不会更新。要更新锁文件,您需要运行以下命令:
pnpm install --no-frozen-lockfile
请仅在首次初始化仓库或升级包版本或向 package.json 添加新包时使用此命令。此做法有助于保持项目依赖项的一致性,并防止锁文件的意外更改。
构建本地库
pnpm build
-
配置环境
复制示例环境文件
cp .env.example .env
编辑
.env
并添加您的值:# 建议的快速入门环境变量
DISCORD_APPLICATION_ID= # 用于 Discord 集成
DISCORD_API_TOKEN= # 机器人令牌
HEURIST_API_KEY= # Heurist API 密钥,用于 LLM 和图像生成
OPENAI_API_KEY= # OpenAI API 密钥
GROK_API_KEY= # Grok API 密钥
ELEVENLABS_XI_API_KEY= # 来自 elevenlabs 的 API 密钥(用于语音)
LIVEPEER_GATEWAY_URL= # Livepeer 网关 URL
选择您的模型
Eliza 支持多种 AI 模型:
- Heurist:在角色文件中设置
modelProvider: "heurist"
。大多数模型未经过审查。 - Llama:设置
XAI_MODEL=meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
- Grok:设置
XAI_MODEL=grok-beta
- OpenAI:设置
XAI_MODEL=gpt-4o-mini
或gpt-4o
- Livepeer:设置
LIVEPEER_IMAGE_MODEL
为您选择的 Livepeer 图像模型,可用模型在 此处
您可以在角色 JSON 文件中设置使用哪个模型
本地推理
对于 llama_local 推理:
- 设置
XAI_MODEL
为您选择的模型 - 保持
X_SERVER_URL
和XAI_API_KEY
为空 - 系统将自动从 Hugging Face 下载模型
LOCAL_LLAMA_PROVIDER
可以为空
注意:llama_local 需要 GPU,目前不支持 CPU 推理
对于 Ollama 推理:
- 如果
OLLAMA_SERVER_URL
为空,默认为localhost:11434
- 如果
OLLAMA_EMBEDDING_MODE
为空,默认为mxbai-embed-large
创建您的第一个代理
-
创建角色文件
查看
characters/trump.character.json
或characters/tate.character.json
作为模板,您可以用来复制和自定义代理的个性和行为。 此外,您还可以阅读core/src/core/defaultCharacter.ts
(在 0.0.10 版本中,但重构后将在packages/core/src/defaultCharacter.ts
中)📝 角色文档
-
启动代理
告诉它您要运行哪个角色:
pnpm start --character="characters/trump.character.json"
您还可以使用逗号分隔的列表加载多个角色:
pnpm start --characters="characters/trump.character.json,characters/tate.character.json"
-
与代理互动
现在您可以开始与您的代理对话了! 打开一个新的终端窗口
pnpm start:client
一旦客户端运行,您将看到如下消息:
➜ Local: http://localhost:5173/
只需点击链接或打开浏览器到 http://localhost:5173/
。您将看到聊天界面连接到系统,并可以开始与您的角色互动。