Files
Arch1Panel/apps/raycast-ai-openrouter-proxy/README.md

102 lines
4.7 KiB
Markdown
Raw Normal View History

# Raycast AI OpenRouter 代理
这个项目提供了一个代理服务器允许Raycast AI使用任何OpenAI兼容的API如OpenAI、Gemini、OpenRouter等。这为Raycast AI带来了"自带密钥"(BYOK)功能意味着你可以使用自己的API密钥和所选提供商的模型。默认情况下代理配置为使用OpenRouter。
![](https://cdn.jsdelivr.net/gh/xiaoY233/PicList@main/public/assets/Raycast-AI-Openrouter-Proxy.png)
![](https://img.shields.io/badge/Copyright-arch3rPro-ff9800?style=flat&logo=github&logoColor=white)
**无需Raycast Pro订阅** 🎉
这个代理允许在Raycast内使用自定义模型包括**AI聊天**、**AI命令**、**快速AI**和**AI预设**让你在Raycast的原生AI体验中拥有自定义模型和自己API密钥的灵活性。
## 功能
该代理旨在提供在Raycast中使用自定义模型的无缝体验。以下是支持和不支持的功能
### 支持:
- 🧠 **任何模型**访问OpenAI兼容提供商提供的各种模型。默认使用OpenRouter。
- 👀 **视觉支持**:使用能够处理图像的模型。
- 🛠️ **AI扩展和MCP**使用你喜欢的AI扩展和MCP服务器。
- 📝 **系统指令**:提供系统级提示以指导模型行为。
- 📎 **附件**:附加与官方模型相同的所有内容。
- 🔨 **并行工具使用**:同时进行多个工具调用。
-**流式传输**:实时获取模型响应。
- 🔤 **聊天标题生成**:自动生成聊天标题。
- 🛑 **流取消**:停止模型的持续响应。
### 部分支持:
- 💭 **显示思考过程**:查看模型的思考过程。
- 并非所有提供商都支持此功能因为OpenAI API规范没有为其定义标准。例如使用OpenRouter时支持的模型默认始终显示思考过程。其他提供商可能默认不发送需要通过模型配置中的`extra`字段进行额外设置。
### 不支持:
- 🌐 **远程工具**某些AI扩展被归类为"远程工具"不受支持。这些包括网络搜索和图像生成以及其他一些工具。如果你想要类似的工具可以使用MCP服务器替代。
## 要求
- Docker
- 你选择的提供商的API密钥例如OpenRouter
## 模型配置
代理的行为主要通过项目根目录中的`models.json`文件配置。此文件定义了Raycast可用的模型及其特定设置。每个JSON数组条目代表一个模型可以包括以下属性
- `name`模型名称将在Raycast中显示。
- `id`提供商期望格式的模型ID。
- `contextLength`模型支持的最大上下文长度以token为单位。仅影响Raycast的UI不影响模型本身。
- `capabilities`:表示模型功能的字符串数组。
- `"vision"`:模型可以处理图像。
- `"tools"`模型支持AI扩展和MCP工具调用
- `temperature`可选控制模型的创造性。值在0到2之间。
- `topP`可选另一个控制输出随机性的参数值在0到1之间。
- `max_tokens`可选模型在单个响应中允许生成的最大token数。
- `extra`可选用于高级、特定于提供商的配置的对象。这些选项直接传递给提供商的API。
### 默认配置
默认models.json中已配置OpenRouter6个模型其中前四个为免费模型后两个为收费模型可根据需求自行修改models.json配置。Openrouter官方模型查询:
![https://openrouter.ai/models](https://openrouter.ai/models)
- Moonshotai Kimi-K2
- DeepSeek V3
- Qwen3 Coder
- DeepSeek-R1-0528
- Gemini 2.5 Flash Thinking
- Claude Sonnet 4
修改models.json后请重新启动应用或容器。
## 使用方法
1. 在1Panel中安装应用后配置以下参数
- 代理服务器端口默认为11435可根据需要更改
- API密钥你的API提供商密钥
- API基础URL默认为OpenRouter的API端点可更改为其他OpenAI兼容的API端点
2. 在Raycast设置中进入AI > Ollama Host并将主机设置为`localhost:11435`(或你配置的端口)。
3. 现在你可以在Raycast中使用自定义模型享受无需Pro订阅的AI功能
## 常见问题
### 这与官方Raycast BYOK功能相比如何
Raycast在v1.100.0中发布了内置的BYOK功能。官方实现与此代理有几点不同
- 它只支持Anthropic、Google和OpenAI。此代理支持任何OpenAI兼容的提供商。
- 所有消息都通过Raycast的服务器传输。
- 你的API密钥会发送到Raycast的服务器。
- 你对模型及其配置的控制较少。
### 是否需要Raycast Pro订阅才能使用
不需要此代理的主要优势之一是无需Raycast Pro订阅即可在Raycast中使用自定义模型。
### 我是否需要安装Ollama
不需要你不需要安装Ollama。