Osaurus - macOS 上的 LLM Server | 本地模型 / 远程 API 聚合
https://github.com/dinoki-ai/osaurus
Osaurus 是一个 macOS 上的 LLM Server,用户可以在 macOS 上运行 Llama、Qwen、Gemma 等本地模型,或连接到 OpenAI、Ollama、LM Studio 等远程服务,并通过统一的 API 端点访问它们。
● 本地 LLM 推理:通过 MLX 运行时在 Apple Silicon(M 系列芯片) 上优化运行 Llama、Qwen、Gemma、Mistral 等模型
● 远程供应商支持:集成 OpenAI、OpenRouter、Ollama、LM Studio 等多个远程模型提供商
● OpenAI 兼容 API:提供 /v1/chat/completions 端点支持流式传输和工具调用
● Anthropic 兼容 API:支持 /messages 端点,兼容 Claude Code 和 Anthropic SDK
● MCP Server:完整的 Model Context Protocol 实现,连接 Cursor、Claude Desktop 等 MCP 客户端
● 工具与插件系统:支持浏览器自动化、文件系统、Git、网络搜索等官方工具,以及自定义插件开发
● 开发者工具:内置请求监控、API 浏览器和实时端点测试功能
● 菜单栏聊天:带会话历史和上下文追踪的聊天覆盖层
#macOS #AI #Tool #GitHub #MCP
https://github.com/dinoki-ai/osaurus
Osaurus 是一个 macOS 上的 LLM Server,用户可以在 macOS 上运行 Llama、Qwen、Gemma 等本地模型,或连接到 OpenAI、Ollama、LM Studio 等远程服务,并通过统一的 API 端点访问它们。
● 本地 LLM 推理:通过 MLX 运行时在 Apple Silicon(M 系列芯片) 上优化运行 Llama、Qwen、Gemma、Mistral 等模型
● 远程供应商支持:集成 OpenAI、OpenRouter、Ollama、LM Studio 等多个远程模型提供商
● OpenAI 兼容 API:提供 /v1/chat/completions 端点支持流式传输和工具调用
● Anthropic 兼容 API:支持 /messages 端点,兼容 Claude Code 和 Anthropic SDK
● MCP Server:完整的 Model Context Protocol 实现,连接 Cursor、Claude Desktop 等 MCP 客户端
● 工具与插件系统:支持浏览器自动化、文件系统、Git、网络搜索等官方工具,以及自定义插件开发
● 开发者工具:内置请求监控、API 浏览器和实时端点测试功能
● 菜单栏聊天:带会话历史和上下文追踪的聊天覆盖层
#macOS #AI #Tool #GitHub #MCP