# LiteLLM 大模型 API 代理转换层深度分析报告 ## 1. 项目概述 LiteLLM 是一个统一的 LLM API 网关和 SDK 项目,核心能力是将 100+ 种不同来源的大模型 API 统一管理,并以 **OpenAI 格式** 作为统一接口标准提供给用户。 ### 整体请求流向 ``` OpenAI SDK (客户端) ──▶ LiteLLM AI Gateway (proxy/) ──▶ LiteLLM SDK (litellm/) ──▶ LLM API Anthropic SDK (客户端) ──▶ LiteLLM AI Gateway (proxy/) ──▶ LiteLLM SDK (litellm/) ──▶ LLM API 任意 HTTP 客户端 ──▶ LiteLLM AI Gateway (proxy/) ──▶ LiteLLM SDK (litellm/) ──▶ LLM API ``` - **AI Gateway(代理层)**:在 SDK 之上提供认证、速率限制、预算管理和路由功能 - **SDK(核心层)**:处理实际的 LLM 提供商调用、请求/响应转换和流式传输 ### 与同类项目的核心差异 LiteLLM 是**覆盖最广**的 LLM 网关,以 **OpenAI 格式为唯一内部规范格式**(Canonical Format),所有转换都围绕 OpenAI ↔ 提供商格式展开。同时支持 **Anthropic Messages API 直通模式**(`/v1/messages` 端点),使其也能充当 Anthropic 协议的代理网关。SDK 可独立使用(Python 包),也可配合 Gateway 作为服务部署。 --- ## 2. 转换层技术架构 ### 2.1 架构设计模式 采用 **策略模式 + 工厂模式 + 模板方法** 组合设计: - **策略模式**:每个 LLM 提供商都有一个独立的 `Config` 类,继承自统一的 `BaseConfig` 抽象基类,实现各自的转换方法 - **工厂模式**:`ProviderConfigManager` 作为中心工厂,根据模型名称和提供商类型动态解析出正确的 Config 实例 - **模板方法**:`BaseConfig` 定义统一的转换接口(抽象方法),子类实现具体的提供商差异 ### 2.2 核心抽象基类 **文件**: `litellm/llms/base_llm/chat/transformation.py` (466 行) ```python class BaseConfig(ABC): @abstractmethod def get_supported_openai_params(self, model: str) -> list: """返回该提供商支持的 OpenAI 格式参数列表""" @abstractmethod def map_openai_params(self, non_default_params, optional_params, model, drop_params) -> dict: """将 OpenAI 格式参数映射为提供商特定参数""" @abstractmethod def validate_environment(self, headers, model, messages, optional_params, ...) -> dict: """验证并构建请求头""" @abstractmethod def transform_request(self, model, messages, optional_params, litellm_params, headers) -> dict: """将 OpenAI 格式请求转换为提供商格式""" @abstractmethod def transform_response(self, model, raw_response, model_response, ...) -> ModelResponse: """将提供商响应转换为统一的 OpenAI ModelResponse 格式""" @abstractmethod def get_error_class(self, error_message, status_code, headers) -> BaseLLMException: """返回提供商特定的错误类""" # 以下为有默认实现的重要方法: def get_complete_url(self, api_base, api_key, model, ...) -> str: ... # URL 构建 def sign_request(self, headers, optional_params, request_data, ...) -> ...: ... # 请求签名 def get_model_response_iterator(self, ...) -> BaseModelResponseIterator: ... # 流式迭代器 def should_fake_stream(self, ...) -> bool: ... # 是否需要模拟流式 def is_thinking_enabled(self, ...) -> bool: ... # 思考模式检测 def calculate_additional_costs(self, ...) -> float: ... # 自定义成本计算 def post_stream_processing(self, ...) -> ...: ... # 流式后处理钩子 ``` **6 个抽象方法**必须实现,其余方法提供默认实现。 ### 2.3 中央 HTTP 编排器 **文件**: `litellm/llms/custom_httpx/llm_http_handler.py` (12,161 行) `BaseLLMHTTPHandler` 是所有提供商共用的 HTTP 编排器,支持**多种模态**(不仅限于 chat): ``` completion() 编排流程: 1. provider_config.validate_environment() → 验证环境、构建请求头 2. provider_config.get_complete_url() → 构建 API URL 3. provider_config.transform_request() → 转换请求体 4. provider_config.sign_request() → 签名请求(如 AWS Bedrock) 5. 发送 HTTP 请求到提供商 API 6. provider_config.transform_response() → 转换响应为 ModelResponse ``` **额外支持的模态**: embedding、rerank、audio_transcription、OCR、vector_store、files、batches、image_generation、video_generation、responses API 等。 **关键设计**: 编排器本身不需要修改,所有提供商的差异都封装在各自的 Config 类中。此外编排器还支持 **HTTP 错误重试**模式 — 通过 `should_retry_llm_api_inside_llm_translation_on_http_error()` 在特定错误时自动修复并重试。 ### 2.4 请求入口与提供商解析 **入口文件**: `litellm/main.py` 的 `completion()` 函数(约 7,807 行,`completion()` 起始于 line 1052) **提供商解析文件**: `litellm/litellm_core_utils/get_llm_provider_logic.py` 的 `get_llm_provider()` 函数 (958 行) 解析优先级: 1. **LiteLLM Proxy 默认**: 检查是否应使用 litellm_proxy 2. **litellm_params**: 从 router 参数获取 3. **Azure 特殊处理**: Azure 非 OpenAI 模型 4. **Cohere/Anthropic 文本模型重定向** 5. **OpenRouter 前缀剥离** 6. **JSON 配置提供商**: `JSONProviderRegistry` 动态注册的 OpenAI 兼容提供商 7. **前缀提供商**: `model.split("/")[0]` 在提供商列表中匹配 8. **API Base 匹配**: ~40 个已知 API 端点域名匹配 9. **已知模型名查找**: `"gpt-4"` → `"openai"`,`"claude-3"` → `"anthropic"` 10. **字符串前缀回退**: `model.startswith("bytez/")` → `"bytez"` 11. **错误**: 无法解析则抛出 `BadRequestError` **Config 解析**: `litellm/utils.py` 的 `ProviderConfigManager`(line 8013),通过 `_PROVIDER_CONFIG_MAP` 懒加载字典进行 O(1) 查找,约 90 个提供商映射。 **派发模式**: `main.py` 中仍保留一个较大的 `if/elif` 链用于提供商分派。Azure 和 OpenAI 仍使用专用处理路径,约 30 个提供商通过 `base_llm_http_handler.completion()` 处理。 ### 2.5 多模态工厂 `ProviderConfigManager` 提供多个工厂方法: | 工厂方法 | 用途 | 提供商数量 | |---------|------|-----------| | `get_provider_chat_config()` | Chat Completions | ~90 | | `get_provider_embedding_config()` | Embedding 向量 | ~25 | | `get_provider_rerank_config()` | Rerank 重排序 | ~13 | | `get_provider_anthropic_messages_config()` | Anthropic Messages 直通 | 4 | --- ## 3. 支持的协议/提供商总览 ### 3.1 支持规模 | 维度 | 数量 | |------|------| | LLM 提供商枚举值 (`LlmProviders`) | 133 | | 搜索提供商枚举值 (`SearchProviders`) | 12 | | 实现目录数 (`litellm/llms/` 下) | ~118 | | `base_llm/` 子模态目录 | 29 (chat, embedding, rerank, responses, audio, OCR, image, video, etc.) | ### 3.2 主要提供商分类 | 分类 | 提供商 | 转换方式 | |------|--------|----------| | **OpenAI 及兼容** | OpenAI, Azure OpenAI, DeepSeek, Groq, Together AI, Fireworks, Perplexity, OpenRouter 等 | 几乎直通,参数过滤 | | **Anthropic 系列** | Anthropic 原生, Bedrock Claude, Vertex AI Claude | 深度转换(消息格式、工具调用、思考模式) | | **Google 系列** | Gemini (AI Studio), Vertex AI Gemini | 深度转换(contents/parts 格式、角色映射) | | **AWS 系列** | Bedrock Converse, Bedrock Invoke | Converse 统一格式 或 按提供商分派转换 | | **开源/本地** | Ollama, vLLM, LM Studio, llamafile | 参数重映射 + 消息格式适配 | | **其他云厂商** | Cohere, Mistral, Databricks, WatsonX, OCI, Snowflake 等 | 各自独立转换 | | **直通模式** | 所有提供商 | 请求体不变,仅转换 URL 和认证头 | --- ## 4. 核心转换文件详解 ### 4.1 转换文件总览表 | 入站 API 协议 | 目标提供商 | 转换文件 | |---------------|-----------|----------| | `/v1/chat/completions` (OpenAI) | Anthropic | `litellm/llms/anthropic/chat/transformation.py` | | `/v1/chat/completions` (OpenAI) | Bedrock Converse | `litellm/llms/bedrock/chat/converse_transformation.py` | | `/v1/chat/completions` (OpenAI) | Bedrock Invoke | `litellm/llms/bedrock/chat/invoke_transformations/*.py` | | `/v1/chat/completions` (OpenAI) | Gemini | `litellm/llms/gemini/chat/transformation.py` (薄层) → `litellm/llms/vertex_ai/gemini/transformation.py` (核心) | | `/v1/chat/completions` (OpenAI) | Vertex AI | `litellm/llms/vertex_ai/vertex_ai_partner_models/main.py` | | `/v1/chat/completions` (OpenAI) | OpenAI | `litellm/llms/openai/chat/gpt_transformation.py` | | `/v1/chat/completions` (OpenAI) | Ollama | `litellm/llms/ollama/chat/transformation.py` | | `/v1/chat/completions` (OpenAI) | Cohere | `litellm/llms/cohere/chat/transformation.py` | | `/v1/chat/completions` (OpenAI) | Mistral | `litellm/llms/mistral/chat/transformation.py` | | `/v1/messages` (Anthropic) | Anthropic/Bedrock/Vertex | `litellm/llms/base_llm/anthropic_messages/transformation.py` | | 直通端点 | 所有 | `litellm/proxy/pass_through_endpoints/` | --- ### 4.2 Anthropic 转换层 **文件**: `litellm/llms/anthropic/chat/transformation.py` (2,096 行) **类**: `AnthropicConfig(AnthropicModelInfo, BaseConfig)` #### 请求转换(OpenAI → Anthropic) `transform_request()` 方法核心转换逻辑: 1. **系统消息提取**: 将 `role: "system"` 消息从 messages 列表中提取出来,放入 Anthropic 顶层 `system` 字段(Anthropic API 不使用 system-role 消息) 2. **消息格式转换**: 调用 `anthropic_messages_pt()` 将 OpenAI 消息转为 Anthropic Messages 格式 3. **工具调用转换**: OpenAI 的 `function.parameters` → Anthropic 的 `input_schema`;工具选择 `"required"` → `"any"`,`parallel_tool_calls: false` → `disable_parallel_tool_use: true` 4. **Beta Header 管理**: 根据使用的功能(web search、memory、structured output、computer use、code execution、MCP server 等)自动添加 `anthropic-beta` 请求头 5. **Thinking 参数处理**: 管理 Anthropic Extended Thinking 参数 6. **JSON 模式**: 旧模型通过创建合成工具实现 JSON 模式;新模型(Sonnet 4.5+)原生支持结构化输出 **关键参数映射**: | OpenAI 参数 | Anthropic 参数 | 说明 | |-------------|---------------|------| | `max_tokens` / `max_completion_tokens` | `max_tokens` | 直接映射,默认值可通过环境变量配置 | | `tools[].function.parameters` | `tools[].input_schema` | JSON Schema 格式转换 | | `tool_choice: "required"` | `tool_choice: {"type": "any"}` | 语义映射 | | `parallel_tool_calls: false` | `disable_parallel_tool_use: true` | 反转布尔值 | | `stop` | `stop_sequences` | 字符串 → 列表 | | `response_format` (JSON) | 合成工具方式 / `output_format` | 按模型能力选择 | | `reasoning_effort` | `thinking` + `output_config` | 努力级别映射为思考预算 | | `web_search_options` | `tools` (web_search hosted tool) | 转换为 Anthropic 原生搜索工具 | | `user` | `metadata.user_id` | 嵌套到 metadata | #### 响应转换(Anthropic → OpenAI) 1. **内容块解析**: text → 文本, tool_use → ToolCall, thinking/redacted_thinking → `reasoning_content` + `thinking_blocks` 2. **JSON 模式逆向转换**: 如果启用了 JSON 模式,将工具调用的参数提取为文本内容 3. **停止原因映射**: `end_turn`/`stop_sequence` → `stop`, `max_tokens` → `length`, `tool_use` → `tool_calls` 4. **Usage 计算**: 输入/输出 token、缓存 token、推理 token 等 --- ### 4.3 OpenAI 转换层(基准实现) **文件**: `litellm/llms/openai/chat/gpt_transformation.py` (820 行) **类**: `OpenAIGPTConfig(BaseLLMModelInfo, BaseConfig)` — 标记 `_is_base_class = True` OpenAI 是"原生"格式提供者,其转换层最简单: - **`transform_request()`**: 仅做少量规范化(image_url 格式化、移除 `cache_control`、PDF URL 转 base64) - **`transform_response()`**: JSON 解析后直接构建 `ModelResponse` - **`map_openai_params()`**: 简单的参数过滤(只保留支持的参数列表) **作为基类被复用**: - `OpenAIOSeriesConfig` — O1/O3 推理模型(`system` 角色转 `user`,限制 temperature) - `OpenAIGPTAudioConfig` — GPT-4o 音频模型 - `OpenAIGPT5Config` — GPT-5 系列(推理努力级别标准化) - 许多 OpenAI 兼容提供商(DeepSeek、Groq、Together AI 等)也复用此类 - **Mistral** 也继承自 `OpenAIGPTConfig`(API 大部分兼容,额外处理 schema 清理和 thinking) --- ### 4.4 Google Gemini 转换层 **文件**: - `litellm/llms/gemini/chat/transformation.py` (154 行) — 薄层,继承 Vertex Gemini - `litellm/llms/vertex_ai/gemini/transformation.py` (941 行) — 核心转换逻辑 **类继承链**: ``` BaseConfig → VertexAIBaseConfig → VertexGeminiConfig → GoogleAIStudioGeminiConfig ``` #### 请求转换(OpenAI → Gemini) 这是最复杂的转换之一: | 方面 | OpenAI 格式 | Gemini 格式 | |------|-----------|------------| | 消息容器 | `messages: [{role, content}]` | `contents: [{role, parts}]` | | 角色类型 | `system`, `user`, `assistant`, `tool` | 仅 `user` 和 `model` | | 内容格式 | 字符串或内容对象列表 | `PartType` 对象列表 | | 工具结果 | 独立的 `role: "tool"` 消息 | 合并到 `role: "user"` 的 parts | | 连续消息 | 允许任意顺序 | 必须严格交替 user/model | 转换算法核心步骤: 1. **系统消息提取**: 放入 `system_instruction` 字段 2. **角色映射**: `user`/`system` → `user`, `assistant` → `model`, `tool`/`function` → `user` 3. **角色交替强制**: 合并连续相同角色的消息 4. **媒体处理**: image_url → `inline_data` (base64) 或 `file_data` (GCS URI) 5. **工具调用转换**: OpenAI `tool_calls` → Gemini `functionCall` parts 6. **搜索工具冲突处理**: 搜索工具与函数声明互斥时优先保留函数声明 **关键参数映射**: | OpenAI 参数 | Gemini 参数 | 说明 | |-------------|-----------|------| | `max_tokens` | `max_output_tokens` | 名称变更 | | `stop` | `stop_sequences` | 字符串 → 列表 | | `n` | `candidate_count` | 名称变更 | | `response_format` | `response_mime_type` + `response_schema` | 复杂 Schema 转换 | | `reasoning_effort` | `thinkingConfig` | 努力级别 → 思考预算 | | `tool_choice: "none"` | `NONE` | 大写枚举 | | `tool_choice: "required"` | `ANY` | 语义映射 | | `modalities: ["image"]` | `responseModalities: ["IMAGE"]` | 大写枚举 | | `web_search_options` | `tools` (googleSearch) | 转换为 Gemini 搜索工具 | --- ### 4.5 AWS Bedrock 转换层 Bedrock 是架构最复杂的转换层,支持 **四条独立转换路径**: #### 路径 1:Converse API(推荐) **文件**: `litellm/llms/bedrock/chat/converse_transformation.py` (2,129 行) **类**: `AmazonConverseConfig(BaseConfig)` 使用 Bedrock 的统一 Converse API,所有提供商共享同一套请求/响应结构: ``` 请求格式:{ "messages": [...], # Bedrock MessageBlock 格式 "system": [...], # SystemContentBlock 格式 "inferenceConfig": {...}, # maxTokens, temperature, topP, topK 等 "additionalModelRequestFields": {...}, # 提供商特定字段 "toolConfig": {...}, # 工具配置 "guardrailConfig": {...}, # 护栏配置 } ``` 支持最丰富的功能集:工具调用、思考模式、结构化输出、护栏、Web 搜索、Computer Use 等。 #### 路径 2:Invoke API(传统/遗留) **文件**: `litellm/llms/bedrock/chat/invoke_transformations/` — 15 个提供商特定文件 **基类**: `AmazonInvokeConfig(BaseConfig, BaseAWSLLM)` 采用 **分派模式 (Dispatcher Pattern)**:`get_bedrock_chat_config()` 从模型名解析提供商,然后委托给对应的转换类: ``` AmazonInvokeConfig.transform_request() → get_bedrock_invoke_provider(model) # 从模型名解析提供商 → 按提供商委托: - "anthropic" → AmazonAnthropicClaudeConfig(复用 AnthropicConfig) - "cohere" → 构建 Cohere 格式请求 - "meta" → {"prompt": ...} 文本格式 - "nova" → AmazonInvokeNovaConfig - "deepseek_r1", "qwen3", "qwen2", "moonshot", "openai" 等 → 各自的转换器 ``` **Anthropic Claude Invoke 特殊设计**: `AmazonAnthropicClaudeConfig` 通过多重继承 `AmazonInvokeConfig + AnthropicConfig`,复用 Anthropic 原生转换逻辑,但去除 Bedrock 不兼容的字段并设置 `anthropic_version = "bedrock-2023-05-31"`。 #### 路径 3:Converse-like — Converse 的轻量包装器 #### 路径 4:Invoke Agent — Bedrock Agent 编排调用的专用路径 **路由决策** (`get_bedrock_chat_config()`): 先按 `bedrock_route`(converse/openai/agent/agentcore)选择路径,再按 `bedrock_invoke_provider` 选择子提供商。 --- ### 4.6 Vertex AI 转换层 **文件**: `litellm/llms/vertex_ai/` — 多提供商门面 (Multi-Provider Facade) Vertex AI 在 Google Cloud 上托管了多种第三方模型: | 模型类型 | Config 类 / 处理方式 | 转换方式 | |----------|----------|----------| | Gemini | `VertexGeminiConfig` | 深度转换(同 Gemini 格式) | | Anthropic Claude | `VertexAIAnthropicConfig` | 复用 AnthropicConfig + Vertex 认证 + `anthropic_version: "vertex-2023-10-16"` | | Meta Llama | `OpenAILikeChatHandler` / `base_llm_http_handler` | OpenAI 兼容端点 | | AI21 Jamba | `VertexAIAi21Config` | 继承 OpenAIGPTConfig | | DeepSeek / Qwen / Minimax / Moonshot | `base_llm_http_handler` | OpenAI 兼容端点 | | Mistral/Codestral | `MistralConfig` / `CodestralTextCompletionConfig` | OpenAI 兼容 | **调度器**: `VertexAIPartnerModels` 类通过 `PartnerModelPrefixes` 枚举(META, DEEPSEEK, MISTRAL, CODERESTAL, JAMBA, CLAUDE, QWEN, GPT_OSS 等)路由到正确的处理器。 --- ### 4.7 其他重要提供商转换 #### Ollama(本地模型) **文件**: `litellm/llms/ollama/chat/transformation.py` (580 行) | OpenAI 参数 | Ollama 参数 | 说明 | |-------------|-----------|------| | `max_tokens` | `num_predict` | 名称变更 | | `frequency_penalty` | `repeat_penalty` | 语义差异 | | `response_format(json_object)` | `format: "json"` | 简化映射 | | `response_format(json_schema)` | `format: ` | 直接传入 schema | | `reasoning_effort` | `think` | 布尔/字符串 | 支持 Ollama 特有参数(Mirostat 采样、num_ctx、num_gpu、num_thread 等),支持从 `` 标签中提取推理内容。 #### Cohere - **v1 API**: `CohereChatConfig(BaseConfig)` — 完全独立的转换(`chat_history` + 最新消息分离) - **v2 API**: `CohereV2ChatConfig` — v2 是 OpenAI 兼容的,复用 OpenAI 转换 - 通过 `_get_cohere_config(model)` 根据模型选择版本 #### Mistral **类**: `MistralConfig(OpenAIGPTConfig)` — **继承自 OpenAI Config**(非直接继承 BaseConfig) 特殊处理:工具 Schema 清理(移除 `$id`、`$schema`、`additionalProperties` 等 Mistral 不支持的字段),Magistral 模型的推理通过注入专用系统提示实现。 --- ### 4.8 Anthropic Messages API 直通层 **文件**: `litellm/llms/base_llm/anthropic_messages/transformation.py` (165 行) **基类**: `BaseAnthropicMessagesConfig(ABC)` — **独立的**抽象基类,与 `BaseConfig` 并行 这是一条与标准 OpenAI 格式 `BaseConfig` 并行的转换路径,用于直接接受 Anthropic Messages API 格式(`/v1/messages`)的请求并转发到多个云提供商: | 提供商 | 实现类 | 认证方式 | |--------|--------|----------| | Anthropic 原生 | `AnthropicMessagesConfig` | API Key | | AWS Bedrock | `BedrockModelInfo.get_bedrock_provider_config_for_messages_api()` | AWS SigV4 | | Vertex AI Claude | `VertexAIPartnerModelsAnthropicMessagesConfig` | Google OAuth | | Azure AI Claude | `AzureAnthropicMessagesConfig` | Azure Token | **关键抽象方法** (5 个): 1. `validate_anthropic_messages_environment()` — 返回 (headers, api_base) 2. `get_complete_url()` — URL 构建 3. `get_supported_anthropic_messages_params()` — 支持的参数列表 4. `transform_anthropic_messages_request()` — 请求转换 5. `transform_anthropic_messages_response()` — 响应转换 **自修复能力**: 支持在 thinking signature 无效时自动重试(`should_retry_anthropic_messages_on_http_error()`,最多 2 次)。 ### 4.9 Proxy 直通模式 **目录**: `litellm/proxy/pass_through_endpoints/` 直通模式允许用户直接调用提供商的原生 API,**请求体不做任何转换**,仅转换: - **URL**: 将代理路由映射到提供商的实际 API 端点 - **认证**: 将 LiteLLM 虚拟密钥替换为提供商的 API 密钥(`PassthroughEndpointRouter` 管理凭证) - **元数据**: 注入日志和计费信息 主要文件: `llm_passthrough_endpoints.py` (2,371 行)、`pass_through_endpoints.py`、`passthrough_guardrails.py` 等。 --- ## 5. 流式传输处理 ### 5.1 统一流式包装器 **文件**: `litellm/litellm_core_utils/streaming_handler.py` (2,418 行) **类**: `CustomStreamWrapper` 所有提供商共用的流式响应统一化层,实现 `__iter__`/`__next__`(同步)和 `__aiter__`/`__anext__`(异步)。 **核心设计**: 引入 `GenericStreamingChunk` 统一接口: ```python GenericStreamingChunk = { "text": str, "is_finished": bool, "finish_reason": str, "usage": Usage, "tool_use": [...], } ``` 所有实现了 `BaseConfig.get_model_response_iterator()` 的提供商都返回符合此格式的块,`CustomStreamWrapper` 可以统一处理。 **关键功能**: - 特殊 token 处理(`<|im_start|>`, `<|im_end|>` 等) - Stream options 支持(`include_usage`) - 最大流式持续时间强制 - `merge_reasoning_content_in_choices` 支持 - `aclose()` 通过 `anyio.CancelScope` 正确清理 ### 5.2 提供商特定的流式解析器 每个提供商都有独立的 `ModelResponseIterator` 实现: | 提供商 | 解析器位置 | 特殊处理 | |--------|-----------|---------| | Anthropic | `llms/anthropic/chat/handler.py` | SSE 事件类型分派(message_start/content_block_delta/message_delta) | | OpenAI | `llms/openai/chat/gpt_transformation.py` | 几乎直通 | | Gemini | Vertex AI 流式处理 | `contents[0].parts[0].text` 格式 | | Bedrock Converse | `llms/bedrock/chat/converse_handler.py` | AWS 事件流格式 | | Ollama | 内置于 transformation.py | JSON 行格式,`` 标签解析 | ### 5.3 Fake Stream 机制 部分提供商(如某些 Bedrock Invoke 模型)不支持真正的流式传输。LiteLLM 通过 `should_fake_stream()` 检测这种情况,先发送非流式请求获取完整响应,然后通过 `MockResponseIterator` 逐块模拟流式输出。 --- ## 6. 转换层设计模式总结 ### 6.1 三层架构 ``` ┌─────────────────────────────────────────┐ │ Proxy Layer (proxy/) │ 认证、限流、路由、计费 ├─────────────────────────────────────────┤ │ SDK Layer (litellm/) │ 统一入口、参数映射 │ ┌─────────────────────────────────┐ │ │ │ BaseLLMHTTPHandler │ │ HTTP 编排器(不变) │ │ ┌───────────────────────────┐ │ │ │ │ │ ProviderConfig (BaseConfig)│ │ │ 转换策略(可变) │ │ │ • transform_request() │ │ │ │ │ │ • transform_response() │ │ │ │ │ │ • map_openai_params() │ │ │ │ │ └───────────────────────────┘ │ │ │ └─────────────────────────────────┘ │ ├─────────────────────────────────────────┤ │ HTTP Client (httpx) │ 底层 HTTP 通信 └─────────────────────────────────────────┘ ``` ### 6.2 关键设计模式 | 模式 | 应用位置 | 说明 | |------|---------|------| | **策略模式** | `BaseConfig` + 各提供商 Config | 每个提供商的转换逻辑独立封装 | | **工厂模式** | `ProviderConfigManager` | 根据模型/提供商动态创建 Config 实例(含子工厂) | | **分派模式** | `AmazonInvokeConfig`, `VertexAIPartnerModels` | 根据模型名检测子提供商并委托转换 | | **模板方法** | `BaseConfig` 抽象方法 | 定义统一的转换接口,子类实现细节 | | **门面模式** | `VertexAIPartnerModels` | 统一入口管理多种 Vertex AI 合作模型 | | **适配器模式** | `AmazonAnthropicClaudeConfig` | 通过多重继承适配不同 API(Bedrock + Anthropic) | | **装饰器模式** | `CustomStreamWrapper` | 统一包装各提供商的流式响应 | ### 6.3 转换类型分类 | 转换类型 | 复杂度 | 典型提供商 | 说明 | |----------|--------|-----------|------| | **直通型** | 低 | OpenAI, Azure, DeepSeek, Groq | 格式基本兼容,仅过滤/重命名少量参数 | | **参数重映射型** | 中 | Ollama, Cohere v1 | 参数名称变更,消息格式基本兼容 | | **深度转换型** | 高 | Anthropic, Gemini, Bedrock Converse | 消息结构完全不同,角色系统不同,工具调用格式不同 | | **分派委托型** | 高 | Bedrock Invoke, Vertex AI | 根据子提供商委托到不同的转换器 | | **直通代理型** | 极低 | Proxy 直通模式 | 仅转换 URL 和认证,请求体不变 | ### 6.4 添加新提供商的标准流程 1. 在 `litellm/llms/{provider}/chat/transformation.py` 创建 Config 类 2. 实现 `BaseConfig` 的 6 个抽象方法 3. 在 `ProviderConfigManager._build_provider_config_map()` 中注册 4. 在 `get_llm_provider()` 中添加提供商解析规则 5. 在 `tests/llm_translation/test_{provider}.py` 添加单元测试 --- ## 7. 关键目录结构图 ``` litellm/ ├── main.py # 统一入口:completion(), acompletion() (7,807行) ├── utils.py # ProviderConfigManager, 工厂方法 (9,568行) ├── types/ │ ├── llms/openai.py # OpenAI 格式类型定义 │ └── utils.py # LlmProviders 枚举 (133个), SearchProviders 枚举 (12个) ├── llms/ │ ├── base_llm/ # 抽象基类目录 (29子目录, 覆盖多种模态) │ │ ├── chat/transformation.py # ★ BaseConfig 抽象基类 (466行) │ │ ├── anthropic_messages/ # Anthropic Messages 直通基类 │ │ ├── embedding/ # Embedding 基类 │ │ ├── rerank/ # Rerank 基类 │ │ └── ... (其他模态) │ ├── custom_httpx/ │ │ ├── llm_http_handler.py # ★ BaseLLMHTTPHandler 编排器 (12,161行) │ │ └── http_handler.py # HTTP 客户端封装 │ ├── anthropic/chat/transformation.py # Anthropic 转换 (2,096行) │ ├── openai/chat/gpt_transformation.py # OpenAI 转换 (820行) │ ├── gemini/chat/transformation.py # Gemini 转换 (薄层, 154行) │ ├── vertex_ai/gemini/transformation.py # Gemini 核心转换 (941行) │ ├── vertex_ai/vertex_ai_partner_models/ # Vertex AI 合作模型门面 │ ├── bedrock/chat/ │ │ ├── converse_transformation.py # Bedrock Converse 转换 (2,129行) │ │ └── invoke_transformations/ # Bedrock Invoke (15个子提供商) │ ├── ollama/chat/transformation.py # Ollama 转换 (580行) │ ├── cohere/chat/transformation.py # Cohere 转换 (373行) │ ├── mistral/chat/transformation.py # Mistral 转换 (686行, 继承OpenAI) │ └── ... (~118 个提供商目录) ├── litellm_core_utils/ │ ├── streaming_handler.py # CustomStreamWrapper 统一流式处理 (2,418行) │ └── get_llm_provider_logic.py # 提供商解析逻辑 (958行) ├── proxy/ │ └── pass_through_endpoints/ # 直通代理模式 (含凭证管理) └── router.py # 负载均衡、故障转移 ``` --- ## 8. 总结 LiteLLM 的转换层是一个设计精良的**统一 API 网关转换引擎**,其核心优势在于: 1. **高度模块化**: 每个提供商的转换逻辑完全独立,修改一个提供商不影响其他提供商 2. **统一抽象**: 所有提供商通过 `BaseConfig` 接口统一管理,编排器不需要感知提供商差异 3. **广泛覆盖**: 支持 133 个 LLM 提供商、12 个搜索提供商,涵盖所有主流云厂商、开源模型和本地部署 4. **多协议支持**: 同时支持 OpenAI Chat Completions、Anthropic Messages (直通)、Gemini GenerateContent 等多种协议 5. **多模态支持**: 29 个 base_llm 子目录覆盖 Chat、Embedding、Rerank、Audio、OCR、Image、Video、Responses API 等模态 6. **可扩展性**: 添加新提供商只需实现一个 Config 类并注册 7. **流式兼容**: 通过 `GenericStreamingChunk` + `CustomStreamWrapper` (2,418行) 统一处理所有提供商的流式响应 8. **自修复能力**: 支持 HTTP 错误时自动重试和修复(thinking signature、请求体重构等)