文档
Documentação em Português
Provedores

Provedores

OpenCode suporta mais de 75 provedores de LLM através do AI SDK e Models.dev, permitindo integração com numerosos serviços de modelos de linguagem e modelos locais.

Processo de Configuração

  1. Adicione chaves API usando o comando /connect
  2. Configure o provedor na sua configuração do OpenCode
  3. Credenciais são armazenadas em ~/.local/share/opencode/auth.json

Configuração de URL Base

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen é uma lista de modelos fornecidos pela equipe do OpenCode que foram testados e verificados para funcionar bem.

  1. Execute /connect, selecione opencode
  2. Visite opencode.ai/auth para autenticar
  3. Copie e cole sua chave API
  4. Use /models para ver os modelos recomendados

Provedores Populares

Anthropic

  1. Execute /connect e selecione Anthropic
  2. Escolha Claude Pro/Max para autenticação do navegador
  3. Acesse modelos via comando /models

OpenAI

  1. Crie uma chave API em platform.openai.com/api-keys
  2. Execute /connect e pesquise OpenAI
  3. Insira a chave API
  4. Selecione o modelo com /models

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (Local)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (Local)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

Azure OpenAI

  1. Crie um recurso Azure OpenAI no portal Azure
  2. Implante o modelo no Azure AI Foundry
  3. Execute /connect e pesquise Azure
  4. Defina a variável de ambiente AZURE_RESOURCE_NAME

Configuração de Provedor Personalizado

Para provedores compatíveis com OpenAI:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

Solução de Problemas

  1. Verificar autenticação: Execute opencode auth list para verificar credenciais
  2. Problemas com provedores personalizados:
    • Verifique se o ID do provedor corresponde entre /connect e configuração
    • Confirme o pacote npm correto
    • Verifique o endpoint API em options.baseURL