Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.velesagent.com/llms.txt

Use this file to discover all available pages before exploring further.

Провайдеры и модели

Велес может работать с разными провайдерами моделей. Модель задаётся в agents.defaults.model, а провайдер выбирается явно через agents.defaults.provider или автоматически по имени модели и настройкам.

Поддерживаемые типы

ТипПримерыКогда использовать
API-провайдерыopenai, anthropic, deepseek, minimax, geminiПрямой доступ к конкретному провайдеру
Провайдеры-шлюзыopenrouter, aihubmixОдин ключ для многих моделей
Локальныеollama, vllm, customМодель на своей машине или сервере
OAuthopenai_codex, github_copilotВход через аккаунт, без API-ключа в config

Автовыбор провайдера

По умолчанию:
{
  "agents": {
    "defaults": {
      "provider": "auto"
    }
  }
}
Велес смотрит на префикс модели, ключевые слова и заполненные provider-блоки. Явный префикс выигрывает: например openrouter/... выбирает OpenRouter, а openai-codex/... выбирает Codex. Если хотите убрать неоднозначность, задайте провайдера явно:
{
  "agents": {
    "defaults": {
      "provider": "ollama",
      "model": "llama3.2"
    }
  }
}

API-провайдер

{
  "providers": {
    "anthropic": {
      "apiKey": "sk-ant-..."
    }
  },
  "agents": {
    "defaults": {
      "model": "anthropic/claude-sonnet-4-6"
    }
  }
}
Некоторые провайдеры требуют apiBase, если вы используете региональный адрес API или совместимый шлюз.

OpenRouter

OpenRouter удобен как универсальный шлюз:
{
  "providers": {
    "openrouter": {
      "apiKey": "sk-or-..."
    }
  },
  "agents": {
    "defaults": {
      "model": "openrouter/openai/gpt-5.4"
    }
  }
}

Собственный OpenAI-совместимый адрес API

Используйте custom, если у вас свой OpenAI-совместимый адрес API.
{
  "providers": {
    "custom": {
      "apiKey": "no-key",
      "apiBase": "https://api.example.com/v1"
    }
  },
  "agents": {
    "defaults": {
      "provider": "custom",
      "model": "my-model"
    }
  }
}
Для локального адреса API без ключа задайте любое непустое значение apiKey, например no-key.

Ollama

ollama run llama3.2
{
  "providers": {
    "ollama": {
      "apiBase": "http://localhost:11434"
    }
  },
  "agents": {
    "defaults": {
      "provider": "ollama",
      "model": "llama3.2"
    }
  }
}

vLLM

vllm serve meta-llama/Llama-3.1-8B-Instruct --port 8000
{
  "providers": {
    "vllm": {
      "apiKey": "dummy",
      "apiBase": "http://localhost:8000/v1"
    }
  },
  "agents": {
    "defaults": {
      "provider": "vllm",
      "model": "meta-llama/Llama-3.1-8B-Instruct"
    }
  }
}

OpenAI Codex OAuth

Codex использует OAuth. Обычный providers.openaiCodex.apiKey не нужен.
nanobot provider login openai-codex
{
  "agents": {
    "defaults": {
      "model": "openai-codex/gpt-5.1-codex"
    }
  }
}
Если настроен NANOBOT_SECRETS_MASTER_KEY, OAuth-токены сохраняются в зашифрованном хранилище профилей.

GitHub Copilot OAuth

nanobot provider login github-copilot
{
  "agents": {
    "defaults": {
      "model": "github-copilot/gpt-4.1"
    }
  }
}

Список моделей в интерфейсе Велеса

Интерфейс Велеса показывает каталог моделей из agents.defaults.models и модель по умолчанию.
{
  "agents": {
    "defaults": {
      "model": "openrouter/openai/gpt-5.4",
      "models": [
        { "id": "openrouter/openai/gpt-5.4", "label": "GPT 5.4" },
        { "id": "openrouter/anthropic/claude-sonnet-4-6", "label": "Claude Sonnet" },
        "openrouter/google/gemini-2.5-pro"
      ]
    }
  }
}
Можно использовать строки, объекты { "id": "...", "label": "..." } или словарь, где ключ — идентификатор модели, а значение — подпись.

Практические советы

  • Для интерфейса Велеса заранее задавайте models, чтобы пользователь не вводил идентификатор вручную.
  • Для локальных моделей задавайте provider явно.
  • Для провайдеров-шлюзов используйте префикс в model, чтобы не было неоднозначности.
  • Не храните новые ключи plaintext в config.json; используйте секреты.