API em FastAPI para gestão e orquestração de agentes de IA usando LangGraph (stub) com CRUD de prompts e agentes, execução de workflows e integrações com PostgreSQL e Redis.
- Copie variáveis
cp .env.example .env- Suba os serviços
docker-compose up -d --build- Acesse
- Docs: http://localhost:8000/docs
- Health: http://localhost:8000/health
- Prompts:
POST/GET/PATCH/DELETE /api/v1/prompts - Agentes:
POST/GET/PATCH/DELETE /api/v1/agents - Execuções:
POST /api/v1/executions
- OpenAI é opcional. Sem
OPENAI_API_KEY, a orquestração retorna respostas stub. - Banco e Redis são obrigatórios (via Docker Compose).
Você pode usar DeepSeek como provedor alternativo de LLM.
- Adicione as chaves no
.env:
DEEPSEEK_API_KEY=seu_token
DEEPSEEK_BASE_URL=https://api.deepseek.com
LLM_PROVIDER_PREFERENCE=deepseek # ou 'auto' para tentar OpenAI e depois DeepSeek
WORKFLOW_MODE=hybrid # workflow | llm | hybrid
- Ajuste
modeldos agentes para o nome de modelo aceito pelo DeepSeek. - Se
LLM_PROVIDER_PREFERENCE=auto, a ordem de tentativa é: OpenAI (se chave) → DeepSeek (se chave) → stub.
workflow: executa apenas o grafo (sem chamada a LLM) – útil para testes baratos.llm: ignora o grafo e chama diretamente o provedor (OpenAI/DeepSeek).hybrid: executa o grafo primeiro e envia o resumo ao LLM para refinamento final.
Para garantir resposta real do DeepSeek, use:
LLM_PROVIDER_PREFERENCE=deepseek
WORKFLOW_MODE=llm
Ou para combinar raciocínio + refinamento:
LLM_PROVIDER_PREFERENCE=deepseek
WORKFLOW_MODE=hybrid