Skip to content

natanungethuem/ark-space

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

🤖 Agent Management Platform

API em FastAPI para gestão e orquestração de agentes de IA usando LangGraph (stub) com CRUD de prompts e agentes, execução de workflows e integrações com PostgreSQL e Redis.

Rodando com Docker

  1. Copie variáveis
cp .env.example .env
  1. Suba os serviços
docker-compose up -d --build
  1. Acesse

Endpoints chave

  • Prompts: POST/GET/PATCH/DELETE /api/v1/prompts
  • Agentes: POST/GET/PATCH/DELETE /api/v1/agents
  • Execuções: POST /api/v1/executions

Observações

  • OpenAI é opcional. Sem OPENAI_API_KEY, a orquestração retorna respostas stub.
  • Banco e Redis são obrigatórios (via Docker Compose).

Configurando DeepSeek

Você pode usar DeepSeek como provedor alternativo de LLM.

  1. Adicione as chaves no .env:
DEEPSEEK_API_KEY=seu_token
DEEPSEEK_BASE_URL=https://api.deepseek.com
LLM_PROVIDER_PREFERENCE=deepseek   # ou 'auto' para tentar OpenAI e depois DeepSeek
WORKFLOW_MODE=hybrid               # workflow | llm | hybrid
  1. Ajuste model dos agentes para o nome de modelo aceito pelo DeepSeek.
  2. Se LLM_PROVIDER_PREFERENCE=auto, a ordem de tentativa é: OpenAI (se chave) → DeepSeek (se chave) → stub.

Modo de Execução (WORKFLOW_MODE)

  • workflow: executa apenas o grafo (sem chamada a LLM) – útil para testes baratos.
  • llm: ignora o grafo e chama diretamente o provedor (OpenAI/DeepSeek).
  • hybrid: executa o grafo primeiro e envia o resumo ao LLM para refinamento final.

Para garantir resposta real do DeepSeek, use:

LLM_PROVIDER_PREFERENCE=deepseek
WORKFLOW_MODE=llm

Ou para combinar raciocínio + refinamento:

LLM_PROVIDER_PREFERENCE=deepseek
WORKFLOW_MODE=hybrid

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors