A ferramenta Rinha de Bot do Embrapa I/O está disponível em:
Trata-se de uma aplicação web para execução de testes cegos em agentes de IA (comumente chamados de chatbots). Por meio dela, é possível criar “torneios” entre dois agentes, que estarão conectados via Webhook ou por uma API OpenAI-Compatible.
Para criar um torneio, acesse o console da ferramenta e vá em “Criar Torneio”. Preencha o “Título do Torneio” e a “Mensagem de Boas-Vindas”, que são dados que estarão sempre visíveis aos avaliadores.
Em seguida, é preciso definir pelo menos um “Domínio de Conhecimento”, que são as áreas em que o agente foi treinado e portanto em que será testado. Por exemplo, no caso se trate de um agente de IA para a pecuária, domínios possíveis seriam: Gado de Corte, ILPF, IPF e ILP. Caso se trate de um agente para atender a processos gerenciais/institucionais, domínios possíveis seriam: RH, Orçamento, Patrimônio e Financeiro.
Após inserir as informações básicas do torneio, o usuário deverá configurar os agentes A e B. No primeiro campo, “Nome/Label do Agente”, deverá ser definido um identificador que permita posteriormente reconhecer qual o agente de teste e qual o de controle.
Para cada agente, o usuário deverá então escolher o “Tipo de Integração”, que poderá ser de duas formas:
Via Webhook
Esta é a melhor forma de integrar agentes que tenham sido desenvolvidos no N8N. Basta integrar ao fluxo do seu agente um nó do tipo webhook, conforme a imagem abaixo:
Considere aos itens referenciados acima:
- Na configuração do agente, você deverá inserir no campo “URL do Webhook” a URL gerada pelo N8N;
- O “HTTP Method” no nó Webhook do N8N deverá ser
POST
; - Para os testes, será enviado ao N8N um JSON no formato abaixo. Repare que o prompt a ser passado para a LLM no N8N está em
$json.body.prompt
e existe um atributo$json.body.session
que pode ser utilizado junto aos nós de memória. - Por fim, deverá ser utilizado um nó “Respond to Webhook” para capturar a saída, com a opção de responder no formato texto.
{
"prompt": "<SYSTEM>\nVocê é um especialista em pecuária de corte.\n</SYSTEM>\n\n<USER>\nQual a melhor cultivar para criação de bezerros no Pantanal?\n</USER>",
"timestamp": "2025-09-25T21:39:27.222Z",
"source": "arena.embrapa.io",
"session": "68d5b68f0590ec7e08f10024"
}
No JSON acima, o atributo prompt está separado em duas tags: <SYSTEM></SYSTEM>
e <USER></USER>
. Isto ocorre quando é configurado para o agente um “System Prompt”, conforme imagem abaixo:
Por fim, é possível configurar um token de autenticação, que será passado pelo header (Authorization: Bearer [token]
).
Via API OpenAI Compatible
Esta opção é ideal para conectar provedores em nuvem de terceiros ou LLM Runtimes como o Ollama.