POST
/
agents
/
{id}
/
query

Authorizations

Authorization
string
headerrequired

Bearer authentication header of the form Bearer <token>, where <token> is your auth token.

Path Parameters

id
string
required

ID do agente

Body

application/json
query
string
required

Esta é a pergunta que você deseja fazer ao seu agente.

conversationId
string

ID da conversa (Se não for fornecido, uma nova conversa será criada)

visitorId
string

ID do participante que está enviando a pergunta (Se não for fornecido, um novo ID será criado)

temperature
number

Temperatura do modelo (mínimo 0.0, máximo 1.0)

streaming
boolean

Habilitar streaming

modelName
enum<string>

Substituir o modelo do agente

Available options:
groq,
gpt_4o,
gpt_4o_mini,
claude_3_5_sonnet,
...
maxTokens
number

O número máximo de tokens a serem gerados na conclusão do chat.

presencePenalty
number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua presença no texto até o momento, aumentando a probabilidade do modelo falar sobre novos tópicos.

frequencyPenalty
number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha literalmente.

topP
number

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Então 0.1 significa que apenas os tokens que compõem os 10% superiores da massa de probabilidade são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.

filters
object
systemPrompt
string

Prompt do sistema do agente

userPrompt
string

Prompt do usuário do agente

Response

200 - application/json
answer
string

A resposta do agente.

conversationId
string

ID da conversa

visitorId
string

ID do participante que está enviando a pergunta

sources
object[]