POST
/
agents
/
{id}
/
query
curl --request POST \
  --url https://dash.superagentes.ai/api/agents/{id}/query \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '{
  "query": "<string>",
  "conversationId": "<string>",
  "visitorId": "<string>",
  "temperature": 123,
  "streaming": true,
  "modelName": "groq",
  "maxTokens": 123,
  "presencePenalty": 123,
  "frequencyPenalty": 123,
  "topP": 123,
  "filters": {
    "custom_ids": [
      "<string>"
    ],
    "datasource_ids": [
      "<string>"
    ]
  },
  "systemPrompt": "<string>",
  "userPrompt": "<string>"
}'
{
  "answer": "<string>",
  "conversationId": "<string>",
  "visitorId": "<string>",
  "sources": [
    {}
  ]
}

Authorizations

Authorization
string
header
required

Bearer authentication header of the form Bearer <token>, where <token> is your auth token.

Path Parameters

id
string
required

ID do agente

Body

application/json
query
string
required

Esta é a pergunta que você deseja fazer ao seu agente.

conversationId
string

ID da conversa (Se não for fornecido, uma nova conversa será criada)

visitorId
string

ID do participante que está enviando a pergunta (Se não for fornecido, um novo ID será criado)

temperature
number

Temperatura do modelo (mínimo 0.0, máximo 1.0)

streaming
boolean

Habilitar streaming

modelName
enum<string>

Substituir o modelo do agente

Available options:
groq,
gpt_4o,
gpt_4o_mini,
claude_3_5_sonnet,
...
maxTokens
number

O número máximo de tokens a serem gerados na conclusão do chat.

presencePenalty
number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua presença no texto até o momento, aumentando a probabilidade do modelo falar sobre novos tópicos.

frequencyPenalty
number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha literalmente.

topP
number

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Então 0.1 significa que apenas os tokens que compõem os 10% superiores da massa de probabilidade são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.

filters
object
systemPrompt
string

Prompt do sistema do agente

userPrompt
string

Prompt do usuário do agente

Response

200
application/json
Sucesso
answer
string

A resposta do agente.

conversationId
string

ID da conversa

visitorId
string

ID do participante que está enviando a pergunta

sources
object[]

Fragmentos de Fonte de Conteúdo que foram usados para gerar a resposta