Chat Completion
Processa uma mensagem de chat no serviço de IA da Groq.
Descrição
Campo de texto
Descrição visual do conector no editor de fluxo.
Conta de serviço
Seletor
Permite selecionar contas de serviço do tipo Bearer Token para realizar a conexão com serviço de IA.
Modelos
Seletor
Lista os modelos disponíveis na API Groq. Necessário selecionar uma conta de serviço Groq válida.
Mensagem
Tabela de parâmetros
Tabela de parâmetros para configuração do chat completion.
Role
Seletor
Permite selecionar entre os papéis Sistema, IA, Usuário para processamento de mensagens pelo modelo selecionado.
Tipo da mensagem
Seletor
Refere-se ao tipo da entrada de dados para processamento de modelo. Tipos disponíveis:
Texto.
Imagem (URL ou Base64).
Mensagem
Campo de texto
Prompt ou mensagem a ser processada pelo modelo selecionado.
Temperatura
Campo de texto
Parametrização para controlar a variabilidade das respostas, com valores entre 0 e 2. Um valor mais baixo resulta em respostas mais focadas e determinísticas, enquanto valores mais altos incentivam respostas mais criativas e variadas.
Top-P
Campo de texto
Parametrização para controlar a aleatoriedade das respostas, usado em conjunto ou em substituição a Temperatura.
Número máximo de de tokens
Campo de texto
Limita o número de tokens na resposta, ajudando a controlar a quantidade de saída e os custos.
Output Path
Campo de texto
Refere-se ao caminho do resultado do processamento pelo modelo na saída do conector
Sucesso
Os resultados do processamento pelo modelo estarão disponíveis em formato de objeto JSON no caminho de saída do conector.
Erros
Em casos de erro no caminho de saída do conector será informado o retorno da API e um booleano error com valor true, além de um objeto JSON response com dados adicionais.
Observação
Atente-se aos modelos utilizados no contexto do fluxo. Alguns modelos podem ter respostas diferentes conforme a parametrização do conector. Teste cenários relevantes para o seu contexto para garantir respostas esperadas.
Last updated
Was this helpful?