# Chat Completion

{% hint style="info" %}
Cadastre uma conta de serviço do tipo **Bearer Token** para realizar a conexão com o serviço de IA OpenAI.
{% endhint %}

{% tabs %}
{% tab title="Parâmetros" %}

<figure><img src="https://lh7-rt.googleusercontent.com/docsz/AD_4nXdF4qKN7hQvu3q16BtPoFfVqg2IW-qslrwoyFnlTGmG1omV2t6z6XF7xiincIwfjXBmv-p0K7upys_ITFD_kCO2JkvzFMolf0WXnZ0a7AZyb0sYXeMaFnF3UQW5Zf6AtqI233JqDw?key=yLogrgEbXy0K_a4zmB9ApgKO" alt=""><figcaption><p>Parâmetros de configuração</p></figcaption></figure>

| Campo                      | Tipo                 | Descrição                                                                                                                                                                                                                                  |
| -------------------------- | -------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
| Descrição                  | Campo de texto       | Descrição visual do conector no editor de fluxo.                                                                                                                                                                                           |
| Conta de serviço           | Seletor              | Permite selecionar contas de serviço do tipo Bearer Token para realizar a conexão com serviço de IA.                                                                                                                                       |
| Modelos                    | Seletor              | Lista os modelos disponíveis na API OpenAI. Necessário selecionar uma conta de serviço OpenAI valida.                                                                                                                                      |
| Mensagem                   | Tabela de parâmetros | Tabela de parâmetros para configuração do chat completion.                                                                                                                                                                                 |
| Role                       | Seletor              | Permite selecionar entre os papéis Sistema, IA, Usuário para processamento de mensagens pelo modelo selecionado.                                                                                                                           |
| Tipo da mensagem           | Seletor              | <p>Refere-se ao tipo da entrada de dados para processamento de modelo. Tipos disponíveis:</p><ul><li>Texto</li><li>Audio (URL ou Base64)</li><li>Imagem (URL ou Base64)</li></ul>                                                          |
| Mensagem                   | Campo de texto       | Prompt ou mensagem a ser processada pelo modelo selecionado.                                                                                                                                                                               |
| Temperatura                | Campo de texto       | Parametrização para controlar a variabilidade das respostas, com valores entre 0 e 2. Um valor mais baixo resulta em respostas mais focadas e determinísticas, enquanto valores mais altos incentivam respostas mais criativas e variadas. |
| Top-P                      | Campo de texto       | Parametrização para controlar a aleatoriedade das respostas, usado em conjunto ou em substituição a Temperatura.                                                                                                                           |
| Número máximo de de tokens | Campo de texto       | Limita o número de tokens na resposta, ajudando a controlar a quantidade de saída e os custos.                                                                                                                                             |
| Output Path                | Campo de texto       | Refere-se ao caminho do resultado do processamento pelo modelo na saída do conector                                                                                                                                                        |
| {% endtab %}               |                      |                                                                                                                                                                                                                                            |

{% tab title="Payload" %}

## Sucesso

Os resultados do processamento pelo modelo estarão disponíveis em formato de objeto JSON no caminho de saída do conector.

<figure><img src="https://lh7-rt.googleusercontent.com/docsz/AD_4nXfCKRJ0NNoCWKq1RyCSjJ4McoGKwIDLCc-0A3jSUOxeiocrRysSWZudTAHUMLdkfZl70wCjMS9hPwprvnh2KfVyzQRFVjeZyPOg-oqivXNDkgHp2zKdevs7gVO8D6ooAtUJn6VAuw?key=yLogrgEbXy0K_a4zmB9ApgKO" alt=""><figcaption><p>Sucesso na requisição para serviço de IA.</p></figcaption></figure>

## Erros

Em casos de erro no caminho de saída do conector será informado o retorno da API e um booleano error com valor true, além de um objeto JSON response com dados adicionais.

<figure><img src="https://lh7-rt.googleusercontent.com/docsz/AD_4nXe8klARdYRKOM4M6Eq_NFSnezIXZ8I2PUykSJPG_ZzmTDG5YpTeLcmg8MEuZ2rD5oh_F6XUm5EB4kA3aVM4MmHrzJX2MkYxdu2ED38U0S4psUpZ976372tsUqxHYN5-NaOZ3_urew?key=yLogrgEbXy0K_a4zmB9ApgKO" alt=""><figcaption><p>Erro na requisição para serviço de IA.</p></figcaption></figure>

## Observação

Atente-se aos modelos utilizados no contexto do fluxo. Alguns modelos podem ter respostas diferentes conforme a parametrização do conector. Teste cenários relevantes para o seu contexto para garantir respostas esperadas.
{% endtab %}
{% endtabs %}
