Saltar para o conteúdo principal
POST
/
v1
/
embeddings
from openai import OpenAI

client = OpenAI(
    base_url="https://api.cometapi.com/v1",
    api_key="<COMETAPI_KEY>",
)

response = client.embeddings.create(
    model="text-embedding-3-small",
    input="The food was delicious and the waiter was friendly.",
)

print(response.data[0].embedding[:5])  # First 5 dimensions
print(f"Dimensions: {len(response.data[0].embedding)}")
{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.0021,
        -0.0491,
        0.0209,
        0.0314,
        -0.0453
      ]
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}

Visão geral

A API de Embeddings gera representações vetoriais de texto que capturam significado semântico. Esses vetores podem ser usados para busca semântica, clustering, classificação, detecção de anomalias e geração aumentada por recuperação (RAG). A CometAPI oferece suporte a modelos de embedding de vários provedores. Envie uma ou mais strings de texto e receba de volta vetores numéricos que você pode armazenar em um banco de dados vetorial ou usar diretamente em cálculos de similaridade.

Modelos disponíveis

ModelDimensionsMax TokensBest For
text-embedding-3-large3,072 (ajustável)8,191Embeddings de maior qualidade
text-embedding-3-small1,536 (ajustável)8,191Econômico e rápido
text-embedding-ada-0021,536 (fixo)8,191Compatibilidade legada
Consulte a lista de modelos para ver todos os modelos de embedding disponíveis e seus preços.

Observações importantes

Redução de dimensões — Os modelos text-embedding-3-* oferecem suporte ao parâmetro dimensions, permitindo encurtar o vetor de embedding sem perda significativa de precisão. Isso pode reduzir os custos de armazenamento em até 75%, mantendo a maior parte das informações semânticas.
Entrada em lote — Você pode gerar embeddings para vários textos em uma única solicitação passando um array de strings para o parâmetro input. Isso é significativamente mais eficiente do que fazer solicitações individuais para cada texto.

Autorizações

Authorization
string
header
obrigatório

Bearer token authentication. Use your CometAPI key.

Corpo

application/json
model
string
obrigatório

The embedding model to use. See the Models page for current embedding model IDs.

Exemplo:

"text-embedding-3-small"

input
obrigatório

The text to embed. Can be a single string, an array of strings, or an array of token arrays. Each input must not exceed the model's maximum token limit (8,191 tokens for text-embedding-3-* models).

encoding_format
enum<string>
padrão:float

The format of the returned embedding vectors. float returns an array of floating-point numbers. base64 returns a base64-encoded string representation, which can reduce response size for large batches.

Opções disponíveis:
float,
base64
dimensions
integer

The number of dimensions for the output embedding vector. Only supported by text-embedding-3-* models. Reducing dimensions can lower storage costs while maintaining most of the embedding's utility.

Intervalo necessário: x >= 1
user
string

A unique identifier for your end-user, which can help monitor and detect abuse.

Resposta

200 - application/json

A list of embedding vectors for the input text(s).

object
enum<string>

The object type, always list.

Opções disponíveis:
list
Exemplo:

"list"

data
object[]

An array of embedding objects, one per input text. When multiple inputs are provided, results are returned in the same order as the input.

model
string

The model used to generate the embeddings.

Exemplo:

"text-embedding-3-small"

usage
object

Token usage statistics for this request.