Saltar al contenido principal
POST
/
v1
/
embeddings
from openai import OpenAI

client = OpenAI(
    base_url="https://api.cometapi.com/v1",
    api_key="<COMETAPI_KEY>",
)

response = client.embeddings.create(
    model="text-embedding-3-small",
    input="The food was delicious and the waiter was friendly.",
)

print(response.data[0].embedding[:5])  # First 5 dimensions
print(f"Dimensions: {len(response.data[0].embedding)}")
{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.0021,
        -0.0491,
        0.0209,
        0.0314,
        -0.0453
      ]
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}

Descripción general

La API de Embeddings genera representaciones vectoriales de texto que capturan el significado semántico. Estos vectores pueden usarse para búsqueda semántica, clustering, clasificación, detección de anomalías y generación aumentada por recuperación (RAG). CometAPI admite modelos de embeddings de múltiples proveedores. Pasa una o más cadenas de texto y recibe de vuelta vectores numéricos que puedes almacenar en una base de datos vectorial o usar directamente para cálculos de similitud.

Modelos disponibles

ModelDimensionsMax TokensBest For
text-embedding-3-large3,072 (adjustable)8,191Embeddings de mayor calidad
text-embedding-3-small1,536 (adjustable)8,191Rentable y rápido
text-embedding-ada-0021,536 (fixed)8,191Compatibilidad heredada
Consulta la lista de modelos para ver todos los modelos de embeddings disponibles y sus precios.

Notas importantes

Reducción de dimensiones — Los modelos text-embedding-3-* admiten el parámetro dimensions, lo que te permite acortar el vector de embedding sin una pérdida significativa de precisión. Esto puede reducir los costos de almacenamiento hasta en un 75% mientras conserva la mayor parte de la información semántica.
Entrada por lotes — Puedes generar embeddings para varios textos en una sola solicitud pasando un array de cadenas al parámetro input. Esto es significativamente más eficiente que hacer solicitudes individuales para cada texto.

Autorizaciones

Authorization
string
header
requerido

Bearer token authentication. Use your CometAPI key.

Cuerpo

application/json
model
string
requerido

The embedding model to use. See the Models page for current embedding model IDs.

Ejemplo:

"text-embedding-3-small"

input
requerido

The text to embed. Can be a single string, an array of strings, or an array of token arrays. Each input must not exceed the model's maximum token limit (8,191 tokens for text-embedding-3-* models).

encoding_format
enum<string>
predeterminado:float

The format of the returned embedding vectors. float returns an array of floating-point numbers. base64 returns a base64-encoded string representation, which can reduce response size for large batches.

Opciones disponibles:
float,
base64
dimensions
integer

The number of dimensions for the output embedding vector. Only supported by text-embedding-3-* models. Reducing dimensions can lower storage costs while maintaining most of the embedding's utility.

Rango requerido: x >= 1
user
string

A unique identifier for your end-user, which can help monitor and detect abuse.

Respuesta

200 - application/json

A list of embedding vectors for the input text(s).

object
enum<string>

The object type, always list.

Opciones disponibles:
list
Ejemplo:

"list"

data
object[]

An array of embedding objects, one per input text. When multiple inputs are provided, results are returned in the same order as the input.

model
string

The model used to generate the embeddings.

Ejemplo:

"text-embedding-3-small"

usage
object

Token usage statistics for this request.