Vai al contenuto principale
POST
/
v1
/
embeddings
from openai import OpenAI

client = OpenAI(
    base_url="https://api.cometapi.com/v1",
    api_key="<COMETAPI_KEY>",
)

response = client.embeddings.create(
    model="text-embedding-3-small",
    input="The food was delicious and the waiter was friendly.",
)

print(response.data[0].embedding[:5])  # First 5 dimensions
print(f"Dimensions: {len(response.data[0].embedding)}")
{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.0021,
        -0.0491,
        0.0209,
        0.0314,
        -0.0453
      ]
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}

Panoramica

L’API Embeddings genera rappresentazioni vettoriali del testo che catturano il significato semantico. Questi vettori possono essere usati per ricerca semantica, clustering, classificazione, rilevamento di anomalie e retrieval-augmented generation (RAG). CometAPI supporta modelli di embedding di più provider. Passa una o più stringhe di testo e ricevi in risposta vettori numerici che puoi archiviare in un database vettoriale o usare direttamente per i calcoli di similarità.

Modelli disponibili

ModelDimensionsMax TokensBest For
text-embedding-3-large3,072 (regolabili)8,191Embeddings della massima qualità
text-embedding-3-small1,536 (regolabili)8,191Conveniente e veloce
text-embedding-ada-0021,536 (fisse)8,191Compatibilità legacy
Consulta l’elenco dei modelli per tutti i modelli di embedding disponibili e i prezzi.

Note importanti

Riduzione delle dimensioni — I modelli text-embedding-3-* supportano il parametro dimensions, consentendoti di ridurre il vettore di embedding senza una perdita significativa di accuratezza. Questo può ridurre i costi di archiviazione fino al 75% mantenendo la maggior parte delle informazioni semantiche.
Input batch — Puoi creare embedding per più testi in una singola richiesta passando un array di stringhe al parametro input. Questo è significativamente più efficiente che effettuare richieste individuali per ogni testo.

Autorizzazioni

Authorization
string
header
obbligatorio

Bearer token authentication. Use your CometAPI key.

Corpo

application/json
model
string
obbligatorio

The embedding model to use. See the Models page for current embedding model IDs.

Esempio:

"text-embedding-3-small"

input
obbligatorio

The text to embed. Can be a single string, an array of strings, or an array of token arrays. Each input must not exceed the model's maximum token limit (8,191 tokens for text-embedding-3-* models).

encoding_format
enum<string>
predefinito:float

The format of the returned embedding vectors. float returns an array of floating-point numbers. base64 returns a base64-encoded string representation, which can reduce response size for large batches.

Opzioni disponibili:
float,
base64
dimensions
integer

The number of dimensions for the output embedding vector. Only supported by text-embedding-3-* models. Reducing dimensions can lower storage costs while maintaining most of the embedding's utility.

Intervallo richiesto: x >= 1
user
string

A unique identifier for your end-user, which can help monitor and detect abuse.

Risposta

200 - application/json

A list of embedding vectors for the input text(s).

object
enum<string>

The object type, always list.

Opzioni disponibili:
list
Esempio:

"list"

data
object[]

An array of embedding objects, one per input text. When multiple inputs are provided, results are returned in the same order as the input.

model
string

The model used to generate the embeddings.

Esempio:

"text-embedding-3-small"

usage
object

Token usage statistics for this request.