Passer au contenu principal
POST
/
v1
/
embeddings
from openai import OpenAI client = OpenAI( base_url="https://api.cometapi.com/v1", api_key="<COMETAPI_KEY>", ) response = client.embeddings.create( model="text-embedding-3-small", input="The food was delicious and the waiter was friendly.", ) print(response.data[0].embedding[:5]) # First 5 dimensions print(f"Dimensions: {len(response.data[0].embedding)}")
{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.0021,
        -0.0491,
        0.0209,
        0.0314,
        -0.0453
      ]
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}

Vue d’ensemble

L’API Embeddings génère des représentations vectorielles de texte qui capturent le sens sémantique. Ces vecteurs peuvent être utilisés pour la recherche sémantique, le clustering, la classification, la détection d’anomalies et la génération augmentée par récupération (RAG). CometAPI prend en charge des modèles d’embedding de plusieurs fournisseurs. Transmettez une ou plusieurs chaînes de texte et recevez en retour des vecteurs numériques que vous pouvez stocker dans une base de données vectorielle ou utiliser directement pour des calculs de similarité.

Modèles disponibles

ModelDimensionsMax TokensBest For
text-embedding-3-large3,072 (ajustables)8,191Embeddings de la plus haute qualité
text-embedding-3-small1,536 (ajustables)8,191Économique, rapide
text-embedding-ada-0021,536 (fixes)8,191Compatibilité avec les anciens systèmes
Consultez la liste des modèles pour voir tous les modèles d’embedding disponibles et leur tarification.

Remarques importantes

Réduction des dimensions — Les modèles text-embedding-3-* prennent en charge le paramètre dimensions, ce qui vous permet de raccourcir le vecteur d’embedding sans perte significative de précision. Cela peut réduire les coûts de stockage jusqu’à 75 % tout en conservant l’essentiel des informations sémantiques.
Entrée par lot — Vous pouvez générer des embeddings pour plusieurs textes dans une seule requête en transmettant un tableau de chaînes au paramètre input. C’est nettement plus efficace que d’effectuer des requêtes individuelles pour chaque texte.

Autorisations

Authorization
string
header
requis

Bearer token authentication. Use your CometAPI key.

Corps

application/json
model
string
requis

The embedding model to use. See the Models page for current embedding model IDs.

Exemple:

"text-embedding-3-small"

input
requis

The text to embed. Can be a single string, an array of strings, or an array of token arrays. Each input must not exceed the model's maximum token limit (8,191 tokens for text-embedding-3-* models).

encoding_format
enum<string>
défaut:float

The format of the returned embedding vectors. float returns an array of floating-point numbers. base64 returns a base64-encoded string representation, which can reduce response size for large batches.

Options disponibles:
float,
base64
dimensions
integer

The number of dimensions for the output embedding vector. Only supported by text-embedding-3-* models. Reducing dimensions can lower storage costs while maintaining most of the embedding's utility.

Plage requise: x >= 1
user
string

A unique identifier for your end-user, which can help monitor and detect abuse.

Réponse

200 - application/json

A list of embedding vectors for the input text(s).

object
enum<string>

The object type, always list.

Options disponibles:
list
Exemple:

"list"

data
object[]

An array of embedding objects, one per input text. When multiple inputs are provided, results are returned in the same order as the input.

model
string

The model used to generate the embeddings.

Exemple:

"text-embedding-3-small"

usage
object

Token usage statistics for this request.