Zum Hauptinhalt springen
POST
/
v1
/
embeddings
from openai import OpenAI

client = OpenAI(
    base_url="https://api.cometapi.com/v1",
    api_key="<COMETAPI_KEY>",
)

response = client.embeddings.create(
    model="text-embedding-3-small",
    input="The food was delicious and the waiter was friendly.",
)

print(response.data[0].embedding[:5])  # First 5 dimensions
print(f"Dimensions: {len(response.data[0].embedding)}")
{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.0021,
        -0.0491,
        0.0209,
        0.0314,
        -0.0453
      ]
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}

Überblick

Die Embeddings API erzeugt Vektordarstellungen von Text, die semantische Bedeutung erfassen. Diese Vektoren können für semantische Suche, Clustering, Klassifizierung, Anomalieerkennung und Retrieval-Augmented Generation (RAG) verwendet werden. CometAPI unterstützt Embedding-Modelle von mehreren Anbietern. Übergeben Sie einen oder mehrere Text-Strings und erhalten Sie numerische Vektoren zurück, die Sie in einer Vektordatenbank speichern oder direkt für Ähnlichkeitsberechnungen verwenden können.

Verfügbare Modelle

ModelDimensionsMax TokensBest For
text-embedding-3-large3,072 (anpassbar)8,191Embeddings mit höchster Qualität
text-embedding-3-small1,536 (anpassbar)8,191Kosteneffizient, schnell
text-embedding-ada-0021,536 (fest)8,191Legacy-Kompatibilität
Siehe die Modellliste für alle verfügbaren Embedding-Modelle und Preise.

Wichtige Hinweise

Reducing Dimensions — Die text-embedding-3-*-Modelle unterstützen den Parameter dimensions, mit dem Sie den Embedding-Vektor verkürzen können, ohne nennenswerte Genauigkeitseinbußen. Dadurch lassen sich die Speicherkosten um bis zu 75 % senken, während der Großteil der semantischen Information erhalten bleibt.
Batch Input — Sie können mehrere Texte in einer einzelnen Anfrage einbetten, indem Sie ein Array von Strings an den Parameter input übergeben. Das ist deutlich effizienter, als für jeden Text einzelne Anfragen zu senden.

Autorisierungen

Authorization
string
header
erforderlich

Bearer token authentication. Use your CometAPI key.

Body

application/json
model
string
erforderlich

The embedding model to use. See the Models page for current embedding model IDs.

Beispiel:

"text-embedding-3-small"

input
erforderlich

The text to embed. Can be a single string, an array of strings, or an array of token arrays. Each input must not exceed the model's maximum token limit (8,191 tokens for text-embedding-3-* models).

encoding_format
enum<string>
Standard:float

The format of the returned embedding vectors. float returns an array of floating-point numbers. base64 returns a base64-encoded string representation, which can reduce response size for large batches.

Verfügbare Optionen:
float,
base64
dimensions
integer

The number of dimensions for the output embedding vector. Only supported by text-embedding-3-* models. Reducing dimensions can lower storage costs while maintaining most of the embedding's utility.

Erforderlicher Bereich: x >= 1
user
string

A unique identifier for your end-user, which can help monitor and detect abuse.

Antwort

200 - application/json

A list of embedding vectors for the input text(s).

object
enum<string>

The object type, always list.

Verfügbare Optionen:
list
Beispiel:

"list"

data
object[]

An array of embedding objects, one per input text. When multiple inputs are provided, results are returned in the same order as the input.

model
string

The model used to generate the embeddings.

Beispiel:

"text-embedding-3-small"

usage
object

Token usage statistics for this request.