Saltar al contenido principal
Los embeddings convierten texto en vectores de alta dimensión. Úsalos para búsqueda semántica, agrupación (clustering) o cálculo de similitud sobre tus propios datos.

Requisitos previos

  • Un token de API. Ver Gestión de tokens.
  • El nombre de host de Zylon (sustituye {BASE_URL} en los ejemplos).

Antes de empezar

  • El orden importa: data[index] coincide con el orden de input.
  • Guarda los vectores en tu base de datos o índice vectorial para búsqueda y similitud.
  • Usa el mismo preprocesamiento (mismo formato y uso de mayúsculas/minúsculas) para resultados consistentes.

Crear embeddings

Genera embeddings con POST /embeddings. input puede ser una cadena o una lista.
Forma de inputCuándo usar
Una sola cadenaUn texto a la vez.
Lista de cadenasEntradas en lote manteniendo el orden.
curl -X POST "https://{BASE_URL}/api/gpt/v1/embeddings" \
  -H "Authorization: Bearer {API_TOKEN}" \
  -H "Content-Type: application/json" \
  -d '{
    "input": "Summarize Q1 support trends in one vector."
  }'
{
  "object": "list",
  "model": "private-gpt",
  "data": [
    {
      "index": 0,
      "object": "embedding",
      "embedding": [
        0.697265625,
        0.5078125,
        0.01129150390625,
        0.244873046875,
        -0.285888671875,
        0.058135986328125,
        0.01922607421875,
        -0.11431884765625
      ]
    }
  ]
}

Errores y casos límite

  • 401/403: token faltante o inválido.
  • 413: input demasiado grande.
  • 400: JSON inválido o tipo de input incorrecto.