Contador de Tokens

Cuenta tokens para los modelos GPT-4, Claude y Llama al instante. Esencial para gestionar los costes de la API de IA y los límites de contexto.

0 caracteres0 palabras0 líneas0 oraciones
GPT-4 / GPT-4o0
Contexto usado: 0.0%Límite de contexto: 128,000
GPT-3.5 Turbo0
Contexto usado: 0.0%Límite de contexto: 16,385
Claude 3.5 / 40
Contexto usado: 0.0%Límite de contexto: 200,000
Llama 30
Contexto usado: 0.0%Límite de contexto: 128,000

Los recuentos de tokens son estimaciones basadas en aproximación BPE. Los valores reales pueden variar ligeramente según la versión del modelo.

Acerca del Conteo de Tokens

Un estimador de tokens rápido en el cliente para las APIs de LLM más populares. No se envía ningún dato a ningún servidor.

¿Por qué contar tokens?

Las APIs de LLM cobran por token y aplican límites de ventana de contexto. Conocer tu recuento de tokens antes de enviar una solicitud te ayuda a optimizar los prompts, evitar truncamientos y controlar los costes.

Características Clave

  • Soporte multimodelo: estima tokens para GPT-4, GPT-3.5, Claude y Llama simultáneamente.
  • Conteo en tiempo real: el recuento de tokens se actualiza al instante mientras escribes.
  • Barra de contexto: barra de progreso visual que muestra cuánto de la ventana de contexto de cada modelo se está usando.
  • Importación de archivos: carga directamente archivos .txt, .md, .json o de código para conteo por lotes.

Cómo Usar

  1. Pega tu prompt o texto en el área de entrada.
  2. Consulta el recuento estimado de tokens para cada modelo en tiempo real.
  3. Usa la barra de contexto para asegurarte de que tu texto cabe dentro del límite de contexto del modelo.