Token カウンター

GPT-4・Claude・Llama モデルの Token 数を即座にカウントします。AI API のコスト管理とコンテキスト制限の把握に不可欠なツールです。

0 文字0 単語0 0
GPT-4 / GPT-4o0
使用中のコンテキスト: 0.0%コンテキスト上限: 128,000
GPT-3.5 Turbo0
使用中のコンテキスト: 0.0%コンテキスト上限: 16,385
Claude 3.5 / 40
使用中のコンテキスト: 0.0%コンテキスト上限: 200,000
Llama 30
使用中のコンテキスト: 0.0%コンテキスト上限: 128,000

Token 数は BPE 近似に基づく推定値です。実際の数値はモデルバージョンによって若干異なる場合があります。

Token カウントについて

主要な LLM API 向けの高速クライアントサイド Token 推定ツールです。データはいかなるサーバーにも送信されません。

なぜ Token を数えるのか?

LLM API は Token 単位で課金し、コンテキストウィンドウの制限を設けています。リクエスト送信前に Token 数を把握することで、プロンプトの最適化・テキストの切り捨て防止・コスト管理に役立ちます。

主な機能

  • マルチモデル対応:GPT-4・GPT-3.5・Claude・Llama の Token 数を同時に推定。
  • リアルタイムカウント:入力と同時に Token 数が即座に更新。
  • コンテキストバー:各モデルのコンテキストウィンドウの使用量を視覚的に表示するプログレスバー。
  • ファイルインポート:.txt・.md・.json またはコードファイルを直接読み込んでバッチカウントが可能。

使い方

  1. プロンプトまたはテキストを入力エリアに貼り付けます。
  2. 各モデルの推定 Token 数をリアルタイムで確認します。
  3. コンテキストバーを使用して、テキストがモデルのコンテキスト制限内に収まっているか確認します。