• GPU インスタンス
  • クラスターエンジン
  • Application Platform
  • NVIDIA H200
  • NVIDIA GB200 NVL72
  • ソリューション
    
    GPU 計算力レンタルCluster EngineInference EngineAI 開発プラットフォーム
  • GPUs
    
    H200NVIDIA GB200 NVL72NVIDIA HGX™ B200
  • 料金プラン
  • 会社情報
    
    会社情報リソースDiscourseパートナーお問い合わせ
  • 私たちについて
  • ブログ
  • Discourse
  • パートナー
  • お問い合わせ
  • さあ、始めましょう
日本語
日本語

English
日本語
한국어
繁體中文
今すぐ利用Contact Sales

Tokenization

Get startedfeatures

Related terms

Large Language Model (LLM)
BACK TO GLOSSARY

Tokenization is the process of breaking text into smaller pieces called tokens—such as words or subwords—that a language model can understand. For example, “ChatGPT” might become “Chat” and “GPT.” These tokens are then converted into numbers the model uses to process language. Tokenization affects how much text a model can handle at once, how fast it runs, and how accurate its output is. In short, it’s the first step in helping AI read and work with language.

最新情報をメールでお届けします

GPU クラウドの即時アクセスで、
人類の AI への挑戦を加速する。

[email protected]

2860 Zanker Rd. Suite 100 San Jose, CA 95134

  • GPU 計算力レンタル
  • Cluster Engine
  • Inference Engine
  • 料金プラン
  • 用語集
  • 会社情報
  • Blog
  • パートナー
  • 採用情報
  • お問い合わせ

© 2024 無断転載を禁じます。

個人情報保護

利用規約