ChatGPT 出力の文字数制御テクニック

ChatGPT をはじめとする大規模言語モデル (LLM) は、文章生成の強力なツールとして広く活用されています。しかし、「500 文字で要約して」と指示しても正確に 500 文字にはならない、出力が途中で切れてしまう、といった文字数に関する悩みを抱えるユーザーは少なくありません。本記事では、ChatGPT の出力文字数を効果的に制御するためのプロンプト設計テクニック、トークンと文字数の関係、そして各モデルの出力上限について詳しく解説します。

トークンと文字数の関係

ChatGPT の出力制限を理解するには、まず「トークン」の概念を把握する必要があります。LLM は文字数ではなくトークン数で入出力を管理しています。

言語1 トークンあたりの文字数1,000 文字あたりのトークン数備考
日本語 (ひらがな)約 0.5〜1 文字約 1,000〜2,000 トークンひらがなは効率が低い
日本語 (漢字混じり)約 0.7〜1.5 文字約 700〜1,400 トークン漢字は比較的効率的
英語約 4〜5 文字約 200〜250 トークン英語は最も効率的
中国語約 0.5〜1.5 文字約 700〜2,000 トークン日本語と同程度
韓国語約 0.5〜1 文字約 1,000〜2,000 トークンハングルは効率が低い

日本語は英語に比べてトークン効率が低いため、同じトークン数でも生成できる文字数が少なくなります。日本語 1,000 文字は約 700〜1,400 トークンに相当し、英語の 3〜5 倍のトークンを消費します。この差は API の利用コストにも直結するため、日本語での利用時はトークン消費量を意識することが重要です。

主要 LLM モデルの出力上限比較

各モデルの出力トークン上限と、日本語に換算した場合の概算文字数を比較します。

モデル最大出力トークン日本語換算 (概算)コンテキストウィンドウ
GPT-4o16,384 トークン約 8,000〜16,000 文字128K トークン
GPT-4 Turbo4,096 トークン約 2,000〜4,000 文字128K トークン
GPT-3.5 Turbo4,096 トークン約 2,000〜4,000 文字16K トークン
Claude 3.5 Sonnet8,192 トークン約 4,000〜8,000 文字200K トークン
Gemini 1.5 Pro8,192 トークン約 4,000〜8,000 文字1M トークン
Amazon Nova Lite5,120 トークン約 2,500〜5,000 文字300K トークン

出力トークン上限を超えると、文章が途中で切れる「トランケーション」が発生します。長文を生成する場合は、複数回に分けて出力させるか、出力上限の大きいモデルを選択する必要があります。

プロンプトで文字数を制御するテクニック

ChatGPT に特定の文字数で出力させるためのプロンプト設計テクニックを紹介します。LLM は文字数を正確にカウントする能力が限定的であるため、工夫が必要です。

文字数制御の実践例

具体的なプロンプト例と、期待される出力文字数を示します。

プロンプト例期待される出力文字数精度
「一言で要約して」20〜50 文字高い
「3 行で要約して」60〜120 文字高い
「100 文字以内で説明して」60〜130 文字中程度
「500 文字程度で書いて」300〜700 文字低い
「箇条書き 5 項目で」150〜400 文字高い (項目数)
「Twitter 投稿用に 140 文字以内で」80〜160 文字中程度
「見出し 3 つ、各 100 文字で」250〜400 文字中程度

LLM は文字数を正確にカウントする能力が弱いため、「ちょうど 500 文字」のような厳密な指定は困難です。出力後に文字数を確認し、必要に応じて「もう少し短くして」「あと 100 文字追加して」と調整するのが現実的なアプローチです。

API での文字数制御パラメータ

OpenAI API を使用する場合、プログラム的に出力文字数を制御できるパラメータがあります。

長文生成時の文字数管理

出力上限を超える長文を生成する場合のテクニックを紹介します。

ChatGPT の出力文字数に関するよくある問題

ChatGPT の文字数制御で遭遇しやすい問題と、その対処法を紹介します。

まとめ

ChatGPT の出力文字数は、トークン数によって制限されます。日本語は 1 トークンあたり約 0.7〜1.5 文字で、英語の 3〜5 倍のトークンを消費します。文字数を制御するには、構造 (段落数・箇条書き数) で指定するのが最も効果的です。ChatGPT で生成した文章の文字数確認には、文字数カウントスをぜひご活用ください。