入力
$0.10
出力
$0.40
参照元: 公式料金
最終確認日: 2026-03-20
さらに表示 ▼
標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
AIモデルを、性能だけでなく料金も含めて比較したい人向けのページです。1Mトークン単価の目安、モデルごとの主な違い、価格と性能のバランスがよいAIをまとめて確認できます。強さだけではなく、実際の使いやすさやコスト感も重視して選びたいときに役立ちます。
AIを選ぶとき、性能だけで決めるとコストが重くなりすぎることがあり、逆に価格だけで決めると用途によっては満足しにくいことがあります。このページでは、公開されている料金情報と当サイトの比較データをもとに、AIモデルを価格と性能の両面から整理しています。
単純な単価の安さだけでなく、実際の比較条件に近い形で見たコストや、価格と性能のバランスも確認しやすくしています。用途や重視するポイントに合わせて、自分に合ったAIを探したい方はこのページを参考にしてください。
ここでは、各モデルの公式料金情報をもとに、単価ベースで価格が安いAIを比較します。まずは公開されている料金表を基準に見たい方や、APIの基本単価をざっくり把握したい方に向いています。
料金表を見ると安く見えるモデルでも、出力トークンが増えやすかったり、条件によって単価が変わったりすることがあります。そのため、このセクションはあくまで公式の価格表ベースで見た安さを確認するためのものです。
できるだけシンプルに比較したい方は、まずこの一覧で価格帯を把握し、そのうえで実測コストもあわせて見るのがおすすめです。
| # | モデル | 提供元 | 入力 | 出力 | 参照元 | 最終確認日 | 注記 |
|---|---|---|---|---|---|---|---|
| 1位 | Gemini 2.5 Flash-Lite |
$0.10
|
$0.40
|
公式料金 | 2026-03-20 |
標準の有料テキスト・画像・動画料金
さらに表示 ▼標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
|
| 2位 | GPT-5 mini | OpenAI |
$0.25
|
$2.00
|
公式料金 | 2026-03-20 |
テキストトークン料金を基準
さらに表示 ▼テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 3位 | Gemini 2.5 Flash |
$0.30
|
$2.50
|
公式料金 | 2026-03-20 |
標準の有料テキスト・画像・動画料金
さらに表示 ▼標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
|
| 4位 | Claude Haiku 4.5 | Anthropic |
$1.00
|
$5.00
|
公式料金 | 2026-03-20 |
基本の入出力料金を基準
さらに表示 ▼基本の入力・出力料金を基準にしています。Cache writes、cache hits、batch pricing は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 5位 | Gemini 2.5 Pro |
$1.25
|
$10.00
|
公式料金 | 2026-03-20 |
200k tokens 超で単価上昇
さらに表示 ▼標準の有料料金を基準にしています。比較では 200k tokens 以下の prompts の標準価格を採用し、200k tokens を超えると input 2.50 / output 15.00 に上がります。Context caching、storage、grounding、Maps の課金は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
|
| 6位 | GPT-5.2 | OpenAI |
$1.75
|
$14.00
|
公式料金 | 2026-03-20 |
テキストトークン料金を基準
さらに表示 ▼テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 7位 | GPT-5.4 | OpenAI |
$2.50
|
$15.00
|
公式料金 | 2026-03-20 |
270K 未満の標準処理レート
さらに表示 ▼比較では 270K 未満のコンテキスト長に対する標準処理レートを基準にしています。Cached input や tool-specific fees は主比較軸に含めません。Data residency / Regional Processing endpoints では GPT-5.4 系に 10% の追加課金があります。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 8位 | Claude Sonnet 4.6 | Anthropic |
$3.00
|
$15.00
|
公式料金 | 2026-03-20 |
1M context を標準料金で扱う
さらに表示 ▼基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 9位 | Claude Opus 4.6 | Anthropic |
$5.00
|
$25.00
|
公式料金 | 2026-03-20 |
1M context を標準料金で扱う
さらに表示 ▼基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。Fast mode pricing や US-only inference の追加条件も主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 10位 | Claude Opus 4.7 | Anthropic |
$5.00
|
$25.00
|
公式料金 | 2026-04-18 |
1M context を標準料金で扱う
さらに表示 ▼基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
| 11位 | GPT-5.5 | OpenAI |
$5.00
|
$30.00
|
公式料金 | 2026-04-25 |
テキストトークン料金を基準
さらに表示 ▼テキストトークン料金を基準にしています。Cached input、Batch/Flex(標準の50%)、Priority(標準の2.5倍)料金は主比較軸に含めません。 比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached |
入力
$0.10
出力
$0.40
参照元: 公式料金
最終確認日: 2026-03-20
標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$0.25
出力
$2.00
参照元: 公式料金
最終確認日: 2026-03-20
テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$0.30
出力
$2.50
参照元: 公式料金
最終確認日: 2026-03-20
標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$1.00
出力
$5.00
参照元: 公式料金
最終確認日: 2026-03-20
基本の入力・出力料金を基準にしています。Cache writes、cache hits、batch pricing は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$1.25
出力
$10.00
参照元: 公式料金
最終確認日: 2026-03-20
標準の有料料金を基準にしています。比較では 200k tokens 以下の prompts の標準価格を採用し、200k tokens を超えると input 2.50 / output 15.00 に上がります。Context caching、storage、grounding、Maps の課金は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$1.75
出力
$14.00
参照元: 公式料金
最終確認日: 2026-03-20
テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$2.50
出力
$15.00
参照元: 公式料金
最終確認日: 2026-03-20
比較では 270K 未満のコンテキスト長に対する標準処理レートを基準にしています。Cached input や tool-specific fees は主比較軸に含めません。Data residency / Regional Processing endpoints では GPT-5.4 系に 10% の追加課金があります。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$3.00
出力
$15.00
参照元: 公式料金
最終確認日: 2026-03-20
基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$5.00
出力
$25.00
参照元: 公式料金
最終確認日: 2026-03-20
基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。Fast mode pricing や US-only inference の追加条件も主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$5.00
出力
$25.00
参照元: 公式料金
最終確認日: 2026-04-18
基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
入力
$5.00
出力
$30.00
参照元: 公式料金
最終確認日: 2026-04-25
テキストトークン料金を基準にしています。Cached input、Batch/Flex(標準の50%)、Priority(標準の2.5倍)料金は主比較軸に含めません。
比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached
ここでは、当サイトの比較条件で実際に使用したトークン数をもとに、各モデルの想定コストを算出します。同じ指示を与えても、モデルごとに入力トークンや出力トークンの使い方には差が出るため、公式単価だけでは実際のコスト感をつかみにくいことがあります。
このセクションでは、当サイトで比較した際の使用量をもとに計算することで、実際の比較条件に近いコスト感を見やすくします。単価は安くても出力量が多くなりやすいモデル、逆に単価はやや高くても全体コストが抑えられるモデルなど、公式料金表だけでは見えにくい差を確認できます。
実運用の金額をそのまま保証するものではありませんが、単純な価格表だけでは判断しにくい方にとって、参考にしやすい比較軸です。
Orivel のお題比較で記録した入力トークン数と出力トークン数をもとに、1回答あたりの平均実測コストを計算しています。
| # | モデル | 提供元 | 平均入力コスト | 平均出力コスト | 平均総コスト |
|---|---|---|---|---|---|
| 1位 | Gemini 2.5 Flash-Lite | $0.0001 | $0.0005 | $0.0006 | |
| 2位 | GPT-5 mini | OpenAI | $0.0002 | $0.0037 | $0.0039 |
| 3位 | Gemini 2.5 Flash | $0.0002 | $0.0039 | $0.0041 | |
| 4位 | Claude Haiku 4.5 | Anthropic | $0.0016 | $0.0053 | $0.0069 |
| 5位 | Gemini 2.5 Pro | $0.0010 | $0.0074 | $0.0085 | |
| 6位 | GPT-5.2 | OpenAI | $0.0013 | $0.0220 | $0.0233 |
| 7位 | Claude Sonnet 4.6 | Anthropic | $0.0046 | $0.0189 | $0.0235 |
| 8位 | GPT-5.4 | OpenAI | $0.0019 | $0.0233 | $0.0252 |
| 9位 | Claude Opus 4.6 | Anthropic | $0.0075 | $0.0341 | $0.0417 |
| 10位 | Claude Opus 4.7 | Anthropic | $0.0107 | $0.0437 | $0.0544 |
| 11位 | GPT-5.5 | OpenAI | $0.0043 | $0.0639 | $0.0682 |
平均入力コスト
$0.0001
平均出力コスト
$0.0005
平均総コスト
$0.0006
平均入力コスト
$0.0002
平均出力コスト
$0.0037
平均総コスト
$0.0039
平均入力コスト
$0.0002
平均出力コスト
$0.0039
平均総コスト
$0.0041
平均入力コスト
$0.0016
平均出力コスト
$0.0053
平均総コスト
$0.0069
平均入力コスト
$0.0010
平均出力コスト
$0.0074
平均総コスト
$0.0085
平均入力コスト
$0.0013
平均出力コスト
$0.0220
平均総コスト
$0.0233
平均入力コスト
$0.0046
平均出力コスト
$0.0189
平均総コスト
$0.0235
平均入力コスト
$0.0019
平均出力コスト
$0.0233
平均総コスト
$0.0252
平均入力コスト
$0.0075
平均出力コスト
$0.0341
平均総コスト
$0.0417
平均入力コスト
$0.0107
平均出力コスト
$0.0437
平均総コスト
$0.0544
平均入力コスト
$0.0043
平均出力コスト
$0.0639
平均総コスト
$0.0682
各参加者のオープニング・反論・締めくくりを合算し、1議論あたりの平均実測コストとして計算しています。
| # | モデル | 提供元 | 平均入力コスト | 平均出力コスト | 平均総コスト |
|---|---|---|---|---|---|
| 1位 | Gemini 2.5 Flash-Lite | $0.0004 | $0.0004 | $0.0008 | |
| 2位 | Gemini 2.5 Flash | $0.0013 | $0.0028 | $0.0041 | |
| 3位 | GPT-5 mini | OpenAI | $0.0013 | $0.0057 | $0.0070 |
| 4位 | Claude Haiku 4.5 | Anthropic | $0.0065 | $0.0080 | $0.0146 |
| 5位 | Gemini 2.5 Pro | $0.0054 | $0.0111 | $0.0165 | |
| 6位 | GPT-5.2 | OpenAI | $0.0083 | $0.0205 | $0.0288 |
| 7位 | GPT-5.4 | OpenAI | $0.0116 | $0.0204 | $0.0320 |
| 8位 | Claude Sonnet 4.6 | Anthropic | $0.0210 | $0.0277 | $0.0487 |
| 9位 | GPT-5.5 | OpenAI | $0.0223 | $0.0451 | $0.0674 |
| 10位 | Claude Opus 4.6 | Anthropic | $0.0386 | $0.0657 | $0.1043 |
| 11位 | Claude Opus 4.7 | Anthropic | $0.0495 | $0.0614 | $0.1109 |
平均入力コスト
$0.0004
平均出力コスト
$0.0004
平均総コスト
$0.0008
平均入力コスト
$0.0013
平均出力コスト
$0.0028
平均総コスト
$0.0041
平均入力コスト
$0.0013
平均出力コスト
$0.0057
平均総コスト
$0.0070
平均入力コスト
$0.0065
平均出力コスト
$0.0080
平均総コスト
$0.0146
平均入力コスト
$0.0054
平均出力コスト
$0.0111
平均総コスト
$0.0165
平均入力コスト
$0.0083
平均出力コスト
$0.0205
平均総コスト
$0.0288
平均入力コスト
$0.0116
平均出力コスト
$0.0204
平均総コスト
$0.0320
平均入力コスト
$0.0210
平均出力コスト
$0.0277
平均総コスト
$0.0487
平均入力コスト
$0.0223
平均出力コスト
$0.0451
平均総コスト
$0.0674
平均入力コスト
$0.0386
平均出力コスト
$0.0657
平均総コスト
$0.1043
平均入力コスト
$0.0495
平均出力コスト
$0.0614
平均総コスト
$0.1109
このセクションでは、料金と性能の両面を踏まえて、総合的に見てコストパフォーマンスが高いAIモデルを掲載します。単純に最安というだけでなく、ある程度の性能を保ちながらコストも抑えやすいモデルを上位にまとめる想定です。
高性能モデルが常にコスパ上位になるとは限らず、逆に最安モデルが常におすすめになるとも限りません。実際には、用途、出力量、安定性、当サイトでの比較結果などをあわせて見たときに、バランスのよいモデルが候補になります。
このランキングでは、ランキングページと同じ平均スコアに、価格ページ独自の平均実測コストを組み合わせて比較します。
計算方法: 平均スコア = ランキングページで使っている平均点と同じ値です。お題とディスカッションを含む比較結果をもとに計算しています。
平均実測コスト = お題の平均実測総コストと議論の平均実測総コストをあわせた平均値です。
コスパ指標は、まず平均スコアが高いほど高評価、平均実測コストが低いほど高評価になるように、比較対象内でそれぞれ 0〜100 の同じ尺度にそろえます。そのうえで、性能の重みと料金の重みを掛けて合計した値です。
たとえば性能 60%、料金 40% にすると、コスパ指標は性能側を 60%、料金側を 40% 反映して決まります。平均スコアと平均実測コストは単位が違うため、そのまま足し合わせず、内部で比較しやすい形にそろえてから重みづけしています。
順位はコスパ指標の高い順です。表には参考として、ランキングと同じ平均スコアと、平均実測コストの実際の値を表示しています。
お題回答とディスカッションの両方で、平均スコアと平均実測コストのデータがあるモデルのみを掲載しています。
| # | モデル | 提供元 | 平均スコア | 平均実測コスト | コスパ指標 |
|---|---|---|---|---|---|
| 1位 | GPT-5.2 | OpenAI | 8.72 | $0.0261 | 87.6 |
| 2位 | GPT-5 mini | OpenAI | 8.44 | $0.0054 | 85.9 |
| 3位 | GPT-5.4 | OpenAI | 8.51 | $0.0286 | 77.7 |
| 4位 | Claude Sonnet 4.6 | Anthropic | 8.49 | $0.0361 | 73.1 |
| 5位 | Claude Opus 4.6 | Anthropic | 8.71 | $0.0730 | 64.4 |
| 6位 | Claude Haiku 4.5 | Anthropic | 7.96 | $0.0107 | 62.3 |
| 7位 | GPT-5.5 | OpenAI | 8.60 | $0.0678 | 62.2 |
| 8位 | Claude Opus 4.7 | Anthropic | 8.62 | $0.0827 | 55.9 |
| 9位 | Gemini 2.5 Pro | 7.79 | $0.0125 | 54.0 | |
| 10位 | Gemini 2.5 Flash | 7.41 | $0.0041 | 41.8 | |
| 11位 | Gemini 2.5 Flash-Lite | 7.33 | $0.0007 | 40.0 |
平均スコア
8.72
平均実測コスト
$0.0261
コスパ指標
平均スコア
8.44
平均実測コスト
$0.0054
コスパ指標
平均スコア
8.51
平均実測コスト
$0.0286
コスパ指標
平均スコア
8.49
平均実測コスト
$0.0361
コスパ指標
平均スコア
8.71
平均実測コスト
$0.0730
コスパ指標
平均スコア
7.96
平均実測コスト
$0.0107
コスパ指標
平均スコア
8.60
平均実測コスト
$0.0678
コスパ指標
平均スコア
8.62
平均実測コスト
$0.0827
コスパ指標
平均スコア
7.79
平均実測コスト
$0.0125
コスパ指標
平均スコア
7.41
平均実測コスト
$0.0041
コスパ指標
平均スコア
7.33
平均実測コスト
$0.0007
コスパ指標
このページの料金情報は、各モデルの公式情報をもとに整理していますが、価格は予告なく変更されることがあります。実際に利用する際は、必ず各提供元の最新情報もあわせて確認してください。
また、AIの実際のコストは、入力内容、出力の長さ、利用する機能、長文条件、キャッシュの有無、その他の課金条件によって変動します。同じ内容を指示した場合でも、モデルによってトークン使用量が一致するとは限らず、単純な単価比較だけで完全に公平な比較を行うことはできません。
当サイトの実測コストは、当サイト内の比較条件で使用したトークン数をもとに算出した参考値です。実際の業務や個人利用におけるコストを保証するものではありません。利用環境やプロンプトの設計、応答の長さ、運用方法によって結果は変わる可能性があります。
また、価格が安いことと、そのモデルが自分にとって最適であることは同じではありません。文章生成、要約、アイデア出し、長文処理、コード生成など、用途によって重視すべきポイントは変わります。モデルを選ぶ際は、料金だけでなく、当サイトの比較結果や用途別の評価もあわせて確認することをおすすめします。
このページの料金情報は、Orivel に掲載しているAIモデルの公式料金ページや公式ドキュメントをもとに整理しています。価格改定や条件変更が行われる場合があるため、最新の情報は各公式ページもご確認ください。
最終確認日: 2026-04-25
公式料金ページ
対象モデル: Claude Haiku 4.5 , Claude Opus 4.6 , Claude Opus 4.7 , Claude Sonnet 4.6
公式料金ページを見る:
https://platform.claude.com/docs/en/about-claude/pricing対象モデル: Gemini 2.5 Flash , Gemini 2.5 Flash-Lite , Gemini 2.5 Pro
公式料金ページを見る:
https://ai.google.dev/gemini-api/docs/pricing対象モデル: GPT-5 mini
公式料金ページを見る:
https://developers.openai.com/api/docs/models/gpt-5-mini対象モデル: GPT-5.2
公式料金ページを見る:
https://developers.openai.com/api/docs/models/gpt-5.2対象モデル: GPT-5.4
公式料金ページを見る:
https://openai.com/api/pricing/対象モデル: GPT-5.5
公式料金ページを見る:
https://openai.com/index/introducing-gpt-5-5/