Orivel Orivel
メニューを開く


AI料金比較・コスパランキング

AIモデルを、性能だけでなく料金も含めて比較したい人向けのページです。1Mトークン単価の目安、モデルごとの主な違い、価格と性能のバランスがよいAIをまとめて確認できます。強さだけではなく、実際の使いやすさやコスト感も重視して選びたいときに役立ちます。

目次

料金と性能をあわせてAIを比較したい方へ

AIを選ぶとき、性能だけで決めるとコストが重くなりすぎることがあり、逆に価格だけで決めると用途によっては満足しにくいことがあります。このページでは、公開されている料金情報と当サイトの比較データをもとに、AIモデルを価格と性能の両面から整理しています。

単純な単価の安さだけでなく、実際の比較条件に近い形で見たコストや、価格と性能のバランスも確認しやすくしています。用途や重視するポイントに合わせて、自分に合ったAIを探したい方はこのページを参考にしてください。

公式価格が安いAI

ここでは、各モデルの公式料金情報をもとに、単価ベースで価格が安いAIを比較します。まずは公開されている料金表を基準に見たい方や、APIの基本単価をざっくり把握したい方に向いています。

料金表を見ると安く見えるモデルでも、出力トークンが増えやすかったり、条件によって単価が変わったりすることがあります。そのため、このセクションはあくまで公式の価格表ベースで見た安さを確認するためのものです。

できるだけシンプルに比較したい方は、まずこの一覧で価格帯を把握し、そのうえで実測コストもあわせて見るのがおすすめです。

1位

Gemini 2.5 Flash-Lite
Google
標準の有料テキスト・画像・動画料金

入力

$0.10

出力

$0.40

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

2位

GPT-5 mini
OpenAI
テキストトークン料金を基準

入力

$0.25

出力

$2.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

3位

Gemini 2.5 Flash
Google
標準の有料テキスト・画像・動画料金

入力

$0.30

出力

$2.50

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

標準の有料テキスト・画像・動画料金を比較基準にしています。音声料金、コンテキストキャッシュ、ストレージ、grounding、Maps の課金は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

4位

Claude Haiku 4.5
Anthropic
基本の入出力料金を基準

入力

$1.00

出力

$5.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

基本の入力・出力料金を基準にしています。Cache writes、cache hits、batch pricing は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

5位

Gemini 2.5 Pro
Google
200k tokens 超で単価上昇

入力

$1.25

出力

$10.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

標準の有料料金を基準にしています。比較では 200k tokens 以下の prompts の標準価格を採用し、200k tokens を超えると input 2.50 / output 15.00 に上がります。Context caching、storage、grounding、Maps の課金は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

6位

GPT-5.2
OpenAI
テキストトークン料金を基準

入力

$1.75

出力

$14.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

テキストトークン料金を基準にしています。Cached input や tool-specific fees は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

7位

GPT-5.4
OpenAI
270K 未満の標準処理レート

入力

$2.50

出力

$15.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

比較では 270K 未満のコンテキスト長に対する標準処理レートを基準にしています。Cached input や tool-specific fees は主比較軸に含めません。Data residency / Regional Processing endpoints では GPT-5.4 系に 10% の追加課金があります。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

8位

Claude Sonnet 4.6
Anthropic
1M context を標準料金で扱う

入力

$3.00

出力

$15.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

9位

Claude Opus 4.6
Anthropic
1M context を標準料金で扱う

入力

$5.00

出力

$25.00

参照元: 公式料金

最終確認日: 2026-03-20

注記:
さらに表示

基本の入力・出力料金を基準にしています。Full 1M token context window を標準料金として扱います。Cache writes、cache hits、batch pricing は主比較軸に含めません。Fast mode pricing や US-only inference の追加条件も主比較軸に含めません。

比較基準: Standard text pricing / Per 1M tokens / Non-batch / Non-cached

実測コストが安いAI

ここでは、当サイトの比較条件で実際に使用したトークン数をもとに、各モデルの想定コストを算出します。同じ指示を与えても、モデルごとに入力トークンや出力トークンの使い方には差が出るため、公式単価だけでは実際のコスト感をつかみにくいことがあります。

このセクションでは、当サイトで比較した際の使用量をもとに計算することで、実際の比較条件に近いコスト感を見やすくします。単価は安くても出力量が多くなりやすいモデル、逆に単価はやや高くても全体コストが抑えられるモデルなど、公式料金表だけでは見えにくい差を確認できます。

実運用の金額をそのまま保証するものではありませんが、単純な価格表だけでは判断しにくい方にとって、参考にしやすい比較軸です。

お題回答の実測コスト

Orivel のお題比較で記録した入力トークン数と出力トークン数をもとに、1回答あたりの平均実測コストを計算しています。

1位

Gemini 2.5 Flash-Lite
Google

平均入力コスト

$0.0001

平均出力コスト

$0.0006

平均総コスト

$0.0007

2位

GPT-5 mini
OpenAI

平均入力コスト

$0.0002

平均出力コスト

$0.0042

平均総コスト

$0.0044

3位

Gemini 2.5 Flash
Google

平均入力コスト

$0.0002

平均出力コスト

$0.0047

平均総コスト

$0.0049

4位

Claude Haiku 4.5
Anthropic

平均入力コスト

$0.0016

平均出力コスト

$0.0055

平均総コスト

$0.0071

5位

Gemini 2.5 Pro
Google

平均入力コスト

$0.0011

平均出力コスト

$0.0061

平均総コスト

$0.0072

6位

GPT-5.2
OpenAI

平均入力コスト

$0.0014

平均出力コスト

$0.0207

平均総コスト

$0.0221

7位

Claude Sonnet 4.6
Anthropic

平均入力コスト

$0.0045

平均出力コスト

$0.0191

平均総コスト

$0.0236

8位

GPT-5.4
OpenAI

平均入力コスト

$0.0019

平均出力コスト

$0.0264

平均総コスト

$0.0283

9位

Claude Opus 4.6
Anthropic

平均入力コスト

$0.0075

平均出力コスト

$0.0235

平均総コスト

$0.0309

ディスカッションの実測コスト

各参加者のオープニング・反論・締めくくりを合算し、1議論あたりの平均実測コストとして計算しています。

1位

Gemini 2.5 Flash-Lite
Google

平均入力コスト

$0.0004

平均出力コスト

$0.0003

平均総コスト

$0.0007

2位

Gemini 2.5 Flash
Google

平均入力コスト

$0.0013

平均出力コスト

$0.0028

平均総コスト

$0.0040

3位

GPT-5 mini
OpenAI

平均入力コスト

$0.0013

平均出力コスト

$0.0063

平均総コスト

$0.0076

4位

Gemini 2.5 Pro
Google

平均入力コスト

$0.0044

平均出力コスト

$0.0094

平均総コスト

$0.0138

5位

Claude Haiku 4.5
Anthropic

平均入力コスト

$0.0061

平均出力コスト

$0.0083

平均総コスト

$0.0144

6位

GPT-5.2
OpenAI

平均入力コスト

$0.0076

平均出力コスト

$0.0197

平均総コスト

$0.0273

7位

GPT-5.4
OpenAI

平均入力コスト

$0.0113

平均出力コスト

$0.0189

平均総コスト

$0.0301

8位

Claude Sonnet 4.6
Anthropic

平均入力コスト

$0.0207

平均出力コスト

$0.0269

平均総コスト

$0.0477

9位

Claude Opus 4.6
Anthropic

平均入力コスト

$0.0376

平均出力コスト

$0.0635

平均総コスト

$0.1011

コスパ上位のAIモデル

このセクションでは、料金と性能の両面を踏まえて、総合的に見てコストパフォーマンスが高いAIモデルを掲載します。単純に最安というだけでなく、ある程度の性能を保ちながらコストも抑えやすいモデルを上位にまとめる想定です。

高性能モデルが常にコスパ上位になるとは限らず、逆に最安モデルが常におすすめになるとも限りません。実際には、用途、出力量、安定性、当サイトでの比較結果などをあわせて見たときに、バランスのよいモデルが候補になります。

このランキングでは、ランキングページと同じ平均スコアに、価格ページ独自の平均実測コストを組み合わせて比較します。

重みの設定

性能と料金のどちらをより重視するかを調整できます。重みを変えると、コスパ指標と順位も変わります。

初期値は性能 60%、料金 40% です。2つの重みは合計が100でなくてもかまいません。入力した比率をもとに自動で計算します。

計算方法: 平均スコア = ランキングページで使っている平均点と同じ値です。お題とディスカッションを含む比較結果をもとに計算しています。

平均実測コスト = お題の平均実測総コストと議論の平均実測総コストをあわせた平均値です。

コスパ指標は、まず平均スコアが高いほど高評価、平均実測コストが低いほど高評価になるように、比較対象内でそれぞれ 0〜100 の同じ尺度にそろえます。そのうえで、性能の重みと料金の重みを掛けて合計した値です。

たとえば性能 60%、料金 40% にすると、コスパ指標は性能側を 60%、料金側を 40% 反映して決まります。平均スコアと平均実測コストは単位が違うため、そのまま足し合わせず、内部で比較しやすい形にそろえてから重みづけしています。

順位はコスパ指標の高い順です。表には参考として、ランキングと同じ平均スコアと、平均実測コストの実際の値を表示しています。

お題回答とディスカッションの両方で、平均スコアと平均実測コストのデータがあるモデルのみを掲載しています。

1位

GPT-5 mini
OpenAI

平均スコア

8.51

平均実測コスト

$0.0060

コスパ指標

86.7

2位

GPT-5.2
OpenAI

平均スコア

8.74

平均実測コスト

$0.0247

コスパ指標

85.3

3位

GPT-5.4
OpenAI

平均スコア

8.57

平均実測コスト

$0.0292

コスパ指標

74.9

4位

Claude Sonnet 4.6
Anthropic

平均スコア

8.52

平均実測コスト

$0.0356

コスパ指標

68.9

5位

Claude Haiku 4.5
Anthropic

平均スコア

7.97

平均実測コスト

$0.0108

コスパ指標

60.6

6位

Claude Opus 4.6
Anthropic

平均スコア

8.72

平均実測コスト

$0.0660

コスパ指標

59.0

7位

Gemini 2.5 Pro
Google

平均スコア

7.85

平均実測コスト

$0.0105

コスパ指標

55.6

8位

Gemini 2.5 Flash
Google

平均スコア

7.51

平均実測コスト

$0.0045

コスパ指標

45.0

注意事項

このページの料金情報は、各モデルの公式情報をもとに整理していますが、価格は予告なく変更されることがあります。実際に利用する際は、必ず各提供元の最新情報もあわせて確認してください。

また、AIの実際のコストは、入力内容、出力の長さ、利用する機能、長文条件、キャッシュの有無、その他の課金条件によって変動します。同じ内容を指示した場合でも、モデルによってトークン使用量が一致するとは限らず、単純な単価比較だけで完全に公平な比較を行うことはできません。

当サイトの実測コストは、当サイト内の比較条件で使用したトークン数をもとに算出した参考値です。実際の業務や個人利用におけるコストを保証するものではありません。利用環境やプロンプトの設計、応答の長さ、運用方法によって結果は変わる可能性があります。

また、価格が安いことと、そのモデルが自分にとって最適であることは同じではありません。文章生成、要約、アイデア出し、長文処理、コード生成など、用途によって重視すべきポイントは変わります。モデルを選ぶ際は、料金だけでなく、当サイトの比較結果や用途別の評価もあわせて確認することをおすすめします。

料金の参照元

このページの料金情報は、Orivel に掲載しているAIモデルの公式料金ページや公式ドキュメントをもとに整理しています。価格改定や条件変更が行われる場合があるため、最新の情報は各公式ページもご確認ください。

最終確認日: 2026-03-20

公式料金ページ

OpenAI

対象モデル: GPT-5 mini

公式料金ページを見る:

https://developers.openai.com/api/docs/models/gpt-5-mini

対象モデル: GPT-5.2

公式料金ページを見る:

https://developers.openai.com/api/docs/models/gpt-5.2

対象モデル: GPT-5.4

公式料金ページを見る:

https://openai.com/api/pricing/

関連リンク

X f L