現代のAI技術は、驚異的なスピードで進化を続けています。その中心にあるのがOpenAIによるGPTという一連のモデルです。特にGPT3.5とGPT4は、強力な自然言語処理能力を持つAIモデルとして注目を集めています。これらはChatGPTで主に使用されています。
これらの機能を他のサービス、(例えば、スプレッドシートやGoogleドキュメント、自作チャットボットなど)からでも使用できるようにする仕組みがAPIです。
さらに11/7にOpenAIよりGPT4-TurboおよびAssistants APIが発表されました!
こちらは2023年4月までの情報を学習しているという優れものです!
この記事では、GPT3.5-Turbo/GPT4-Turbo/Assistants API/ファインチューニングモデルなど様々なAPIの使用における料金体系を詳しく解説いたします。
さらに、2024年5月には最新モデルGPT-4oが発表されました!
第1章 ChatGPT APIの料金:GPT3.5とGPT4 Turbo
APIとは
API(Application Programming Interface)は、ソフトウェアやサービスがお互いに通信するための規則や手順を定めたもので、その仕組みはレストランのメニューに似ています。
レストランで食事を注文するとき、メニューから料理を選びますよね。メニューには、レストランが提供するすべての料理とその詳細が書かれています。このとき、料理の作り方や厨房の中のことを詳しく知る必要はありません。メニューから選び、ウェイターに注文するだけで、料理がテーブルに運ばれてきます。
APIも同じような仕組みです。コンピュータプログラム(またはウェブサービス)が他のプログラムと「会話」するときに、APIを「メニュー」として使用します。APIには、プログラム(今回であればChatGPT)が提供するすべての機能とその詳細(どのように要求を送るか、何を期待するかなど)が書かれています。一方のプログラム(スプレッドシートなど)がAPIに従って「注文」を出すと、もう一方のプログラム(ChatGPT)がその「注文」に従って特定の作業を実行し、結果を返します。
このように、APIはプログラムやサービスが互いに「話す」ための共通言語のようなもので、それぞれがどのように機能するかを理解する必要なく、他のプログラムやサービスと連携できるようにします。ChatGPTのAPIキーを用いれば、他のサービス、(例えば、スプレッドシートやGoogleドキュメント、自作チャットボットなど)からでもChatGPTの機能を使用できるようになります。
OpenAIのChatGPT APIを使用するには、その利用に対して費用が発生します。以下では、GPT3.5とGPT4の料金体系を詳しく見ていきましょう。
「GPT-4o」の料金
GPT-4oは従来の最新モデルGPT-4 turboよりも高速かつ安価に使用することのできる最新モデルとなっています。コンテキストも128Kと非常に大きく2023年10月までの情報を学習していることが特徴となっています。
『gpt-4o』モデルは入力は1000トークンあたり、0.005ドル、出力は1000トークンあたり、0.015ドルとなっています。GPT-4turboの半分の値段とのことで、性能価格ともに優れています。もはやgpt-4 turboを使う理由がなくなってきてしまいますね。
Open AI ChaGPTのバッチAPIとは
先ほどのGPT-4oの料金表において、バッチAPIというものがあるのに気づいた方もいるかと思います。こちらは、価格表によると普通のAPIの料金の半分で利用できるとのことで、気になる方も多いのではないでしょうか?
Introducing the Batch API: save costs and get higher rate limits on async tasks (such as summarization, translation, and image classification).
Just upload a file of bulk requests, receive results within 24 hours, and get 50% off API prices: https://t.co/ls8DjR6qA9 pic.twitter.com/3W1GHijV3S
— OpenAI Developers (@OpenAIDevs) April 15, 2024
バッチAPIは、一度に複数のリクエストをまとめて送信することで、効率的にAPIを利用する方法です。これにより、個々のリクエストを逐一送信するのに比べて、API呼び出しのオーバーヘッドを削減し、全体の処理速度を向上させることができます。
24時間以内の処理に限りコストが半分になるとのことで、24時間以上かかる処理については途中まで実行して残りはキャンセルされるようです。
APIの使用料金
APIの使用料金は、APIリクエストの数とそのリクエストの中に含まれる「トークン」の数に基づいています。トークンは、AIモデルがテキストを解析するときの最小単位です。人間が入力した言語を、ChatGPTはトークンに置き換えて認識しています。
おおよそひらがな1文字に対して1~2トークン、漢字1文字に対して1~3トークン、英語の場合は1単語に対して1トークンと言われています。(1トークン=1文字で無いことに注意してください)
※GPT-4oの登場に合わせて1文字に費やすトークン数にも変化が起きました。
例えば、こちらの
こんにちは、私の名前は、GPT-4oです。私は新しいタイプの言語モデルです。初めまして!
こちらの文章のトークン数は以前まで36であったところが、今回の変更によって26にまで1.4分の1に節約できるとのことです。この変更によって日本語の1文字は1トークンを切ったのではないかとの話もあります。
同様に、英語のトークン数も1.1分の1になったようで性能の向上が我々にも還元されています。
また、APIの使用料金はChatGPTからの返答のみでなく、こちらから入力した文章に対しても課せられます。
ここで注意すべきなのは、APIキーの設定時に過去の会話も参照するように設定した場合、過去の会話も入力文として認識されるため膨大なトークン数が消費される危険があります。あらかじめAPIのmessagesパラメータに追加する過去の会話の上限を設定しておきましょう。
GPT3.5 TurboのAPI料金
GPT-3.5のAPI料金は
『gpt-3.5-turbo-1106』モデルだと入力は1000トークンあたり、0.0010ドル、出力は1000トークンあたり、0.002ドル
『gpt-3.5-turbo-instruct』モデルだと入力は1000トークンあたり0.003ドル、出力は1000トークンあたり、0.004ドルとなります。
注意すべきポイントは、入力に対してもAPI料金が発生する点です。前述の通り、APIキーの設定時に過去の会話も参照するように設定した場合、過去の会話も入力文として認識されるため膨大なトークン数が消費される危険があります。
『4K context』モデルと『16K context』モデルの違いは入力できる上限文字数にあります。あまり長い文章を入力しない用途の場合は『4K context』モデルを選択しましょう。
基本的に、GPT3.5のAPIは、リクエストあたりのトークン数が増えると費用が増えるという料金体系を採用しています。このため、利用者はAPIの使用量を把握し、必要に応じてコストをコントロールする必要があります。
GPT3.5TurboファインチューニングにおけるAPI料金
8月24日に新機能としてGPT3.5Turboのファインチューニングが可能となりました。
ファインチューニングモデルにおいてはトレーニングと使用の両方において料金が発生します。
・トレーニングの料金は、1000トークン0.008ドル
・入力時の料金は1000トークン0.003ドル
・出力時の料金は1000トークン0.006ドル
となっています。注意すべき点は通常のGPT3.5-Turboモデルと比べて料金が3倍近くになっている点ですね。
ファインチューニングモデルに関する詳細は公式サイトを参照してください(リンク)
GPT4のAPI料金
一方、GPT4は、より高度な性能を持つことを反映して、一般的にGPT3.5よりも高価です。その料金体系もAPIリクエストの数とトークンの数に基づいていますが、GPT3.5に比べてトークンあたりの料金が高くなっています。
GPT-4のAPI料金は1ドル140円レート換算で
『8K context』モデルだと入力は1000トークンあたり、0.03ドル、出力は1000トークンあたり、0.06ドル(1000トークンあたり約7.2円)
『32K context』モデルだと入力は1000トークンあたり、0.06ドル、出力は1000トークンあたり、0.12ドル(1000文字あたり約14.4円)となります。
GPT3.5と同じくあまり長い文章を入力しない用途の場合は『8K context』モデルを選択しましょう。
これらのデータはOpenAI公式サイトをもとにしています。(リンク)
GPT4 Turboについて
こちらは11/7にOpenAIより発表された最新のAPIです。
従来のGPT4との違いは以下の通りです。
・トークン数が以前の4倍の128k
・2023年4月までのデータを学習(以前は2021年9月)
・ファインチューニングも可能!
・DALL-E3による画像生成や音声入力も可能に!
また料金面でも違いがあります。
『gpt-4-1106-preview』モデルだと入力は1000トークンあたり、0.01ドル、出力は1000トークンあたり、0.03ドル(1000トークンあたり約7.2円)
『gpt-4-1106-vision-preview』モデルだと入力は1000トークンあたり、0.01ドル、出力は1000トークンあたり、0.03ドル(1000文字あたり約14.4円)となります。
visionモデルでは画像入力が可能となります。(詳しくはこちら)
大幅な性能の向上に加えて、価格がGPT4と比べて入力トークンが3分の1、出力トークンが2分の1になったということです!
「GPT-4 Turbo with Vision」の料金
画像入力はテキスト入力と同様に、トークンで課金されます。
与えられた画像のトークンコストは、サイズと各image_urlブロックのdetailオプションの2つの要素によって決定されます。
detail:low(低画質)の場合
detail:low(低画質)の画像はすべて固定で85トークンかかります。解像度をlowに設定した場合はどれほど大きな画像を渡しても85トークンです。
detail:high(高画質)の場合
detail:high(高画質)の画像は、まず縦横比を維持したまま2048×2048の正方形に収まるように拡大縮小されます。次に、画像の最も短い辺の長さが768pxになるように拡大縮小されます。最後に、画像が何個の512pxの正方形で構成されているかを数えられます。
この512pxの正方形の数あたり170トークンかかります。さらに85トークンが常に最終合計に加えられます。
Assistants APIのAPI料金
Assistants APIはCode Interpreterと呼ばれるデータ分析機能と、Retrievalと呼ばれる検索機能を使用できるAPIです。
Code Interpreterは入力1セッションにつき0.03ドル(ただし、2023年12月1日までは無料)
Retrievalは入力1GBにつき0.20ドル(ただし、2023年12月13日までは無料)
となっています。それぞれトークン数が単位でない点に注意しましょう。
第2章 GPT3.5とGPT4 APIの取得方法
GPT3.5とGPT4を他のサービスで活用するためには、APIキーを取得する必要があります。この章では、その具体的な手順を詳しく解説します。
APIキーの取得方法
①OpenAIのウェブサイトにアクセスします。(リンク)
②OpenAIのアカウントを作成します。
右上の『Sign up』をクリックしてOpenAIのアカウントの作成を行いましょう。OpenAIのアカウントの作成には氏名・電話番号・メールアドレスが必要です。OpenAIのアカウントの作成方法については以下の記事で詳しく説明しています。
③OpenAIのPlatformを開きましょう(リンク)
④右上の『Personal』をクリックし、『Manage account』を選択します。
⑤サイドバーから『Billing』をクリック
⑥『Set up paid account』をクリック
⑦クレジットカード情報を入力
⑧APIキーを取得
クレジットカード登録が完了したらいよいよAPIキーの取得です。先ほどのサイドバーから『API keys』を選択しましょう。下のような画面になりますので『+Create new secret key』をクリックしましょう。
これで取得は完了になります。出力されるAPIキーは一度しか表示されないので確実にコピーやスクショで保存するようにして下さい。
また、他人に不正利用されると、利用料金を肩代わりさせられる危険性がありますので、他人にAPIキーを送信することは基本的には避けましょう。
利用限度額の設定
APIの使用は気づかないうちにかなりの金額を使ってしまう危険性があります。また、APIキーが漏洩し、他人に不正利用される危険性があります。そのような事態を回避するために利用限度額を設定することをお勧めします。
具体的な手順としてはサイドバーから『Rate limits』を選択し、『Hard limit』の欄に使用限度額を、『Soft limit』の欄にはメール等で警告がと即ようになる金額を設定できます。これらによって使いすぎを防止することができます。
ただし金額はドル基準であることにご注意ください。
API料金を抑える方法
上記の上限金額の設定の他にも API料金を抑える方法はいくつか存在します。
まず、APIのmessagesパラメータに追加する過去の会話(つまりChatGPTが記憶する過去の会話の数)の上限を設定しておきましょう。
出力だけでなく入力文にもAPI料金は課せられるため、参照する過去のやり取りの数を抑えることで入力文の文字数を抑えることができます。(ただし、APIで導入したChatGPT機能の記憶能力は下がります。)
また、やり取りを英語で行うことも一つの手です。日本語は1文字1~3トークンも消費するのに対し、英語は基本的に1単語=1トークンであるためコストパフォーマンスがかなり良いです。
ただし、これらの手法でコストを下げると利便性に影響が及ぶ場合もあるのでコストとパフォーマンスのちょうど良いバランスを見極めることが重要です。
第3章 GPT3.5とGPT4とは何か?違いは?
このセクションではそもそもGPT3.5及びGPT4とはなんなのかについて説明しています。既知の方は§2からお読み下さい
OpenAIが開発したGPT (Generative Pretrained Transformer) は、人間が自然言語でコミュニケーションを取る能力を模倣しようとする人工知能の一種です。この章ではその中でもChatGPTに導入されているGPT3.5とGPT4に焦点を当て、それぞれの基本的な特性と機能について解説します。
APIではどちらを使うのかを選択して使用することになります。
GPT3.5 安くて高速なモデル
GPT3.5は、その前身であるGPT-3の強大な能力をさらに進化させたモデルです。これは数千億件のテキストを学習し、その結果として人間が提出したプロンプト(指示)に対して人間らしい回答を生成する能力を持っています。
ChatGPTの無料版でも使用することができ、GPT4よりも回答の生成が高速で、使用回数制限がない点が魅力です。また、APIの使用料金もGPT4と比較して低価格となっています。
GPT4: 最先端のAIモデル
一方、GPT4はOpenAIの最新の自然言語処理(NLP)モデルで、GPT3.5よりもさらに進化しています。GPT4は、より数多くのデータで訓練され、GPT3.5以上に複雑な課題を解決する能力を持っています。
GPT3.5と最も大きな違いはマルチモーダルな点です。テキスト入力にのみ対応しているGPT3.5とは異なり、テキスト入力に加えて、画像の解釈もでき、プラグインなどに応用されています。新機能『Code Interpreter』によってPDFやパワポ、エクセルなど様々な形式のデータを読み込むことも可能となりました。
GPT3.5とGPT4の違いとは?
GPT3.5とGPT4の主な違いは、その性能とマルチモーダル性にあります。基本的に複雑な作業になればなるほどその差は顕著となります。
しかしながら、これらの違いはそれぞれのモデルのコストにも反映されます。GPT4は、より強力な性能を持っているため、それに見合った高価な料金が設定されています。一方、GPT3.5はコストの面ではGPT4よりも優れています。例えば、ChatGPTにおいて、GPT3.5モデルは無料で使用可能なのですが、GPT4となると、ChatGPT Plusへの加入が必須となります。(月額約2800円)
最終的には、GPT3.5とGPT4のどちらを選択するかは、具体的なニーズと予算によって決まります。より高度な自然言語生成能力が必要な場合、GPT4が適しています。一方、基本的な作業でコストを抑えたい場合、GPT3.5が良い選択となるでしょう。
ChatGPTの利用におけるGPT3.5とGPT4の詳しい比較についてはこちらの記事を参照ください。
第4章 まとめ
今回はChatGPTのAPIの取得方法および、GPT3.5、GPT4モデルそれぞれのAPIの使用料金について解説しました。
GPT4の使用料金はGPT3.5の10倍ほどとなります。そのため、不特定多数の人向けのサービスなどにおいてはGPT3.5の利用の方が安全かと思われます。高度な作業を要求するものや、使用人数がある程度絞られているサービスについてはGPT4の方が向いているでしよう。
使用上限額の設定などでリスク管理を行いつつ、便利に活用してみて下さい!
執筆者:河津 大誠
『AITech』では、AIの導入を検討中の企業経営者やDX担当者向けに情報交流のコミュニティを設立しています。
ChatGPTなどの生成AIツールの社内業務への導入に関心がおありになる方は、お気軽に以下よりご連絡ください。
エラー: コンタクトフォームが見つかりません。
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。
コメント