7月24日にアメリカのMeta(旧facebook社)はオープンソースLLMの新たなモデルであるllama 3.1を公開しました!llamaはオープンソースLLMの中で最もよく知られたLLMで、言語のニュアンスや文脈の理解、翻訳や対話生成などの複雑なタスクにおいて優れたパフォーマンスを発揮することが知られています。
本記事では、llamaの新モデルllama3.1の使い方や実際に使った上での性能について詳しく紹介していきたいと思います!
目次
1章 llama3.1とは?
先ほど申し上げた通り、llama3.1はアメリカのMeta(旧facebook社)はオープンソースLLMの新たなモデルです。一つ前のllama3についてはこちらの記事をご覧ください!
llama3の記事でもお話ししているのですが、llamaのすごいところがオープンソースのLLMでありながら性能が非常に高いということです。LLMでの中でも最も皆さんにも馴染みが深いであろうOpen AIのLLM、ChatGPTはクローズドLLMと呼ばれています。
クローズドLLMとは?
クローズドLLMは、OpenAIのGPTシリーズのように企業が独占的に所有し、APIを通してのみ利用可能なモデルを指します。企業が大規模なリソースをもとに開発されたパラメータであるため、汎用的に使うのに適したモデルとなっています。
汎用性は高いものの、内部の仕組みがブラックボックスとなっている事から自分の所望のカスタマイズを行うことができないという欠点があります。
オープンソースLLM
ローカルLLMは、大量のテキストデータから言語の特徴を学習した大規模な言語モデルです。ユーザーが入力したテキストをもとに、ニューラルネットワークを使って最も適切な応答を生成します。この一連の処理を、自分のPCのCPUとメモリ上で行うのがローカルLLMの特徴です。
llama3.1の機能・概要
今回の本題であるllama3.1について詳しく見ていきましょう!llama3.1はNVIDIAの「H100」というGPUによってトレーニングが行われています。
80億、700億、4050億のパラメータを持つ3つのモデルが存在しており、最大128Kトークンのコンテキストウィンドウを処理することができます。対応言語は英語を含む8言語となっておりますが、現時点で日本語は含まれていないようです。
こちらが、今LLMで性能が高いと言われているGPT-4o(omni)やClaude3.5とのベンチマーク性能比較表となっています。
1番パラメータ数の多いllama3.1 405BではGPT-4o(omni)やClaude3.5といったトップレベルのLLMモデルとも遜色のない性能を示しており、また項目によっては最も優れているものもあることがわかります。
コーディング能力
Llama 3.1は、コーディング関連のタスクに強みを持っています。具体的には、以下のような機能があります。
- コード生成: ユーザーの指示に基づいてPythonや他のプログラミング言語でコードを生成します。
- デバッグ: コードのエラーチェックや修正を支援します。
- タスクの自動化: コードを通じてさまざまなタスクを自動化します。
また、検索エンジン、Pythonインタープリタ、数学的な計算エンジン(例えば、Wolfram Alpha API)など、外部ツールを使用して情報を取得し、ユーザーの質問に答えることができます。
マルチモーダル機能
Llama 3.1は、画像、ビデオ、音声の認識能力を持つマルチモーダルモデルを開発中です。これには、画像エンコーダーと音声エンコーダーの事前学習を行い、テキストとそれらのデータを統合するためのアダプタを訓練するプロセスが含まれます。このアプローチにより、モデルは画像や音声の内容を理解し、適切な回答を生成することができます。
また、llama3.1はオープンソースLLMである事から、さまざまなクラウドサービスとの連携が可能となっております。代表的なものではamazonのAWSやマイクロソフトのAzureなどです。
このように、対応しているサービスの中でもできることとできないことがありますので、用途によってサービスを使い分けるのが良いでしょう。
2章 llama3.1の使い方
ここまで読んでいただいて、llama3.1の概要を理解していただけたでしょうか?ここからは、実際にllama3.1を使うための方法をご紹介していきたいと思います。
Llama 3を使ってみたいと思ったあなた。どうすれば使えるようになるのでしょうか?ここでは、Llama 3の使い方を簡単に説明します。
Llama3.1のはじめ方
Llama 3の各モデルは、Metaのウェブサイトからダウンロードできます。
画像内側のライセンス条項に同意し、必要な情報を入力しましょう!
こちらの画面では利用規約が書かれており、チェック欄にチェックを入れることで利用規約に同意することができます。同意したら、「Accept and continue」をクリックしましょう。メールアドレスに認証用のURLが送られてきます。
しかしこれだけでは、ダウンロードは完了しません!
こちらのgithubから、指示に従ってdownload.sh スクリプトを実行し、URLをこちらに渡す必要があるのです。詳しい方法はgithubをご覧ください!
Llama3.1を無料・ノーコードで使う方法
しかしながら、llama3.1を使いたいけれどダウンロードはしたくない、もう少し気楽に使いたいという方もいらっしゃるでしょう。
そのような方のために、ブラウザ上でllama3.1を使うことができる方法をご紹介いたします。
groqでllama3.1を使う
groqではLPUという独自のユニットを使うことで返答の早いLLMを体験できます。このgroqではすでにllama3.1モデルが対応しており、無料で使うことができます。
①公式サイトにアクセス
始めにgroqの公式サイトにアクセスしましょう!利用するにはgoogleアカウントでのログインが必要です。
こちらがgroqのチャット画面となります。画面右上に現在のモデルが示されています。こちらをクリックしてみましょう。
このようにllama3.1モデルからは8Bと70Bのモデルが利用できることがわかります。
Hugging Chatでllama3.1を使う
Hugging Chatでもllama3.1を使うことができます。こちらの方がアクセス集中による停止がが少なく使いやすいです!
①公式サイトにアクセス
公式サイトにアクセスします。
こちらがチャット画面となっています。画面赤枠内に現在のモデルが表示されています。
hugging chatではllama3.1の70Bと405Bのモデルが使えるようです。
3章 Llama3.1を使ってみた
それでは、先ほどのhugging chatを使ってllama3.1を使ってみましょう!
まずは、簡単な文章をつくってみましょう!
「夏」と「かき氷」を使って短い物語の文章をつくって
Create a short narrative sentence using the words “summer” and “shaved ice.”
プロンプトはこのようにしました。日本語に対応していないとのことでしたので、こちらを英語に翻訳してプロンプトに代入していきます。
画像出典 hugging chat回答は以下のようになりました。
As the warm summer sun beat down on the sidewalk, the sound of children’s laughter filled the air as they eagerly waited in line for a refreshing treat of colorful shaved ice.
暖かな夏の日差しが歩道を照りつける中、カラフルなかき氷を求める子供たちの笑い声が響いた。
このように日本語で入力しても同様の回答が得られました。公式からは日本語の対応はないとされていますが、十分に日本語での利用ができることがわかります。
このように405Bにモデルを変更してみました。
このように文章量は少し増えましたが性能の向上はそこまで感じられませんでした。
4章まとめ
今回は、Metaの新たなモデルであるllama 3.1について紹介しました。オープンソースLLMの性能も少しずつ高くなりクローズドLLMに迫りつつあります。
今後も技術の向上に目が離せませんね。
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。
コメント