【Meta開発】Llama2とは?分かりやすく特徴や性能を解説!
今回の記事では、Metaが開発した「Llama2」という大規模言語モデルについて分かりやすく解説していきます。
先日、2023/7/18に発表された「Llama2」は論文でChatGPTを超える、もしくは同等の精度だと話題になりました。
実際に、ChatGPTと比べてどうなのか?特徴や性能をみていきたいと思います。
llama2とは?
Llama2は、Meta社が開発した商用利用可能なLLM(大規模言語モデル)です。
OpenAIが開発した「ChatGPT」やGoogleが開発した「Bard」と同じような大規模言語モデルの1つであるとイメージすると分かりやすいと思います。
詳しくは、この論文で解説されていますが、今回はその中から重要なところをピックアップして分かりやすく解説していきます。
簡単に言うと、Llama2は「ChatGPTやBardの代替手段になり得る可能性のある大規模言語モデル」と言えます。
llama2の特徴
Llama2の特徴について解説していきます。
- オープンソース
- 商用利用可能
- Microsoft Azureで利用可能
- 3つのモデルが存在
- 入力上限が4096トークン
- 性能がGPT3.5と同等
Llama2の特徴は上記の6つのポイントになっています。
これから1つ1つ詳しくみていきましょう。
オープンソース
1つ目の特徴は、オープンソースであるという点です。
オープンソース=誰でも使用可能なようにコードやモデルが公開されているという事です。
オープンソースだと何が良いのか?
自由にこのLlama2の機能を使えるので、自社サービスを開発する際に、自由に組み込むことが出来る!これが最大のメリットです!
ChatGPTも自社サービスに組み込むことは可能ですが、APIを使わなければいけないため、お金がかかります。(ChatGPTのAPI利用についてはこちら)
さらに、みんなが使えるということは、モデルの脆弱性など、より良いものにするための改善を多くの目でやっていけるという事になります。
特定の会社のエンジニアだけではなく、世界中の人で使いながら改善していけるのも大きなメリットだと言えます。
商用利用可能
2つ目の特徴は、商用利用可能であるという点です。
Llama2の前身であるLlamaは、2023年2月に公開されましたが、研究目的の利用のみ可能であり、一般利用や商用利用は許可されていませんでした。
しかし、今回のLlama2では商用利用も可能になったため、Llama2を組み込んだ多くのサービスが登場すると考えられます。
利用方法は、専用フォームから「氏名・メールアドレス・国・所属」を入力し、利用申請することで使うことができます。
利用申請をして受理されると、専用のURLが送られてくるので、Meta社がGitHubで公開している、Llama 2の各モデルをダウンロードすることができます。
注意点として、商用利用もOKですが、「月間アクティブユーザーが7億人以上の場合は、Metaから別途ライセンスを取得することが必要」としています。
Microsoft Azureで利用可能
3つ目の特徴は、Microsoft Azureで利用可能という点です。
Llama2のニュースと共に、MetaがMicorosoftと提携するというニュースも話題になりました。
これにより、Microsoftが提供するAzureでLlama2を利用可能になりました。
さらに、今後はWindowsなどにもLlama2が搭載されるなど幅広い活用を考えているそうです。
※現在、AzureだけではなくAWSやHuggingFaceでもLlama2は使用可能です。
3つのモデルが存在
4つ目の特徴は、3つのモデルが存在するという点です。
Llama2には、3つの異なる学習を行なったモデルが提供されています。
- 70億(7B)のパラメーターでトレーニングされたモデル
- 130億(13B)のパラメーターでトレーニングされたモデル
- 700億(70B)のパラメーターでトレーニングされたモデル
ここで注目すべきは、パラメータ数です。
一般的には、パラメータ数が多いほど高精度になると言われており、ChatGPTでは、パラメータ数が膨大であり、精度の高さが注目されていました。(ChatGPTのパラメータ数についてはこちら)
しかし、パラメータ数が膨大になるとそれだけ計算コストがかかるという問題もあります。
今回のLlama2では、130億(GPT3の約1/10)のパラメータ数で同等の精度を達成したという事で、より計算コストが低く精度を出せるという点で大きなポイントです。
入力上限が4096トークン
5つ目の特徴は、入力が4096トークンという点です。
4096トークンというのは、ChatGPTと同じで、大体日本語だと2000〜3000文字くらいだと言われています。
無限に長い文章を入れられるわけではないという点には注意する必要があります。
ChatGPTを使ったことがある方なら、大体同じくらいの感覚だと思っておくと良いと思います。
性能がGPT3.5と同等
6つ目の特徴は、性能がGPT3.5と同等であるという点です。
論文中の上図を見ると分かるように、Llama2と様々なLLMとの比較をしており、良い結果を出しています。
聞き馴染みのある、PaLMとChatGPTに絞って解説すると、右側2つのグラフを見ていきます。
まずPaLM(Google)との比較では、50%以上の勝率(濃い青)を達成しており、Llama2の方が大きく性能を上回っています。
ChatGPT(OpenAI)との比較では、70Bモデルは勝率36%、同率31.5%という結果でした。
明らかに上回っているという結果ではありませんでしたが、同等の性能であるということは明らかです。
llama2の性能
論文ベースではGPTと同等の精度であるとされていますが、実際の使用感や精度はどうでしょうか。
日本語への対応能力など含めて見てみたいと思います。
日本で一番高い山を聞いてみると、「Mount Fuji」という表記からも、意味を理解して返してくれているように見えます。
しかし、英語で返ってきたので日本語でと指定してみましょう。
日本語で返してくれました。しかし、何か少し日本語がおかしい所も見えます。
簡単な質問でも、日本語で答えてもらうのは結構難しいようですね。日本語は0.1%くらいしか含まれていないので、仕方ないですね。
また、毎回質問に日本語で答えてと言わないと日本語で返してくれないので、少し使い勝手は良くない印象です。
詳しい検討は以下の記事を参考にしてみてください!
[blogcard url=”https://note.com/it_navi/n/n113fa7151a4f”]
実際に使ってみた使用感としては、まだChatGPTの方が良い!そんな印象でした!
しかし、オープンソースでこれから更なる精度向上やサービスへの導入が進めばさらに精度も良くなり、本当の意味でChatGPTを超える可能性もあるかもしれませんね!
llama2の今後の期待
Metaが開発した大規模言語モデルLlama2は、ChatGPTやBardなどに変わる可能性のあるモデルです。
ChatGPTより遅れての開発にはなりますが、特徴でも説明したように「パラメータ数が少なく高精度が出せる」点や「オープンソースで商用利用可能である」点などを考えると今後さらに発展していくことが期待されます。
さらにMicrosoftや Qualcommとの提携も決まっているので、Windowsへの搭載や、Andoroid・PCなどへの搭載も考えられています。
MetaもFacebookやInstagaram、最近ではThreadsなど最先端のSNS業界を牽引している大企業であり、Metaが開発するLlama2の展開は今後も目を離せません!
まとめ
今回の記事では、ChatGPTに匹敵する?とも言われているMetaが開発したLlama2について、分かりやすく特徴や性能を解説しました。
LLM自体かなり注目されている中で、多くの大企業が参入しています。
その中でも、ChatGPTに続いて大きな衝撃をもたらしたオープンソースの「Llama2」は今後かなり期待されています。
今後の動向をチェックしていきたいと思います。
コメント