【最新版】ChatGPTから学ぶGPTの変遷とAIの進化

この記事では、最近注目されているChatGPTの根幹であるGPTについて進化の変遷とAIの進化についてわかりやすくまとめています。

Ryusei

昨今、注目されている「ChatGPT」ですが、知っていますか?また、実際に使ったことはありますか?

今回の記事では、ChatGPTから学ぶ「GPTの変遷とAIの進化」についてみていきたいと思います。

最近、OpenAIが開発した「ChatGPT」をきっかけにAIへの注目度が高くなっています。

さらにChatGPTの登場とともに、その技術である「GPT」にも注目が集まり、最近では「GPT-4」の登場が大きな影響を与えました。

今回は、そんな「GPTの変遷とAIの進化」について分かりやすくまとめたいと思います。

目次

GPT以前の技術

引用:起業LOG

2022年11月末に、OpenAIがリリースした「ChatGPT」は、リリース後たった5日でユーザー数100万人を突破しており、世界中で爆発的に注目されています。

では、なぜこんなにも注目されることになったのでしょうか?

GPTが登場する以前の自然言語処理に関する技術から見ていきたいと思います。

自然言語処理とは

まずはChatGPTをはじめ、AIが言語を扱うことのできる「自然言語処理」について簡単に説明します。

自然言語処理(Natural Language Processing, NLP)とは、人間が使用する自然言語(英語、日本語など)をコンピュータで処理・分析する技術のことを指します。

AI自身が、文章の構造や意味を学習し、理解する事で様々な活用がなされています。

具体的には、上図に示すように検索エンジン(Bing)、チャットボット(ChatGPT)、機械翻訳(Google翻訳)、スマートスピーカー(アレクサ)などに使われている技術になります。

自然言語処理の歴史

1950年代 – 1960年代:初期の自然言語処理

初期のNLPシステムは、ルールベースのアプローチを用いていました。これには、文法や辞書を用いた手法が含まれます。この時代の代表的なプロジェクトには、ジョセフ・ワイゼンバウムが開発したELIZAがあります。

1970年代 – 1980年代:AIの冬とエキスパートシステム

この時期は、NLPの発展が一時的に停滞しました。しかし、エキスパートシステムと呼ばれる知識ベースのアプローチが登場しました。これは、特定の領域に関する専門知識を表現するための形式言語を用いていました。

1990年代:統計的NLPの登場

この時代には、コーパス言語学の発展とともに、大量のテキストデータを利用した統計的アプローチが登場しました。これにより、NLPのタスクを機械学習の問題として扱うことが可能となりました。この時代の代表的な技術には、隠れマルコフモデルや確率的文脈自由文法があります。

2000年代:機械学習の発展

2000年代には、サポートベクターマシン(SVM)、条件付き確率場(CRF)、最大エントロピー法などの新たな機械学習アルゴリズムが登場しました。これらの手法は、特徴エンジニアリングや教師あり学習を活用して、NLPタスクの性能を向上させることに成功しました。

2010年代:ディープラーニングの台頭

この時代には、ニューラルネットワークとディープラーニングがNLPに革命をもたらしました。RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GRU(Gated Recurrent Unit)などのモデルが登場しました。これらは、文脈を考慮した言語モデルや翻訳システムに効果的でした。

2015年以降:Attention機構とTransformerモデル

2015年には、Attention機構が提案されました。これは、文脈中の重要な情報に焦点を当てることで、NLPタスクの性能を向上させる手法です。Attention機構は、ニューラルネットワークを用いた機械翻訳システムにおいて大きな成功を収めました。

2017年には、Transformerモデルが登場しました。このモデルは、Attention機構を用いた自己注意層を基本要素として構築されており、RNNやLSTMに代わる新たなアーキテクチャとして広く使われるようになりました。Transformerモデルは、機械翻訳や文書要約などのタスクで優れた性能を発揮しました。

2018年以降:事前学習と転移学習

この時期には、大規模なデータから事前学習された言語モデルが登場しました。このアプローチでは、大規模なデータセットで事前学習されたモデルを、特定のNLPタスクに対して転移学習することで性能を向上させます。代表的なモデルには、OpenAIのGPTシリーズやGoogleのBERTがあります。これらのモデルは、多くのNLPタスクで最先端の性能を達成しました。

このように、自然言語処理のモデルの歴史は、ルールベースのアプローチから統計的手法、機械学習、ディープラーニング、Attention機構やTransformerモデル、そして事前学習と転移学習という発展の道筋を辿っています。

これだけの歴史がある中で、一体なぜ最近これほど注目されるに至ったのでしょうか?

GPTを見ていきながらその秘密に迫っていきましょう。

GPTとは?

GPTとはGenerative Pretrained Transformerの略であり、先程歴史の中で出てきたTransformerをベースにした事前学習生成モデルのことです。

昨今のAIの進化は2017年に登場したTransformerをベースにしており、話題のGPTもTransformerを活用した技術になっています。

皆さんChatGPTの登場により、GPTという言葉をよく聞くようになったと思いますが、既にその時には「GPT-3」

GPT-1やGPT-2はないのか?なぜGPT-3からこんなにも注目されるようになったのか?

そんな疑問にお答えしたいと思います。

GPTの歴史

GPTの歴史の概要
  • 2018:GPT-1
  • 2019:GPT-2
  • 2020:GPT-3
  • 2022:GPT-3.5
  • 2023:GPT-4

GPT-1が2018年に発表され、2019年にはGPT-2、2020年にはGPT-3、そして2022年にGPT-3.5にあたるChatGPT、2023年にGPT-4が発表されました。

GPTの仕組み(GPTは何がすごい?)

それでは、GPTは何がすごいのか?簡単にGPTの仕組みを見ていきましょう。

GPTの論文(GPT-1)はOpenAIから2018年に発表されました。

Improving Language Understanding by Generative Pre-Training

Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever

Published:2018

Improving Language Understanding by Generative Pre-Training
引用:Improving Language Understanding by Generative Pre-Training

GPTの仕組み(すごいところ)は、事前学習後に転移学習(ファインチューニング)をすることによって、さまざまな自然言語処理タスクを高い精度で行える点です。

事前学習は教師なし学習によって行われ、転移学習(ファインチューニング)は教師あり学習です。

このように、教師なし学習でデータそのものの特徴を学び、教師あり学習でタスクに対する性能を上げる学習手法を半教師あり学習ともいいます。

半教師あり学習は何がいい?

教師あり学習は、学習データとして正解ラベルをつけたデータが必要となります。そして、この正解ラベルをつける作業は手動なでありコストが非常にかかるため、大量の学習データを準備するのが困難です。

一方、教師なし学習はラベル無しデータを用いるため学習データを集めるコスト削減の重要な方法の1つになっています。

このような教師なし学習による特徴抽出に基づいた学習は、手動でラベルをつける教師あり学習よりも優れた結果を出すことが分かっています。

半教師あり学習は、教師あり学習と教師なし学習を組み合わせることで効率的に学習し、優れた結果が出る学習方法です。

GPT-1→GPT-2への進化

ここでは、GPT-1からGPT-2で何が進化したのか見ていきます。

GPT-2が登場したのはGPT-1登場から1年後の2019年です(詳細は以下の論文)。

Language Models are Unsupervised Multitask Learners

Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever

Published:2019

Language Models are Unsupervised Multitask Learners

GPT-2では主に、パラメータ数と学習に使うデータ量が変わりました。

具体的な違いについては、下表にまとめています。

GPT-1GPT-2
パラメータ数1.17億15億
学習データ4GB(BooksCorpus:7000を超える本から構成)40GB(大量のWebページから構成される800万文書)
モデルのアーキテクチャ12レイヤー48レイヤー

大量のデータを用いて学習したことで、かなり高精度なモデルになりました。

GPT-2の論文には文章を自動生成した例が載っていますが、フェイクニュースの生成など悪用の危険性が極めて高いレベルということで、当初はリリースされないと言われている程でした。

GPT-2→GPT-3の進化

続いて、GPT-2からGPT-3で何が進化したのか見ていきます。

GPT-3が登場したの2020年です(詳細は以下の論文)。

Language Models are Few-Shot Learners

Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei

Published:2020

Language Models are Few-Shot Learners

GPT-3では、GPT-2の時と同じくパラメータ数と学習に使うデータ量が変わりました。

さらに特徴的な進化としては、非常に大量のデータを事前学習に用いることでファインチューニングなしでも個別のタスクに対して良い精度の実現が可能になった点です。

具体的な違いについては、下表にまとめています。

GPT-2GPT-3
パラメータ数15億1750億
学習データ40GB(大量のWebページから構成される800万文書)約45TB(より大量のテキストデータからなる学習データセット)

大量のデータを用いて事前学習したことで、ファインチューニングなしでもかなり高精度なモデルになりました。

GPT-3発表時点では、まだ世間的な認知は爆発的に広まってはいませんでしたが、かなりの激震が走りました。

この時点で、GPT-3が出力したテキストは人間に近い程の高精度になっていました。

GPT-3→GPT-3.5への進化

続いて、GPT-3からGPT-3.5で何が進化したのか見ていきます。

GPT-3.5が登場したのは2022年で「ChatGPT」によって注目を浴びることになりました。

GPT-3.5では主に、パラメータ数が変わりました。

具体的な違いについては、下表にまとめています。

GPT-3GPT-3.5
パラメータ数1750億3550億

GPT-3と比較してモデル自体の進化はあまりありませんが、ここまで多くの人に使われるようになった要因がいくつかあります。

ChatGPTの登場

やはり1番のポイントは「ChatGPT」の登場でしょう。

チャットという親しみやすく、一般的に使いやすい形でリリースされたことで、認知され一気にGPTが爆発的に広まりました。

既に、ChatGPT自体は有料化など進化が進んでいて、答えの高精度化も進んでいます。

InstructGPTの仕組みによる人間のフィードバック

ChatGPTの仕組みとして、人間のフィードバックによる強化学習というInstructGPTの仕組みが用いられています。

詳細は以下の論文です。

Training language models to follow instructions with human feedback

Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano∗, Jan Leike, Ryan Lowe

Published:2022

Training language models to follow instructions with human feedback
引用:Training language models to follow instructions with human feedback

InstructGPTの最大の特徴は、「人間のフィードバックをもとにモデルを学習させる」ことです。これは、RLHF(=Reinforcement Learning from Human Feedback) という手法を用いることで実現できます。

ChatGPTの学習STEP
  • 教師あり学習
  • 報酬モデルの学習
  • 強化学習

ChatGPTの仕組みやわかりやすい解説はこちらの資料にまとまっているので、ご覧ください。

AIの進化と日本の戦略

GPT3.5-GPT-4への進化

そしてGPT-3.5からGPT-4へ進化しました。

GPT-4は2023年3月14日に公開されました。

司法試験など多くの試験での精度向上や多言語での精度向上など、全体的に飛躍的に精度が上がりました。

また、画像の入力に対する対応などマルチモーダルに対応したのもポイントです(ChatGPTは画像入力には非対応)。

GPT-4のパフォーマンスに関して(以下参照)

引用:OpenAI(複数の試験での精度向上)
引用:OpenAI(多言語での精度向上)
引用:OpenAI(画像入力への対応:マルチモーダル)

今後の展開

今回の記事では、GPT-1からGPT-4までの進化の軌跡についてまとめました。

ここ数年で、一気に進化し「ChatGPT」の登場により一般にもAIが幅広く広がりました。

GPT-4の登場以降、GPT-5の話なども出ていますが、今後もとてつもないスピード感で進化することが考えられます。

今後も、AIやGPTの動向については要注目です。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次