無料でノートPCでも実行可能な70億パラメータのチャットボット「GPT4ALL」発表
GPT-3.5-TurboとMetaの大規模言語モデル「LLaMA」で学習したデータを用いた、ノートPCでも実行可能なチャットボット「GPT4ALL」をNomic AIが発表しました。さまざまなトピックの学習に用いられた質問と返答のペアのトレーニングデータセットもすべて公開されています。
GitHub - nomic-ai/gpt4all: gpt4all: a chatbot trained on a massive collection of clean assistant data including code, stories and dialogue
GPT4All: Training an Assistant-style Chatbot with Large Scale Data Distillation from GPT-3.5-Turbo
(PDFファイル)https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf
Today we're releasing GPT4All, an assistant-style chatbot distilled from 430k GPT-3.5-Turbo outputs that you can run on your laptop. pic.twitter.com/VzvRYPLfoY— Nomic AI (@nomic_ai) March 28, 2023
GPT4All: Running an Open-source ChatGPT Clone on Your Laptop | by Maximilian Strauss | Mar, 2023 | Better Programming
https://betterprogramming.pub/gpt4all-running-an-open-source-chatgpt-clone-on-your-laptop-71ebe8600c71
Nomic AIはまずGPT-3.5-Turboを用いて、質問と返答のペアをおよそ100万個収集。
First, we collected a training dataset of 1 million prompt-response pairs from GPT-3.5-Turbo on a variety of topics. We are publicly releasing all of this data alongside GPT4All. https://t.co/XxCljkO0uO— Nomic AI (@nomic_ai) March 28, 2023
先行するスタンフォード大学のAlpacaの解説に基づいて、Nomic AIはデータ準備とキュレーションに注意を払うことにし、収集したペアをAtlasというツールを用いて整理。多様性の低い質問を削除し、トレーニングデータが幅広いトピックをカバーできるようにしたとのこと。整理後に残ったペアは43万7605件。
Next, we used Atlas to curate the data. We removed low diversity responses, and ensured that the training data covered a variety of topics. Explore the full train set on Atlas: https://t.co/RQ4lDSIocH pic.twitter.com/GDgZ6wQ0pK— Nomic AI (@nomic_ai) March 28, 2023
そしてNomic AIは、LLaMA 7Bのインスタンスから微調整された複数のモデルをトレーニング。最初の公開に関連するモデルはLoRAでトレーニングされました。このモデルをオープンソースの「Alpaca-LoRA」と比較したところ、一貫してperplexityが低い(低い方がよい)結果が出ています。
We then benched our trained model against the best open source alpaca-lora we could find on @huggingface (tloen/alpaca-lora-7b by @ecjwg ). Our model achieves consistently lower perplexity! pic.twitter.com/5VJPXzPLu4— Nomic AI (@nomic_ai) March 28, 2023
GPT4ALLは、いわばChatGPTのオープンソースの軽量クローン。ブログ・Better Programmingの筆者であるマクシミリアン・シュトラウス氏は、「GPT4ALLの魅力は量子化4ビット版モデルを公開したことにある」と述べています。これは、モデルの一部の精度を落として実行することで、よりコンパクトなモデルにしたもので、専用ハードウェア抜きで消費者レベルの端末でも実行できることを意味しています。
以下は、メモリ8GBのiMac M1で動作したという報告。
#GPT4All Seems to work just like that! I am running this on iMac M1 8GB. Sometimes it’s thinking, but it seems to just run amazing :) pic.twitter.com/MHymPLXckj— BLENDER SUSHI ???? MONK-AI 24/7 Blend Remix 4 All (@jimmygunawanapp) March 29, 2023
手元では、VAIO SX12で動作することを確認しました。
なお、モデルは研究目的に限りライセンス供与され無料で利用可能ですが、商用利用は禁止されています。また、補助データを収集したGPT-3.5-Turboの使用条件として、OpenAIと商業的に競合するモデルの開発を禁じるがあることに注意が必要です。