130億パラメータの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-13b」を一般公開しました
Llama 2をベースとした商用利用可能な130億パラメータの日本語言語モデルを公開しました。オープンな日本語モデルの中で最高性能、GPT-3.5 (text-davinci-003) を上回る性能となりました。内容は以下をクリックしてご覧ください。
https://note.com/elyza/n/n5d42686b60b7
チャット形式のデモもぜひお試しください。vLLMというライブラリを用いて推論の高速化を行ない、その効果を最大限体感していただけるデモとなっています。
https://huggingface.co/spaces/elyza/ELYZA-japanese-Llama-2-13b-instruct-demo
(※アクセス過多によりリクエストが処理されるまで待ち時間が発生することがあります。)
プレスリリースはこちらとなります。
https://prtimes.jp/main/html/rd/p/000000039.000047565.html
今回のモデル学習は、AI橋渡しクラウド(AI Bridging Cloud Infrastructure、ABCI)を利用して実施しました。引き続き、70Bモデルの開発も進行中です。さらに「Llama 2」での取り組みに限らず、海外のオープンなモデルの日本語化や、独自のLLMの開発に継続して投資をしてまいります。