ELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」の性能を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。
この度 ELYZA は、新たに開発した700億パラメータの大規模言語モデル(LLM)である「ELYZA-japanese-Llama-2-70b」のデモを公開しました。「ELYZA-japanese-Llama-2-70b」は、前回までに引き続き、英語の言語能力に優れた Meta 社の「Llama 2」シリーズに日本語能力を拡張するプロジェクトの一環で得られた成果物です。
こんにちは。ELYZA のML Engineeringチームの堀江 (@eemon18)、村山 (@zakktakk)です。本記事では、弊社が2024/03/11にリリースした下記のデモについて、どのように70Bという巨大なモデルをホスティングしているのかを解説します。
こんにちは。ELYZAの研究開発チームの佐々木 (@hikomimo)、中村 (@tyo_yo_)、堀江 (@eemon18)、平川 (@h__must__) です。先日弊社株式会社ELYZAでは以下のようなリリースをさせていただきました。
GENIACプロジェクトの技術解説ブログ記事、第3弾を公開しました
お知らせNewsPicksにてレゾナック代表 真岡様と弊社代表 曽根岡の対談記事が公開されました
プレスリリースELYZAはLLMを用いたコンタクトセンターの高度化支援に本格的に参入いたします
プレスリリースJR西日本グループとELYZAが生成AIを活用したVoC分析パッケージを開発し、現場利用を開始しました
お知らせELYZAは、言語処理学会第31回年次大会(NLP2025)に、プラチナスポンサーとして協賛いたします
お知らせ一覧大規模言語モデルに関する取り組みについてお気軽にご相談ください。
お問い合わせ