商用利用可能な日本最大級の大規模言語モデルを公開
ストックマーク株式会社(本社:東京都港区、社長:林 達、以下:当社)は、2024年2月に、経済産業省と国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が主催する、国内の生成AI開発力強化を目的としたプロジェクト「GENIAC」への採択を受け、ハルシネーション※1を大幅抑止し、厳密さが要求されるビジネスシーンでも信頼可能な1,000億パラメータ規模の大規模言語モデル(Large Language Model、以下:LLM)「Stockmark-LLM-100b」の開発に成功し、本日より各種サイトにて公開しました。
フルスクラッチ※2で開発された当該基盤モデルは1,000億パラメータ規模であり、国内最大級の基盤モデルとなります。なお、当モデルの開発は、国立研究開発法人産業技術総合研究所との共同研究の一環として行われました。
※1:人工知能が学習したデータからは正当化できないはずの回答を堂々とする現象
※2:システムを作る際に、既存のモデルを用いずにゼロから組み上げる開発手法
【Stockmark-LLM-100bモデル公開先】
・事前学習モデル:https://huggingface.co/stockmark/stockmark-100b
・指示学習モデル:https://huggingface.co/stockmark/stockmark-100b-instruct-v0.1
※リリース全文は下記URLのPDFからもご覧いただけます。
https://lp.stockmark.co.jp/rs/942-ARR-504/images/pr_20240516.pdf