その他 – とれまがニュース

経済や政治がわかる新聞社や通信社の時事ニュースなど配信

とれまが – 個人ブログがポータルサイトに!みんなでつくるポータルサイト。経済や政治がわかる新聞社や通信社の時事ニュースなど配信
RSS
製品 サービス 企業動向 業績報告 調査・報告 技術・開発 告知・募集 人事 その他
とれまが >  ニュース  > リリースニュース  > その他

Shisa.AI、大規模言語モデルシリーズ「Shisa V2.1」を公開:より小さく、賢く、使いやすく - 端末からクラウドまで対応

AKA Virtual/Shisa.AI

Shisa.AI、大規模言語モデルシリーズ「Shisa V2.1」を

~日本語LLMの性能と効率を大幅に向上、API提供も新たに開始~


Shisa.AI(本社:東京都港区)は、2025年12月9日、日英バイリンガル汎用チャットモデル「Shisa V2.1」シリーズを公開しました。最高水準と評価されたShisa V2から、日本語性能と効率をさらに向上しました。スマートフォンでも動作する1.2Bから、GPT-4並の日本語性能を持つ14B・70Bまで、全5サイズで提供します。HuggingFaceでの無料ダウンロードに加え、今回初めてAPIでの有料提供も開始しました。
[画像: https://prcdn.freetls.fastly.net/release_image/111581/38/111581-38-346d37ed16eda19d303a8a46484c99e0-1024x1024.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


■ より小さく、より賢く

Shisa V2.1は、より小さなモデルでShisa V2を超える日本語性能を実現しました。
- Shisa V2.1 14Bは、4月公開のShisa V2 70Bを超える日本語性能を達成--5分の1以下のサイズで、より高速に、より少ないメモリで動作します。- Shisa V2.1 70Bは、国産LLMとして最高性能を誇るShisa V2 405Bに迫る性能を達成-こちらも約6分の1のサイズです。
(モデルのパラメータ数(例:14B=140億)が小さいほど、必要なメモリが少なく、推論速度も向上します。そのため、同等の性能を、より低コストで、より幅広い環境で利用可能になります。)
[表1: https://prtimes.jp/data/corp/111581/table/38_1_137815ffa5b699c6b20c9a59ccf73d1e.jpg?v=202512091216 ]
上記の表には、日本語・英語それぞれのテストの平均スコアに加え、他モデルとの比較がしやすいよう、GPT-4 Turboを評価者とした日本語MT-Benchスコアも掲載しています。

今回の改善は、データセットの80%以上を一新し、SFT・DPOに加えてRL(強化学習)やモデルマージ技術を取り入れることで可能になりました。ベンチマーク特化の学習は行っておらず、上記の結果は実環境での日本語能力向上を反映しています。

■ 正確な日本語出力を実現

昨今、日本語に対応したLLMが急速に増えていますが、海外モデルはもちろん、国内で学習されたモデルでも、日本語出力の途中で中国語や英語などが混入する現象が見られます。Shisa.AIでは、こうした「言語漏れ」を業界で初めて定量化する評価手法(Cross-Lingual Token Leakage)を開発しました。
[表2: https://prtimes.jp/data/corp/111581/table/38_2_39abfcf1352e10c7d5d5056156eaa634.jpg?v=202512091216 ]
言語の混在は、翻訳、カスタマーサポート、コンテンツ生成など、実用的な日本語アプリケーションにとって致命的な問題です。Shisa V2.1は、ベースモデルと比較して最大47.8倍の改善を達成し、検証した他のほぼすべてのモデルを上回る結果となりました。

■ API提供・商用サービスの開始

なお、今回のShisa V2.1のリリースに合わせて、テキスト・翻訳・音声APIの提供も始めました。また、Shisa V2ベースの翻訳サービス「chotto.chat」も公開中。個人ユーザーから法人まで、高品質な日英翻訳をすぐにお試しいただけます。

高性能な大規模モデルを試すにはコストや環境構築のハードルが高いという声にお応えし、OpenRouterでご利用しやすい価格設定と無料枠付きで提供する予定です。専用キャパシティ、オンプレミス導入、カスタム学習などのご要望にも対応いたします。

Shisa V2モデルは経済産業省GENIAC国産モデルとして承認されました。計算資源は日本国内でホストされており、低レイテンシはもちろん、データレジデンシーや規制対応が求められる用途にも安心してご利用いただけます。

■ AMDハードウェアでの学習

Shisa V2.1の学習は、AMD Developer Cloudより提供されたAMD MI300X GPUで実施されました。日本で開発された大型LLMとして、初めてAMDハードウェアで学習されたモデルとなります。学習効率を向上させる独自の改良も実施し、オープンソースとして公開しています。

■ Shisa.AIについて

Shisa.AIは、シリコンバレー発の技術チームを中核とする次世代AIスタートアップです。「日本語特化AI」と「データドリブン開発」を軸に、オープンソースLLMの進化をリードし、日本発のAIイノベーションを世界へ発信してまいります。

関連リンク
- Shisa.AI公式サイト:https://shisa.ai/- Shisa API:https://talk.shisa.ai/- HuggingFace:https://huggingface.co/shisa-ai- chotto.chat:https://chotto.chat/

本件に関するお問い合わせ先
Shisa.AI株式会社 広報担当 press@shisa.ai

-
※ Llama Community License Agreementに基づき、正式名称は「Llama 3.2 Shisa V2.1 3B」「Llama 3.3 Shisa V2.1 70B」および「Llama 3.1 Shisa V2 405B」とします。

プレスリリース提供:PR TIMES

記事提供:PRTimes

記事引用:アメーバ?  ブックマーク: Google Bookmarks  Yahoo!ブックマークに登録  livedoor clip  Hatena ブックマーク  Buzzurl ブックマーク

ニュース画像

一覧

とれまがマネー

とれまがマネー

IR動画

一覧

とれまがニュースは、時事通信社、カブ知恵、Digital PR Platform、BUSINESS WIRE、エコノミックニュース、News2u、@Press、ABNNewswire、済龍、DreamNews、NEWS ON、PR TIMES、LEAFHIDEから情報提供を受けています。当サイトに掲載されている情報は必ずしも完全なものではなく、正確性・安全性を保証するものではありません。当社は、当サイトにて配信される情報を用いて行う判断の一切について責任を負うものではありません。

とれまがニュースは以下の配信元にご支援頂いております。

時事通信社 IR Times カブ知恵 Digital PR Platform Business Wire エコノミックニュース News2u

@Press ABN Newswire 済龍 DreamNews NEWS ON PR TIMES LEAF HIDE

Copyright (C) 2006-2025 sitescope co.,ltd. All Rights Reserved.