その他 – とれまがニュース

経済や政治がわかる新聞社や通信社の時事ニュースなど配信

とれまが – 個人ブログがポータルサイトに!みんなでつくるポータルサイト。経済や政治がわかる新聞社や通信社の時事ニュースなど配信
RSS
製品 サービス 企業動向 業績報告 調査・報告 技術・開発 告知・募集 人事 その他
とれまが >  ニュース  > リリースニュース  > その他

楽天、経産省およびNEDOによる生成AIの開発力強化プロジェクト「GENIAC」に採択

楽天グループ株式会社

- 高度にパーソナライズされたAIエージェントの実現に向けて、8月より次世代の日本語大規模言語モデルの研究開発を開始 -


 楽天グループ株式会社(以下「楽天」)は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が推進する日本の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)プロジェクト」(以下「GENIAC」)の第3期公募に採択されたことをお知らせいたします(注1)。

 GENIACは主に、生成AI開発において必要となる計算リソースの利用支援に加え、当該技術の最新動向や開発者コミュニティを通じたナレッジの提供等を行うプロジェクトです。2024年2月に第1期、同年10月には第2期の研究開発支援が行われ、本件は2025年3月からNEDOが実施した第3期公募の採択を受けたものです。今回の結果を受けて、楽天は2025年8月より、「長期記憶メカニズムと対話型学習を融合した最先端の生成AI基盤モデルの研究開発」(以下「本研究開発」)を開始します。

 楽天は、2024年3月より、日本語に最適化したオープンかつ高性能な大規模言語モデル(以下「LLM」)(注2)の開発・公開に取り組んでいます。開発当初からコスト効率を重視し、「Rakuten AI 2.0」のような小規模ながら高効率なLLMを開発しています。このモデルは、Mixture of Experts (MoE) アーキテクチャ(注3)を採用しており、「エキスパート」と呼ばれる複数のサブモデルで構成されています。クエリ処理時には関連する一部の「エキスパート」のみを稼働させるため、従来の高密度モデルと比較して運用コストを大幅に削減できるのが特長です。

 本研究開発では、既存のLLMでは難しかった、より長く複雑な日本語の文脈に合わせた処理が可能で、従来よりもさらに高度なLLMを開発します。このLLMには、言語モデルのメモリ機能を大幅に拡張する新たな技術を組み込むことで、応答生成時にアクセス可能な情報量が飛躍的に増加します。楽天は、これらの技術を活用し、生成AIのメモリに関する既存の制約を克服することで、情報再現率および性能を大幅に向上させたモデルの開発を推進します。

 今後楽天は、AIの次なるフェーズとして、メモリ機能を拡張することでLLMの記憶能力を向上させます。ユーザーとの会話を記憶することで、よりパーソナライズされた応答ができるLLMの開発を目指します。これにより、ユーザーとの長期にわたる会話から能動的に好みや経験を学習・活用することで、長いコンテキストウィンドウの処理に課題を抱える既存のトランスフォーマーアーキテクチャの制約を大幅に緩和することができます。さらに、最適な学習・推論アルゴリズムによって運用コストの効率化を達成し、AIエージェントのパーソナライズ化に向けて新たな可能性を引き出せます。これらの技術開発を通じて、「楽天エコシステム(経済圏)」内の様々なサービスへのAIエージェントの適用を拡大し、顧客体験向上や業務効率化を図ります。

 楽天のAIリサーチ統括部 楽天技術研究所 副部長の平手 勇宇は、本研究開発に関して次のようにコメントしています。「NEDOおよび経済産業省のご支援のもと、最先端の生成AI基盤モデルの開発に取り組めることを大変嬉しく思います。本研究開発を通じて、日本語に最適化され、かつ高度にパーソナライズされたAIエージェントの実現と、社会全体におけるAI活用の可能性拡大に貢献していきたいと考えています。」

 楽天は、AI化を意味する造語「AI-nization(エーアイナイゼーション)」をテーマに掲げ、さらなる成長に向けてビジネスのあらゆる面でAIの活用を推進する取り組みをしています。今後も豊富なデータと「楽天エコシステム」の活用を通じて、国内外の人々へ新たな価値創出を目指してまいります。

以 上

(注1)GENIAC採択結果公表ページ:
https://www.nedo.go.jp/koubo/CD3_100397.html

(注2)関連プレスリリース:
楽天、日本語に最適化した大規模言語モデルと楽天初の小規模言語モデルを提供開始(2025年2月12日)
https://corp.rakuten.co.jp/news/press/2025/0212_02.html
楽天、日本語に最適化した新たなAIモデルを発表(2024年12月18日)
https://corp.rakuten.co.jp/news/press/2024/1218_01.html
楽天、日本語に最適化したオープンかつ高性能なLLMを公開(2024年3月21日)
https://corp.rakuten.co.jp/news/press/2024/0321_01.html

(注3)Mixture of Expertsアーキテクチャは、モデルが複数のサブモデル(エキスパート)に分割されているAIモデルアーキテクチャです。推論および学習中は、最も適したエキスパートのサブセットのみがアクティブ化され、入力処理に使用されることで、より汎用的で高度な推論を行うことができます。

プレスリリース提供:PR TIMES

記事提供:PRTimes

記事引用:アメーバ?  ブックマーク: Google Bookmarks  Yahoo!ブックマークに登録  livedoor clip  Hatena ブックマーク  Buzzurl ブックマーク

ニュース画像

一覧

関連ニュース

とれまがマネー

とれまがマネー

IR動画

一覧

とれまがニュースは、時事通信社、カブ知恵、Digital PR Platform、BUSINESS WIRE、エコノミックニュース、News2u、@Press、ABNNewswire、済龍、DreamNews、NEWS ON、PR TIMES、LEAFHIDEから情報提供を受けています。当サイトに掲載されている情報は必ずしも完全なものではなく、正確性・安全性を保証するものではありません。当社は、当サイトにて配信される情報を用いて行う判断の一切について責任を負うものではありません。

とれまがニュースは以下の配信元にご支援頂いております。

時事通信社 IR Times カブ知恵 Digital PR Platform Business Wire エコノミックニュース News2u

@Press ABN Newswire 済龍 DreamNews NEWS ON PR TIMES LEAF HIDE

Copyright (C) 2006-2025 sitescope co.,ltd. All Rights Reserved.