その他 – とれまがニュース

経済や政治がわかる新聞社や通信社の時事ニュースなど配信

とれまが – 個人ブログがポータルサイトに!みんなでつくるポータルサイト。経済や政治がわかる新聞社や通信社の時事ニュースなど配信
RSS
製品 サービス 企業動向 業績報告 調査・報告 技術・開発 告知・募集 人事 その他
とれまが >  ニュース  > リリースニュース  > その他

Miraiへの投資

Z Venture Capital株式会社

Miraiへの投資

オンデバイスAIインフラの新標準を築くMiraiへの投資


[画像: https://prcdn.freetls.fastly.net/release_image/41941/110/41941-110-a1a21da1f325b7fa2e9367e83dc91b36-1280x720.jpg?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]


by Hyung Kim

The article in English follows the Japanese version.

(日本語)

Miraiに投資する理由

Miraiは、これまで市場に欠けていた「オンデバイス推論のインフラストラクチャレイヤー」を構築しています。オンデバイス推論のインフラストラクチャレイヤーとは、スマホやPC上でAIモデルを高速・効率的に動かすための実行基盤および最適化レイヤーです。そして今ほど、その重要性が高まっているタイミングはありません。

私がMiraiの起業家に初めて出会ったのは、彼らがPrisma(AIによる写真加工アプリ)やReface(AIによるフェイススワップ)を手がけていた頃でした。印象的だったのは、優れたプロダクトセンスだけではありません。スケールする内部インフラを自ら構築し、運用まで見据えて形にしてしまう、技術的な完成度の高さでした。そして今、二人は再びタッグを組み、より根源的な課題に挑んでいます。それが「高性能なオンデバイス推論」です。

AIはもはや目新しい存在ではなく、「あって当たり前」のものへと変わりました。音声アシスタント、リアルタイム翻訳、コード補完、各種コパイロット機能――こうした体験が広がる中で、「すべての推論はクラウドで行う」という前提は崩れ始めています。レイテンシーの許容範囲はより厳しくなり、同時にプライバシーへの期待も高まっています。さらに、推論コストはもはや無視できない水準になりました。

だからこそ、私たちはMiraiに投資します。

MiraiはApple Silicon向けのオンデバイスAI推論インフラを構築し、開発者が最新のモデルをローカル環境で、本番品質のパフォーマンスで実行できるようにします。社内ベンチマークでは、特定のモデルとデバイスの組み合わせにおいて、MLXと比較して生成速度が37%向上し、プリフィル速度が最大59%高速化するという成果を示しています。オンデバイスでの性能向上は、単なる「わずかな改善」ではありません。多くの場合、それは「即時に使える体験」と「使い物にならない体験」の差を生み出します。

転換点はどこにどこにあるのか

現在、消費者向けデバイスにはAI専用の計算基盤が標準搭載されつつあります。特にApple Siliconでは、ハードウェアはすでに十分に整っています。しかし、ソフトウェアスタックはまだ追いついていません。オンデバイス推論は、単なるモデル実行の問題ではなく、「システム全体の最適化問題」です。チップごとの違い、モデルアーキテクチャの差異、デバイス世代、メモリ制約――これらが複雑に絡み合います。「1つのランタイムですべて対応する」というアプローチは、すぐに限界に達します。Miraiのミッションは、オンデバイス推論をクラウドAPIと同じくらい手軽にすることにあります。

経済的な合理性

AIワークロードが継続的なものへと進化する中で、音声、コード補完、リアルタイムアシスタンスなどのクラウドコストは積み上がり続けます。規模が拡大すればするほど、そのコストはプロダクトの成長を直接制約します。
適切なワークロードをデバイス側へ移すことで、1推論あたりのコストを大幅に削減できるだけでなく、レイテンシーの改善、信頼性の向上、プライバシーの強化、さらにはオフライン対応も可能になります。未来は「すべてクラウド」でも「すべてオンデバイス」でもなく、ハイブリッド型になると考えています。しかし、インタラクティブでリアルタイム性が求められるユースケースにおいては、オンデバイスが想定以上に大きな割合を占めるようになるでしょう。Miraiはその移行を現実的なものにします。

プラットフォームシフト

これは単なる技術革新ではなく、プラットフォーム構造の変化であると考えています。これまで、開発者の可能性はOSベンダーの進化速度に依存してきました。しかし、オンデバイスAIの進展により、開発者はOSのアップデートを待つことなく、ローカルに高度な知能を組み込むことが可能になります。その結果、OSの上に新たなインフラレイヤーが形成される余地が生まれます。Miraiは、その次世代レイヤーの中核となる可能性を秘めています。

なぜ今、なぜMiraiなのか

インフラへの投資はタイミングが重要です。AIチップがあらゆるデバイスに搭載されるようになり、課題(コスト、レイテンシー、信頼性)は明確になりました。そして需要は急速に拡大しています。Miraiはその交差点に立っています。
起業家たちは、すでに大規模なコンシューマーAIプロダクトを構築し、スケールさせてきた実績を持ちます。そして今度は、次の時代を支えるインフラレイヤーに、その情熱と実行力を注いでいます。
私たちは、ローカルで、瞬時に、そして手頃なコストで動作するAI――その「AIネイティブ」な体験を定義するMiraiを支援できることを、大変嬉しく思います。

【Miraiについて】

・X(Twitter) : @trymirai
・LinkedIn : Mirai Tech Inc.
・起業家 : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)
・ウェブサイト : trymirai.com
・メディア掲載 :
https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer
https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

(EN)

Why we invested in Mirai

Mirai is building the on-device inference infrastructure layer the market has been missing-and its timing couldn’t be more critical. I first met Alexey and Dima when they were building Prisma and Reface. What stood out wasn’t just product instinct, but deep technical rigor: they built internal infrastructure that scaled. Now they’ve reunited to tackle something foundational-high-performance on-device inference.

AI has shifted from novelty to expectation. As voice assistants, real-time translation, code completion, and copilots proliferate, the assumption that all inference belongs in the cloud is breaking. Latency budgets are tighter. Privacy expectations are higher. And inference costs are no longer negligible-they’re material.

That’s why we invested in Mirai Tech.

Mirai builds on-device AI inference infrastructure for Apple Silicon, enabling developers to run modern models locally with production-grade performance. In internal benchmarks, Mirai delivers a 37% increase in generation speed and up to 59% faster prefill versus MLX on certain model-device pairings. On-device performance isn’t a marginal gain-it’s often the difference between instant and unusable.

The Inflection Point

Specialized AI compute is now standard in consumer devices. The hardware is ready-especially on Apple Silicon-but the software stack lags behind.

On-device inference is a systems problem. Performance varies across chips, model architectures, device generations, and memory constraints. The “one runtime fits all” approach breaks down quickly. Mirai’s mission is to make on-device inference as accessible as cloud APIs-without requiring every team to master low-level optimization.

The Economics

As AI workloads become continuous-voice, code completion, real-time assistance-cloud costs compound. At scale, they directly constrain product ambition.

Shifting the right workloads to the device dramatically lowers per-inference costs while improving latency, reliability, privacy, and offline capability. The future isn’t purely cloud or purely on-device-it’s hybrid. But on-device will take a much larger share of interactive, real-time use cases than most expect. Mirai makes that shift practical.

The Platform Shift

This is also a power shift in the stack. For years, OS vendors dictated the pace of developer capability. On-device models change that dynamic. Developers can ship intelligence locally without waiting for OS primitives.

That creates space for new infrastructure layers above the OS-runtimes that evolve faster than iOS or Android release cycles. Mirai’s long-term vision aligns with that opportunity.

Why Now, Why Mirai

Infrastructure timing matters. The substrate is ready (AI chips everywhere), the pain is real (cost, latency, reliability), and demand is rising.

Mirai sits at that intersection, led by founders who’ve already built and scaled consumer AI products-and are now applying that intensity to the infrastructure layer the next era will depend on.

We’re excited to back Mirai as they help define what “AI-native” feels like when intelligence runs locally, instantly, and affordably.

【About Mirai】

・X(Twitter) : @trymirai
・LinkedIn : Mirai Tech Inc.
・Founders : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)
・Website : trymirai.com
・Media coverage :
https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer
https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

プレスリリース提供:PR TIMES

記事提供:PRTimes

記事引用:アメーバ?  ブックマーク: Google Bookmarks  Yahoo!ブックマークに登録  livedoor clip  Hatena ブックマーク  Buzzurl ブックマーク

ニュース画像

一覧

関連ニュース

とれまがマネー

とれまがマネー

IR動画

一覧

とれまがニュースは、時事通信社、カブ知恵、Digital PR Platform、BUSINESS WIRE、エコノミックニュース、News2u、@Press、ABNNewswire、済龍、DreamNews、NEWS ON、PR TIMES、LEAFHIDEから情報提供を受けています。当サイトに掲載されている情報は必ずしも完全なものではなく、正確性・安全性を保証するものではありません。当社は、当サイトにて配信される情報を用いて行う判断の一切について責任を負うものではありません。

とれまがニュースは以下の配信元にご支援頂いております。

時事通信社 IR Times カブ知恵 Digital PR Platform Business Wire エコノミックニュース News2u

@Press ABN Newswire 済龍 DreamNews NEWS ON PR TIMES LEAF HIDE

Copyright (C) 2006-2026 sitescope co.,ltd. All Rights Reserved.