夢に描いたエッジAI製品を実現

革新者の手にチップの力を届ける
お問い合わせ
{/*} //

信頼され、支持されている

# 製品

当社の完全な SOC 導入ツールキット

SDK
次世代 AI コンパイラーをベースにしたワンストップ AI デプロイ SDK。
ランタイム
デバイス間のワンストップSoCレベルの推論エンジン。
パフォーマンスダッシュボード
実際のパフォーマンスを評価および追跡するためのワンストッププラットフォーム。

Software development kit (sdk)

runtime

performance dashboard

メリット

市場投入までの時間の短縮
完全な SoC イネーブルメント
安定性とツーリング

製品ベンダー向け

さらに詳しく

ハードウェアおよび IP ベンダー向け

さらに詳しく
# ユースケース

サポート対象アプリケーション

Google/
gemma-7b
cpu
gpu
npu
Meta-llama/
meta-Llama-3.2-1B
cpu
gpu
npu
OpenAI/
gpt2
cpu
gpu
npu
Deepseek-AI/
deepseek-R1-Distill-Qwen-1.5B
cpu
gpu
npu
Qwen/
qwen3-1.7B
cpu
gpu
npu
EleutherAI/
gpt-neo-2.7B
cpu
gpu
npu
FacebookAI/
xlm-roberta-large
cpu
gpu
npu
HuggingFaceTB/
smolLM2-1.7B
cpu
gpu
npu
HuggingFaceH4/
zephyr-7b-beta
cpu
gpu
npu
Qwen/
qwen3-0.6B
cpu
gpu
npu
Microsoft/
phi-2
cpu
gpu
npu
MistralAI/
mistral-7B-instruct-v0.2
cpu
gpu
npu
Meta-llama/
meta-llama-3-8B
cpu
gpu
npu
And many more ...
cpu
gpu
npu
Google/
inceptionv4
cpu
gpu
npu
Microsoft/
resnet50
cpu
gpu
npu
Hustvl/
yolos-tiny
cpu
gpu
npu
Microsoft/
resnet18
cpu
gpu
npu
Google/
mobilenetv2
cpu
gpu
npu
OpenAI/
clip-vit-base-patch32
cpu
gpu
npu
Apple/
mobilevit-xx-small
cpu
gpu
npu
Google/
vit-base-patch16-224
cpu
gpu
npu
Facebook/
detr-resnet-50
cpu
gpu
npu
PINTO/
CenterNet
cpu
gpu
npu
Yoloact-edge/
mobilenetv2
cpu
gpu
npu
Darknet/
YOLOv4
cpu
gpu
npu
Apple/
deeplabv3-mobilevit-small
cpu
gpu
npu
Nvidia/
segformer-b0-512
cpu
gpu
npu
Fast-SRGAN/
fsrgan
cpu
gpu
npu
MiDaS/
midas-v2.1-small
cpu
gpu
npu
Google/
deeplabv3
cpu
gpu
npu
Google/
mobile-deeplabv3-plus
cpu
gpu
npu
And many more ...
cpu
gpu
npu
Tensorflow/
mobilebert
cpu
gpu
npu
MLcommons_mobile/
mobile-bert
cpu
gpu
npu
Distilbert/
distilbert-base
cpu
gpu
npu
mlcommons_tiny/
keyword
cpu
gpu
npu
mlcommons_tiny/
visualwakewords
cpu
gpu
npu
Google/
bert-base-uncased
cpu
gpu
npu
Google/
mobilebert-uncased
cpu
gpu
npu
Amazon/
chronos-t5-tiny
cpu
gpu
npu
And many more ...
cpu
gpu
npu
FacebookAI/
wav2letter
cpu
gpu
npu
Microsoft/
speecht5
cpu
gpu
npu
Facebook/
mms-tts-eng
cpu
gpu
npu
Microsoft/
wavlm-base-plus
cpu
gpu
npu
OpenAI/
whisper-base
cpu
gpu
npu
usefulsensors/
moonshine-base
cpu
gpu
npu
MIT/
ast-finetuned-audioset
cpu
gpu
npu
And many more ...
cpu
gpu
npu
PointNet/
pointnet++
cpu
gpu
npu
RTCnet/
rtcnet
cpu
gpu
npu
TMVANet/
tmvanet
cpu
gpu
npu
FFTRadNet/
fftradnet
cpu
gpu
npu
And many more ...
cpu
gpu
npu

対応ハードウェア

ARM Cortex-M
ARM Cortex-A
ARM SVE
Apple Silicon
Qualcomm Oryon
Qualcomm Kryo
No items found.
Google Tensor
No items found.
AMD x86-64
No items found.
Intel x86-64
No items found.
RISC-V
No items found.
ARM Mali
ARM Immortalis
No items found.
Qualcomm Adreno
Apple Silicon GPU
Nvidia RTX family
No items found.
ARM Ethos
No items found.
NXP Neutron
No items found.

仕組み

当社の次世代 AI コンパイラ。

Rooflineは、MLIR(マルチレベル中間表現)をベースにした次世代AIコンパイラを構築しています。

階層化された抽象化手法を用いることで、当社のコンパイラは主要なAIフレームワークのモデルを最適化された中間表現に変換し、多様なハードウェアバックエンド向けに効率的な実行可能コードへコンパイルします。
柔軟なアーキテクチャは新しいハードウェア、特にNPUに容易に適応し、システム全体での異種実行を可能にします。Rooflineにより、エッジSoCの全潜在能力が活用可能となります。

未来に焦点を当てた AI チームの一員になりましょう

ルーフラインでは、持続可能なAIテクノロジーを推進し、柔軟なオンサイトまたはリモートでの役割を担う意欲的な人材を求めています。
私たちと一緒に、有意義で破壊的なイノベーションに貢献してください。
オープンロール

よくある質問

ルーフラインの秘伝のソースとは?

Rooflineの秘密のソースは、再ターゲット可能なAIコンパイラに秘められています。MLIRとIREEを基盤とし、当社のSDKはエッジAI向けに真に柔軟で、したがってスケーラブルなデプロイメントソリューションを初めて提供します。

ルーフラインはどのAIフレームワークをサポートしていますか?

RooflineはPyTorch、TensorFlow Lite、TensorFlow、ONNXとシームレスに連携します。開発者にとって重要性が増しているPyTorchに主眼を置いています。

ルーフラインはどのモデルをサポートしていますか?

私たちは毎日、Hugging Faceで最も人気のあるアーキテクチャを含む、フレームワークを横断した数百のモデルからなるモデル動物園に対してテストを実施しています。サポート対象モデルの選択は「サポート対象アプリケーション」セクションでご確認いただけます。特定のモデルのサポートにご興味がある場合はお問い合わせください。

独自のモデルがありますが、Rooflines SDKで使用できますか?

はい、独自モデルをサポートしています。当社のコンパイラが一般的なレイヤー、演算子、量子化技術の大半をカバーしているため、通常はそのまま実行可能です。モデルは常に非公開のまま維持され、他のモデルと同様のシンプルなワークフローでデプロイできます。

ルーフラインを使用するには、AI モデルを変更する必要がありますか?

いいえ、モデルは修正なしで実行できるはずです。すでに一般的なレイヤーや演算子の大半、さらに量子化手法もサポートしています。

Roofline はどのハードウェアをサポートしていますか?

Rooflineは、関連するあらゆるCPUおよびモバイルGPUをサポートします。NPUについては、主要なチップおよびIPベンダーと提携し、そのハードウェアを統合しています。サポート対象ハードウェアセクションでは、ハードウェアの選択とケーススタディへのリンクを提供しています。