Mac mini M4 を レンタル して Core ML を回すと、mlmodelc 同時コンパイル・批推論・ユニファイドメモリ・I/O が重なります。対照表と コマンド PLH。ホーム・算力選定・購入。
前提:検証・mlmodelc・批推論
意思決定対照表(同時コンパイル・バッチ・I/O・外付け・キュー・費用)
出発点。モデル・解像度・OS でスイープ補正。
| プロファイル | 同時コンパイル数 | バッチ(B) | I/O(内蔵 NVMe) | 外付けディスク | キュー・タイムアウト(待ち/計算) | 日額/月額レンタル費用の目安(定性) |
|---|---|---|---|---|---|---|
夜間 CI mlmodelc ファーム |
16GB: 1(+薄いキュー)/24GB: 1〜2(セマフォ) | 推論バッチより コンパイルキュー深さ がレバー | 順書き・中間;同時 2 超は競合 | 出力・ログを外付けへ | Wq 短/Wc≈p95×2+α | 日額向き(スパイク) |
| オンライン批推論(ウォームモデル) | 0〜1(デプロ直後のみ) | 中〜大;ANE/GPU はモデルプロファイル次第 | 読み・プリフェッチ;バッチ間ウォーム | 任意;大キャッシュは外付け RO | Wq 中/Wc にウォーム余裕 | 月額・固定が単純 |
| マルチテナント共有ノード | ≤1(グローバルロック推奨) | テナント別 小バッチ +同時実行キャップ | I/O 競合;公平スケジュ | テナント別スクラッチ | Wq 長+降格/Wc=SLA | 分割時 月 中〜高;分離が安いことも |
実行可能なコマンド・パラメータ・プレースホルダ
プレースホルダを環境に合わせて置換。
コンパイル例(macOS 向け mlmodelc)
xcrun coremlcompiler compile \
"<PATH_INPUT.mlpackage|PATH_INPUT.mlmodel>" \
"<PATH_OUTPUT_DIR>" \
--platform macos \
--deployment-target "<MACOS_MIN_VERSION>"
coremltools(Python)のバージョン固定例
python3 -m pip install "coremltools==VER_PLACEHOLDER"
MLModelConfiguration の compute units はステージングのみで比較。詳細は Apple ドキュメント参照。
キュー・タイムアウトと降格
待ちと計算のタイムアウトを分離。降格は B 縮小→小モデル→部分結果+DLQ。多リージョンはデータをノードローカル、制御のみ遠隔が RTT 有利。
FAQ
Git に mlmodelc? 基本はアーティファクト保管、リポは仕様とハッシュ。
CLI のみ? CLT+コンパイラ構成が要。ヘルプでイメージ確認。