[ORAN] AI/ML workflow description and requirements ~3
在之前的文章中,
在這一篇文章中, 我們將繼續介紹 O-RAN 上的布署方式與資料流程.
我們先從資料流程開始, 可以用下圖總括說明:
同時, 在流程中, 加入了 Continuous Operation 的功能方塊, 其定義為:
Provides a series of online functionalities for the continuous improvement of AI/ML models within the whole AI/ML lifecycle. It includes Verification/ Monitoring/ Analysis/ Recommendation/ Continue Optimization.
(在元件介紹中, Continuous Operation 在主要的資料交換流之外, 只提供效能反饋)
我們先不論為何兩者為何不一致, 但 Continuous Operation 的確可以提供很多功用,
在不考慮 online learning 下, Continuous Operation 可以透過即時的反饋進行 Model 的選擇,
此功能表現在 Continuous Operation 和 Model Management 的連線上,
在考慮 online learning 時, Continuous Operation 可以提供即時的系統效能反饋,
用以進行像是 Reinforcement Learning 這種可以隨著時間動態調整的 ML 框架.
在圖中, 另一個重要的區分為, Actor 所執行的 Action 明確分成三類:
- Configuration management over O1,
subjects of actions: near-RT RIC, O-CU, O-DU/O-RU - Control Action/ Guidance over E2
subjects of actions: O-CU, O-DU/O-RU - Policy over A1, E2
subjects of actions: near-RT RIC, O-CU, O-DU/O-RU
不同 Action 的類別, 也對應到不同的布署與應用情境,
在目前的設計中, 可以分成以下4個類別:
其中, FFS 代表 For Further Study, 也就是尚未定案的部分,
根據上述提供的四種樣態, 我們可以找出其對應的部署方式:
- Scenario 1.1: ML 模型的訓練與執行都在 non-RT RIC, 其結果可以透過
(a) A1 切換 near-RT RIC 的 policy, 或是 (b) 透過 O1 直接設定 O-RAN 中的節點. - Scenario 1.2: ML 模型的訓練在 non-RT RIC, 執行在 near-RT RIC,
考慮到 Action 在 near-RT RIC 上形成, 因此只能透過 E2 控制 O-RAN 中的節點. - Scenario 1.3: 此模式應是 1.1 的特例, 將 ML 模型的訓練與選擇移出 non-RT RIC,
或許是考慮到 non-RT RIC 較有限的硬體能力, 此模型可對應訓練時龐大計算的需求. - Scenario 1.4: 此模式應是 1.1 的特例, 但把 ML 模型直接放到 O-CU/O-DU 上執行,
此模式雖然標示為 FFS, 但卻因為跳過 E2 而最符合現有硬體架構
(O1 可用 netconf 等現有硬體協定實作), 反而可能是能最快實現.
其實和 O-RAN 不同的響應時間, 以及不同 ML/AI 的需求相關,
其中的對應關係, 我們將在下一篇文章中進行討論.
留言
張貼留言