[ORAN] AI/ML workflow description and requirements ~3

在之前的文章中, 
我們介紹了 O-RAN 的設計想法, 以及基本的組成元件,
在這一篇文章中, 我們將繼續介紹 O-RAN 上的布署方式與資料流程.
我們先從資料流程開始, 可以用下圖總括說明:


相較於之前介紹的 5 大元件, 此圖中省略了 Model Compiling Host,
同時, 在流程中, 加入了 Continuous Operation 的功能方塊, 其定義為:
Provides a series of online functionalities for the continuous improvement of AI/ML models within the whole AI/ML lifecycle. It includes Verification/ Monitoring/ Analysis/ Recommendation/ Continue Optimization.
(在元件介紹中, Continuous Operation 在主要的資料交換流之外, 只提供效能反饋)

我們先不論為何兩者為何不一致, 但 Continuous Operation 的確可以提供很多功用,
在不考慮 online learning 下, Continuous Operation 可以透過即時的反饋進行 Model 的選擇,
此功能表現在 Continuous Operation 和 Model Management 的連線上,
在考慮 online learning 時, Continuous Operation 可以提供即時的系統效能反饋,
用以進行像是 Reinforcement Learning 這種可以隨著時間動態調整的 ML 框架.

在圖中, 另一個重要的區分為, Actor 所執行的 Action 明確分成三類:
  1. Configuration management over O1,
    subjects of actions: near-RT RIC, O-CU, O-DU/O-RU
  2. Control Action/ Guidance over E2
    subjects of actions: O-CU, O-DU/O-RU
  3. Policy over A1, E2
    subjects of actions: near-RT RIC, O-CU, O-DU/O-RU
不同 Action 的類別, 也對應到不同的布署與應用情境,
在目前的設計中, 可以分成以下4個類別:

其中, FFS 代表 For Further Study, 也就是尚未定案的部分,
根據上述提供的四種樣態, 我們可以找出其對應的部署方式:
  1. Scenario 1.1: ML 模型的訓練與執行都在 non-RT RIC, 其結果可以透過
    (a) A1 切換 near-RT RIC 的 policy, 或是 (b) 透過 O1 直接設定 O-RAN 中的節點.
  2. Scenario 1.2: ML 模型的訓練在 non-RT RIC, 執行在 near-RT RIC,
    考慮到 Action 在 near-RT RIC 上形成, 因此只能透過 E2 控制 O-RAN 中的節點.
  3. Scenario 1.3: 此模式應是 1.1 的特例, 將 ML 模型的訓練與選擇移出 non-RT RIC,
    或許是考慮到 non-RT RIC 較有限的硬體能力, 此模型可對應訓練時龐大計算的需求.
  4. Scenario 1.4: 此模式應是 1.1 的特例, 但把 ML 模型直接放到 O-CU/O-DU 上執行,
    此模式雖然標示為 FFS, 但卻因為跳過 E2 而最符合現有硬體架構
    (O1 可用 netconf 等現有硬體協定實作), 反而可能是能最快實現.
會分成以上4種應用的樣態, 
其實和 O-RAN 不同的響應時間, 以及不同 ML/AI 的需求相關, 
其中的對應關係, 我們將在下一篇文章中進行討論.


留言

熱門文章

LTE筆記: RSRP, RSSI and RSRQ

[WiFi] WiFi 網路的識別: BSS, ESS, SSID, ESSID, BSSID

LTE筆記: 波束成型 (beamforming) 和天線陣列