發表文章

目前顯示的是 3月, 2022的文章

[ORAN] AI/ML workflow description and requirements ~3

圖片
在之前的文章中,  我們介紹了 O-RAN 的 設計想法 , 以及 基本的組成元件 , 在這一篇文章中, 我們將繼續介紹 O-RAN 上的布署方式與資料流程. 我們先從資料流程開始, 可以用下圖總括說明: 相較於之前介紹的 5 大元件, 此圖中省略了 Model Compiling Host, 同時, 在流程中, 加入了 Continuous Operation 的功能方塊, 其定義為: Provides a series of online functionalities for the continuous improvement of AI/ML models within the whole AI/ML lifecycle. It includes Verification/ Monitoring/ Analysis/ Recommendation/ Continue Optimization. (在元件介紹中, Continuous Operation 在主要的資料交換流之外, 只提供效能反饋) 我們先不論為何兩者為何不一致, 但 Continuous Operation 的確可以提供很多功用, 在不考慮 online learning 下, Continuous Operation 可以透過即時的反饋進行 Model 的選擇, 此功能表現在 Continuous Operation 和 Model Management 的連線上, 在考慮 online learning 時, Continuous Operation 可以提供即時的系統效能反饋, 用以進行像是 Reinforcement Learning 這種可以隨著時間動態調整的 ML 框架. 在圖中, 另一個重要的區分為, Actor 所執行的 Action 明確分成三類: Configuration management over O1, subjects of actions: near-RT RIC, O-CU, O-DU/O-RU Control Action/ Guidance over E2 subjects of actions: O-CU, O-DU/O-RU Policy over A1, E2 subjects of actions: near-RT RIC, O-CU, O-D

[ORAN] AI/ML workflow description and requirements ~2

圖片
和 3GPP 不同, O-RAN 的標準並非兩階段的定義 (Study->Spec), 同時, 可能是因為組織相對沒有 3GPP 那麼龐大, 在 Spec 內容的呈現上, 出現許多像是在討論階段的文字, 例如, 在 AI/ML 這份討論中, 就說明了其想像的 AI/ML 設計準則. 這樣的文字, 因為過於模糊, 在 Spec 中其實不太適合, 但是反過來說, 也提供一種像是立法依據的角度讓我們了解 O-RAN 組織的想像. 以下就是 AI/ML 的設計準則, 會呈現原有的原文, 以及翻譯理解的內容: Principle 1: In O-RAN we will always have some offline learning as a proposed best practice (even for reinforcement learning type of scenarios). In the current document, offline training means a model is first trained with offline data, and trained model is deployed in the network for inference. Online training refers to scenarios such as reinforcement learning, where the model  ‘learns’ as it is executing in the network. However, even in the latter scenario, it is possible that some offline training may happen. [準則1] 在 O-RAN 中所有的 ML model 都應該被預先訓練過 (offline learning), 就算是 reinforcement learning 這種以即時反饋來進行學習的架構, 都應該先以預先收集的資料進行模型的學習.  [註] 這一條準則應該是因為 O-RAN 架構中, 實際的 Action 會影響一真實網路的通訊效能, 因此無法容忍一個尚未收斂的網路進行布建. Principle 2: A model need

[ORAN] AI/ML workflow description and requirements ~1

圖片
在 O-RAN 的目標, 就是希望透過一個智能網路控制器 (RAN Intelligent Controller, RIC), 提供無線接取網路 (Radio Access Network, RAN) 更有效率與即時的控制, 為了達成這樣的目標, O-RAN 也針對其運算架構有一系列的探討. 在 O-RAN 的想像中, 其計算架構主要針對深度學習 (deep learning) 設計, 並且針對不同應用與不同類型的演算法, 提供一系列不同的架構. 為了提供一個彈性的計算框架,  在 O-RAN 文件中, 將運算單元分成 5 個主要套件: 名稱 描述 布建位置 ML Training Host The network function which hosts the training of the model, including offline and online training. [ 註 ] online training 部分和 ML Inference Host 的功能重疊 Non-RT RIC, offline (using data collected from the RIC, O-DU and O-RU) [ 註 ] offline 意指在 RIC 外完成 ML Model 訓練 ML Inference Host The network function which hosts the ML model during inference mode (which includes both the model execution as well as any online learning if applicable). The ML inference host often coincides with the Actor. [ 註 ] Actor 和 ML Inference Host 差別 : Actor 利用 ML 演算法結果進行決策 (Action), 此決策可能基於多個 ML 演算法的輸出