AI-RAN: Nvidia Areial RAN - AODT (4)
在 AODT 中, 另一個重要的特色即在於對 AI/ML 演算法的支援,
在 Nvidia 的初始想法中, 數位雙生的主要目標即在於產生訓練模型用的訓練資料,
也因此, AODT 也提供了一個 AI/ML 的範例,
展示如何透過 AODT 所產生的訓練資料, 進行模型的訓練.
關於這一部分的內容, 相關的文件內容可以參考:
在此範例中, 強調的是如何透過 AODT 平台鑲嵌 AI/ML 演算法,
在 AODT 1.1 中, 提供兩個範例, 第一個是 CFR 的預測, 如下圖所示:
其基本想法即是透過收集加入雜訊後的 CFR 數值, 作為輸入,
以神經網路回估原始未加雜訊的 CFR 變化,
不過在此範例中, 通道的估計器 (Channel Predictor, 上圖橘框) 並不是一個泛化的估計器,
而是針對每一組傳送-接收端, 都有一個獨立實作模型,
因此, 期能夠預測的也只有時間上的變化 (N=5 slots 後的通道效應),
考慮在 AODT 環境中, 使用者移動模型為在開放場域中直線移動,
應可以透過數個連續的 CFR 數值, 預估短時間內的通道變化,
也就是有效反射路徑的連續變化.
另一個範例的應用也是通到估計,
不過, 其設計則是用以展示 AODT 進行模型優化的能力,
在此範例中, 先以 Sionna 的統計通道模型對模型預訓練 (ML Channel Estimator, 下圖橘框),
在以 AODT 實際的通道輸入 (解調完的 DMRS) 作為即時估計輸入,
DMRS 全名為: DeModulated Reference Symbols, 存在於 PUSCH (上行排程的通道),
然而, 對於單一的使用者而言, DMRS 只佔有部分的通訊資源 (Resource Block),
因此, 若我們要利用 DMRS 訊號幫助下行的排程 (scheduling),
我們必須利用少量的通道響應, 內差與外插出整體頻寬的通道變化, 也就是 CFR 數值,
這也就是此範例提供的目標, 如下圖所示:
展示了 AI-RAN 中, 如何把 AI/ML 模型引入真實 RAN 的運行機制,
Nvidia 也希望透過這樣的展示, 可以表現出 GPU 算力對於通訊效能的改善,
進而證明 AI-RAN 在真實網路中的增益.
留言
張貼留言