今年夏天,許多臺灣民眾都很忙碌,可能都會覺得每週都有不同的議題需要補課,大家都非常認真參與,從民主補課:2024國會職權修法爭議、科技補課:2024台北國際電腦展、娛樂補課:2024金曲獎,一直到最近落幕的體育與性別補課:2024巴黎奧運,接下來,還有會計記帳補課:2024年總統選舉政治獻金申報爭議。在關心各種時事的變化之餘,也令不少人反思自己的不足與認知盲點,感慨有許多能力是課堂、家庭學不到的。

單就商業與科技領域而言,生成式AI相關消息是最熱門的議題,例如,7月底Meta公司釋出Llama 3.1,提供4,050億個參數的旗艦級模型、700億個參數的高效能模型、80億個參數的輕量級模型,而且發表之初,就有多達26家合作廠商表態支援,Meta也特地列出其中10家廠商與支援的特色多寡對照表,並且公開內容多達92頁的研究論文《The Llama 3 Herd of Models》,到了8月初,他們發表另一篇14頁內容的論文《RDMA over Ethernet for Distributed AI Training at Meta Scale》。

在臺灣,我們看到Nvidia與AWS發出中文新聞稿,在社交網站、網路社團、Podcast上,也有一些關注AI發展的專家介紹這項技術突破。針對這項眾所矚目的生成式AI模型最新進展,我們也想盡一份心力,與大家一起解讀Meta公司發布的技術文件,於是,有了這次封面故事的報導,由我們的技術主筆張明德整理當中的硬體基礎架構組成,憑藉我們對企業級IT基礎架構相關技術的了解,一起讓更多人認識用來訓練生成式AI模型的超大規模運算環境,希望社會大眾對於AI硬體技術的討論,不要僅止於各品牌的競爭、市場供需的議題,而能夠多花一些心力更深入理解個別技術的內涵。

正如超微(AMD)執行長蘇姿丰先前在Computex來訪時,曾說:臺灣是唯一說到CoWoS先進封裝,每人都能理解的地方,在AI當紅的此刻,許多人對於GPU、HBM記憶體、CXL等技術都能侃侃而談,尤其是廣大股民,然而,各種元件的發展脈絡,以及彼此之間的具體連動關係,卻可能一知半解!期盼大家除了看每天的新聞與公司公告的財報,也能到相關廠商的網站,親自閱讀與整理他們的產品規格、技術文件、解決方案簡介與白皮書,甚至是他們發表的重要研究論文,從中可以建構你自己的觀察。現在生成式AI很方便,如果看不懂內容,也可以請AI幫你解釋、旁徵博引。

如果還是覺得很麻煩、很花時間,目前有許多專業的科技媒體、Podcaster會持續追蹤熱門的科技議題,幫大家進行初步的解讀與整理,這些都是可以參考的消息管道,之後再根據自己較關切的議題深入了解。而且,時間一久,大部分技術都會推陳出新,各種技術之間往往會出現相互競爭、合作,甚至發生取代、汰除的狀況,在它們進行更迭之際,我們也有機會透過廠商的宣傳資訊、社群討論,去了解箇中優劣差異。

事實上,當前我們處於一個公開資訊充斥甚至氾濫的時代,幸運的是,想要了解一個技術議題,多半都找得到各種說明文件,如今也有AI助手協助降低語言與理解相關發展脈絡的隔閡,但不幸的是,眾聲喧嘩,雜訊、謠言、假消息、陰謀論俯拾皆是,如果未能建立自己的識讀能力,往往就無法判斷事情的真偽,而高估或輕視個別產品或技術的能耐與發展成熟度。

若要減少誤會,首先仰賴技術源頭端的資訊供給,開發與維運團隊透過文件、影片等各種資訊形式,標榜功能、特色的突破與改善之餘,能否在保護企業營業機密的條件之下,揭露運作原理、建置架構、上線之後營運的成功與失敗經驗。因為有了這些情報的佐證,能夠更大程度地幫助眾人認知此項產品或技術的發展狀態,想要鞏固市場信心,這些內容的公開很重要,例如,Meta對於生成式AI模型的發展,就做出很好的示範。

另一個關鍵是閱聽眾須培養主動求知的習慣,隨著知識與教育的普及,資訊科技並非高不可攀,想要具備了解這方面進展的能力,目前有許多管道可以幫忙養成,但如果大家空有好奇心卻不願積極、主動接觸,終究流於人云亦云、隨波逐流,而無法真正認清技術發展的態勢,相當可惜。

 相關報導 

專欄作者

熱門新聞

Advertisement