| 雲原生 | wasm | 容器 | VM | AI推論 | CUDA

為何Wasm檔案超小執行速度極快?虛擬機器、容器、Wasm三大雲原生技術大比較

AI推論程式碼、CUDA runtime、PyTorch框架和10GB的LLM基礎模型,用Wasm編譯後的Bytecod檔,可以大幅縮小到數MB,比同樣功能的容器或VM映像檔,足足少了1千倍,這正是Wasm冷啟動速度可以超級快的原因。

2024-11-29

| 微軟 | WSL | CUDA | GPU | Linux

WSL現在廣泛支援GPU加速機器學習工作負載

Windows 11用戶可以在WSL中,依照機器學習工作負載的需求,配置Nvidia CUDA或是TensorFlow-DirectML,以使用GPU加速運算

2021-10-07

| VS Code | C++ | Apple Silicon | CUDA

VS Code C++擴充套件語言伺服器原生支援Apple Silicon

除了VS Code支援Apple Silicon之外,現在最新的C++擴充套件語言伺服器,也開始原生支援Apple Silicon,提供更好的執行效能

2021-04-17

| Nvidia | CUDA | HPC | 開發

Nvidia釋出高效能計算應用程式開發工具包

高效能計算應用程式開發工具包CUDA-X HPC,提供了函式庫和編譯器等高效能計算應用程式開發工具,幫助開發人員開發專業領域應用

2019-06-18

| 深度學習晶片 | DLU | 富士通 | CUDA | Post-K | 京超級電腦

挑戰GPU地位,富士通深度學習晶片DLU加速卡首度曝光,明年初上市

DLU加速卡將能支援Nvidia的CUDA運算框架,希望做到CUDA平行運算程式不用修改就可改用DLU支援,要讓DLU加速卡成為GPU加速卡的替代選擇

2018-05-16