| Nvidia | GPU | GPUDirect | AI | 資料中心

Nvidia的護城河是一片海洋

GPUDirect技術隨著Nvidia GPU的走紅,我們看到更多企業級儲存廠商積極支援這系列技術,搶搭AI應用商機

2023-12-22

| Nvidia | GPU | GPUDirect | AI | 資料中心

【AI應用帶動Nvidia新世代GPU儲存I/O架構需求】GPUDirect Storage產品應用大爆發

HPC與AI的資料量持續攀升,促使Nvidia用於儲存裝置與GPU直連傳輸的GPUDirect Storage架構,在近2年來開始普遍獲得儲存廠商支援,成為儲存設備搭配GPU應用的標準架構

2023-12-22

| Nvidia | GPU | GPUDirect | AI | 資料中心

【高效率GPU I/O躍居次世代AI資料中心重要角色】輝達GPU直連應用架構的進化

隨著AI應用擴大,資料傳輸的I/O通道也成為決定效能優劣的關鍵所在,Nvidia挾著GPU市場的壟斷地位,其GPUDirect技術形同GPU I/O架構的標準,也成為企業IT應用必備環節

2023-12-22

| Nvidia | NeMo | 生成式AI | 嵌入模型 | Nvidia NeMo Retriever | 人工智慧微服務

Nvidia推出可建置企業級聊天機器人的生成式AI微服務NeMo Retriever

Nvidia人工智慧微服務NeMo Retriever可供企業簡單地客製檢索增強生成(RAG)應用,透過連接大型語言模型和企業資料集,實作以提示詞即可獲得準確資訊的智慧查詢功能

2023-11-30

| Nvidia | 財報 | 營收

Nvidia季報出爐,營收成長2倍,獲利成長12倍

Nvidia在2024財年第三季營收達181.2億美元,其中有80%來自資料中心業務

2023-11-22

| Nvidia | AMD | ARM | 微軟 | Windows on ARM | 英特爾 | CPU

傳聞Nvidia與AMD都將推出Arm架構的CPU

《路透社》與《彭博社》的預測一旦成真,Nvidia與AMD都將加入高通的行列,成為微軟Windows on Arm的晶片供應商,進而影響英特爾的CPU晶片龍頭地位

2023-10-24

| Nvidia | GPT-4 | Eureka | 機器人 | 強化學習

Nvidia新AI系統能訓練機器手轉筆、開抽屜等動作

Nvidia新AI系統Eureka以Open AI GPT-4為基礎,生成出的獎賞程式可從事機器人的嘗試錯誤學習,訓練實體機器人執行開抽屜或拿剪刀等近30種複雜動作

2023-10-23

| AI耗電量 | 電力 | 用電量 | AI推論 | 能源 | google | AI搜尋 | Nvidia | AI伺服器 | ChatGPT

科學家預估AI到2027年的用電量堪比荷蘭

數位經濟平臺Digiconomist、比特幣耗電量指數的創辦人Alex De Vries預估到了2027年,AI的用電量可能等同於荷蘭一年的電力使用

2023-10-12

| Nvidia | 歐盟 | 壟斷 | A100 | H100 | AI晶片

法國政府搜索Nvidia辦公室,歐盟評估啟動反托拉斯調查

法國為調查Nvidia是否有壟斷AI晶片市場的行為,搜索這家GPU大廠辦公室,歐盟競爭委員會也在蒐集資訊,以決定是否對Nvidia啟動正式調查

2023-10-02

| DOCOMO | Nvidia | 5G | GPU

NTT DOCOMO與Nvidia合作以GPU加速5G網路

電信公司NTT DOCOMO推出5G Open RAN解決方案OREX,其採用Nvidia GPU與資料處理單元(DPU),能透過硬體加速5G資料處理,提高虛擬無線接取網路(vRAN)的效能

2023-09-28

| Xanadu | Nvidia | 量子

Xanadu與Nvidia合作突破量子模擬瓶頸,在超級電腦加速模擬可達36量子位元

Xanadu研究人員利用cuQuantum SDK和PennyLane函式庫,在超級電腦上分散加速模擬36量子位元,達到目前其他研究的2倍量子位元數

2023-09-14

| Nvidia | LLM | 推論

Nvidia開源TensorRT-LLM函式庫強化H100 GPU大型語言模型推論效能

Nvidia推出TensorRT-LLM模型最佳化函式庫,強化H100 GPU推論能力,協助開發者高效運行大型語言模型,結合動態批次處理技術,提高GPU使用效率

2023-09-12