| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 國網中心 | AI超級電腦 | 臺灣杉 | 張朝亮

【LLM關鍵基礎建設:算力】因應大模型訓練需求,國網中心算力明年大擴充

算力9 PFLOPS的臺灣杉2號,今年因應TAIDE計畫擴充了4.8 PFLOPS。國網中心計畫,明年再增加16 PFLOPS算力,來因應更多AI大模型訓練需求

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE

【本土LLM:國科會TAIDE】打造臺版LLM供企業和公部門免費使用,還要開源繁中資料集

國科會以開源LLM為基礎,3步驟訓練出了懂臺灣用語的TAIDE模型,也將開源釋出給企業和公部門使用。對臺灣AI的長期發展更關鍵的下一步是建置繁中資料集

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 國網中心 | AI超級電腦

【一年從無到有,臺灣生成式AI發展下一步如何擴大?】臺灣發展LLM的4大挑戰

過去1年來,LLM成為各行各業甚至是國家秀AI力的亮點。臺灣產官學界都有LLM建置經驗,從他們的經驗,也看見不少臺灣長期發展的挑戰

2023-12-01

| 台智雲 | 福爾摩沙大模型 | 大型語言模型

【本土LLM成果:台智雲福爾摩沙大模型】靠3種平行化技術提高訓練效率,加速繁中LLM產品化

平行化運算是訓練LLM不可或缺的關鍵。台智雲在2022年下半年展開研究,以資料平行化、張量平行化和工作流程平行化來打造福爾摩沙系列模型

2023-12-01

| 台灣大哥大 | 智能客服 | 嵌入式模型 | 大型語言模型 | LLM

【企業LLM實戰:台灣大哥大】全體動員嘗試LLM,2大流程讓客服AI回答更準也更豐富

智能客服是台灣大嚐鮮LLM應用的重點,先用LLM作為客服大腦,後來發現,嵌入式模型搭配知識點,採取前後臺不同作業流程的效果更好

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 生成式AI

越來越難但非走不可的臺灣AI路

大型語言模型的競賽是一場馬拉松,現在才剛起步,各國、各大企業紛紛發展千億,甚至數千億量級參數的超大LLM模型。臺灣想要跟上,繁中訓練資料嚴重不足是第一個挑戰

2023-12-01

| 叡揚資訊 | AI Chatbot | AI對話機器人 | 繁中語料 | 大型語言模型 | LLM

【企業LLM實戰:叡揚資訊】實測多種LLM更走訪企業現場,歸納臺灣企業LLM應用3大挑戰

年初,專攻AI對話平臺的叡揚資訊開始嘗試不同的LLM,更參與了不少企業客戶LLM驗證。他們從這些實戰中,歸納出臺灣企業現在所面對的3大LLM課題

2023-11-30

| 李開復 | 01.AI | 大型語言模型 | Yi

李開復的AI新創公司公布並開源雙語AI LLM

前微軟亞洲研究院院長李開復創立的零一萬物(01.AI),公布其開源大型雙語(中/英文)模型Yi-6B及34B

2023-11-07

| HackerOne | 白帽駭客 | 生成式AI | OWASP | 大型語言模型 | LLM | 安全漏洞

超過6成的白帽駭客企圖利用生成式AI來發現漏洞

漏洞懸賞平臺HackerOne調查發現,有6成的白帽駭客開始利用生成式AI開發駭客工具,以找出更多的漏洞

2023-10-30

| 大型語言模型 | LLM | 微調 | 安全風險 | AI安全 | 模型安全 | GPT-3.5 Turbo | Llama-2

研究顯示微調LLM會削弱模型安全性

IBM研究院與普林斯頓大學、維吉尼亞科技大學聯合發表的論文指出,有三種方法可以透過微調LLM破壞開發者為模型加入的安全防護,例如數十萬組資料集中一旦含有不到100則的有害資料,就足以影響Meta Llama-2及OpenAI GPT-3.5 Turbo的安全性

2023-10-16

| 中研院 | CKIP-Llama-2-7b | LLM | 大型語言模型 | TAIDE

【剖析中研院大型語言模型事件的衝擊】為何臺灣必須擁有本土化的LLM

在10月6日國慶日前夕,中研院開源釋出了使用Llama 2所開發的繁中大型語言模型CKIP-Llama-2-7b,但由於一開始未說明該模型是明清人

2023-10-12

| FLM-101B | 大型語言模型 | LLM

研究人員以10萬美元開發出千億參數的大型語言模型

近期公開於Hugging Face平臺的大型語言模型FLM-101B,強調具備1,010億個參數及0.31TB token,研究人員強調開發成本只花了10萬美元,且效能媲美GPT-3和GLM-130B等知名模型

2023-09-18