| Hugging Face | API漏洞 | LLM | 大型語言模型 | 供應鏈攻擊

Hugging Face API漏洞洩露驗證令牌,可讓攻擊者存取微軟、Meta、Google的AI模型

資安廠商Lasso Security發現AI模型資源平臺Hugging Face的API漏洞,讓該公司研究人員得以控制Meta Llama 2等熱門模型的程式碼儲存庫,也可能讓攻擊者透過污染訓練資料集等手法發動供應鏈攻擊

2023-12-05

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 生成式AI

越來越難但非走不可的臺灣AI路

大型語言模型的競賽是一場馬拉松,現在才剛起步,各國、各大企業紛紛發展千億,甚至數千億量級參數的超大LLM模型。臺灣想要跟上,繁中訓練資料嚴重不足是第一個挑戰

2023-12-01

| 台灣大哥大 | 智能客服 | 嵌入式模型 | 大型語言模型 | LLM

【企業LLM實戰:台灣大哥大】全體動員嘗試LLM,2大流程讓客服AI回答更準也更豐富

智能客服是台灣大嚐鮮LLM應用的重點,先用LLM作為客服大腦,後來發現,嵌入式模型搭配知識點,採取前後臺不同作業流程的效果更好

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 國網中心 | AI超級電腦

【一年從無到有,臺灣生成式AI發展下一步如何擴大?】臺灣發展LLM的4大挑戰

過去1年來,LLM成為各行各業甚至是國家秀AI力的亮點。臺灣產官學界都有LLM建置經驗,從他們的經驗,也看見不少臺灣長期發展的挑戰

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE

【本土LLM:國科會TAIDE】打造臺版LLM供企業和公部門免費使用,還要開源繁中資料集

國科會以開源LLM為基礎,3步驟訓練出了懂臺灣用語的TAIDE模型,也將開源釋出給企業和公部門使用。對臺灣AI的長期發展更關鍵的下一步是建置繁中資料集

2023-12-01

| 大型語言模型 | 繁中 | LLM | 國科會 | TAIDE | 國網中心 | AI超級電腦 | 臺灣杉 | 張朝亮

【LLM關鍵基礎建設:算力】因應大模型訓練需求,國網中心算力明年大擴充

算力9 PFLOPS的臺灣杉2號,今年因應TAIDE計畫擴充了4.8 PFLOPS。國網中心計畫,明年再增加16 PFLOPS算力,來因應更多AI大模型訓練需求

2023-12-01

| 叡揚資訊 | AI Chatbot | AI對話機器人 | 繁中語料 | 大型語言模型 | LLM

【企業LLM實戰:叡揚資訊】實測多種LLM更走訪企業現場,歸納臺灣企業LLM應用3大挑戰

年初,專攻AI對話平臺的叡揚資訊開始嘗試不同的LLM,更參與了不少企業客戶LLM驗證。他們從這些實戰中,歸納出臺灣企業現在所面對的3大LLM課題

2023-11-30

| IT周報 | XAI | LLM | 生成式AI | Chatbot | 安全 | 風險 | 白宮 | 聯合國

AI趨勢周報第233期:7月開始訓練33B語言模型,馬斯克揭露xAI首款Chatbot

馬斯克日前揭露旗下xAI公司的首款產品Grok;專為LLM設計,具30兆Token的開源資料集來了;拜登簽署美國首個AI行政命令;與OpenAI同等級!Jina AI開源第2代文字嵌入模型;OpenAI設立專屬團隊,要評估通用AI災難性風險;Google公布AI抓漏獎勵範圍,新添生成式AI類別

2023-11-05

| HackerOne | 白帽駭客 | 生成式AI | OWASP | 大型語言模型 | LLM | 安全漏洞

超過6成的白帽駭客企圖利用生成式AI來發現漏洞

漏洞懸賞平臺HackerOne調查發現,有6成的白帽駭客開始利用生成式AI開發駭客工具,以找出更多的漏洞

2023-10-30

| 史丹佛大學 | Stanford HAI | 基礎模型 | 透明度 | LLM | Lama 2 | OpenAI | PaLM 2 | BloomZ

史丹佛大學發表基礎模型透明度指標,Llama 2以54%居冠

執行基礎模型透明度調查的史丹佛大學HAI學院認為,模型的透明度反映了企業或學術界使用模型發展應用的潛在風險,但研究人員發現市面上十大基礎模型在透明度方面都不及格,即使被HAI評鑑為最佳的Meta Lama 2模型,其透明度表現在100項指標中也只拿下5成,遠低於研究人員預估的8成理想值

2023-10-20

| 大型語言模型 | LLM | 微調 | 安全風險 | AI安全 | 模型安全 | GPT-3.5 Turbo | Llama-2

研究顯示微調LLM會削弱模型安全性

IBM研究院與普林斯頓大學、維吉尼亞科技大學聯合發表的論文指出,有三種方法可以透過微調LLM破壞開發者為模型加入的安全防護,例如數十萬組資料集中一旦含有不到100則的有害資料,就足以影響Meta Llama-2及OpenAI GPT-3.5 Turbo的安全性

2023-10-16

| 中研院 | CKIP-Llama-2-7b | LLM | 大型語言模型 | TAIDE

【剖析中研院大型語言模型事件的衝擊】為何臺灣必須擁有本土化的LLM

在10月6日國慶日前夕,中研院開源釋出了使用Llama 2所開發的繁中大型語言模型CKIP-Llama-2-7b,但由於一開始未說明該模型是明清人

2023-10-12