| Predibase | LLM | GPT-4

Predibase發布LoRA Land服務,集結25個微調模型之力效能可勝GPT-4

Predibase新服務LoRA Land,集合25個以Mistral-7b開源模型為基礎的微調模型,並使單一GPU可支援多模型部署,供用戶以低成本獲得較GPT-4更好的效能

2024-02-21

| AI | MedLM | 中醫大附醫 | 護理 | 傷口 | LLM | 多模態

中醫大附醫揭露MedLM應用新進展,瞄準AI護理輔助3場景

繼去年12月揭露AI輔助醫師應用後,中醫大附醫今日再發表Google MedLM另一應用方向,鎖定護理領域打造AI輔助護理師應用,初期嘗試3情境,包括分析傷口照片和疼痛患者表情照片,來給出文字描述、照護建議和衛教建議,以及針對食物照片進行營養分析。

2024-02-21

| IT周報 | 繁中 | LLM | 群創光電 | Meta | 影片生成 | OpenAI | Sora | Stability AI | Gemini | google

AI趨勢周報第243期:群創光電開源70億參數的繁中語言模型白龍

群創光電團隊開源繁中優化的語言模型白龍;Meta發表新影片生成模型V-JEPA;OpenAI揭最新短影片生成AI模型Sora;.NET 9預覽版來了!聚焦雲原生和AI支援;Stability AI發表新一代圖像生成模型,比前一代更省16倍成本;開發者可在瀏覽器訓練模型!ONNX Runtime 1.17還支援聯合學習

2024-02-18

| 國家級駭客 | 大型語言模型 | LLM | OpenAI | ChatGPT

微軟與OpenAI證實大型語言模型已被各國駭客用來協助網路攻擊行動

針對中國、伊朗、北韓濫用ChatGPT服務尋找程式碼漏洞與生成網釣內容的行為,微軟與OpenAI將透過禁用帳號、終止服務等方式,將與駭客組織有關的用戶列入黑名單

2024-02-15

| Nvidia | LLM | RTX | RAG

Nvidia推出Chat with RTX應用程式,供用戶在本地端自訂AI聊天機器人

Nvidia發布Chat with RTX應用程式,讓用戶利用檢索增強生成、TensorRT-LLM和RTX加速等技術,在本地端自訂人工智慧聊天機器人,以快速且安全地執行查詢

2024-02-15

| google | LLM | CPU | localllm | Cloud Workstations | 大型語言模型

Google推localllm命令列工具,支援本機CPU執行大型語言模型

Google新釋出的localllm工具和函式庫,允許開發者利用本機或是任何具有足夠CPU資源的機器上,執行量化大型語言模型,藉由減少對GPU的依賴,簡化開發流程並降低開發成本

2024-02-08

| Oracle | 生成式人工智慧 | LLM

甲骨文追趕其他雲端廠商腳步,推出OCI生成式AI服務

甲骨文推出OCI生成式人工智慧服務,提供多種大型語言模型和語言支援,以及一系列OCI生成式人工智慧代理,同時還在自家雲端應用程式加入生成式人工智慧技術

2024-01-24

| google | AI | 選擇性預測 | LLM

Google新框架ASPIRE有效讓AI自我評估輸出對錯

Google開發ASPIRE框架提升大型語言模型的選擇性預測與自我評估能力,有效提高問答任務的準確性

2024-01-22

| Anthropic | Sleeper Agents | LLM | 後門 | 對抗性訓練 | 安全培訓

AI模型的欺騙能力可能持續存在,而成為潛伏的特工

AI新創Anthropic發表由眾多科學家參與的研究報告,指出他們得以訓練出能夠躲過AI系統標準安全培訓的AI模型,並讓模型的欺騙性後門持續存在

2024-01-15

| google | LLM | 邏輯錯誤

大型語言模型自我修正能力存在挑戰,Google提出改良輸出新方法

Google研究顯示,即便是當前先進的大型語言模型,在辨識、修正邏輯錯誤方面表現仍不佳,無法在沒有人類的指引下,完全無錯誤地完成任務,Google提出新方法改進大型語言模型輸出結果

2024-01-15

| Deepmind | LLM | 機器人

DeepMind運用大型基礎模型自動控制機器人

DeepMind發展AutoRT、SARA-RT和RT-Trajectory等系統,提升機器人決策速度與環境理解能力,朝向更高效的機器人技術邁進

2024-01-08

| IT周報 | LLM | 擴展法則 | MosaicML | 摩根大通 | 多模態 | 金管會 | TinyGPT-V | 蘋果

AI趨勢周報第238期: 突破LLM擴展法則?MosaicML揭新研究成果

MosaicML研究發現,用更長的時間和更多資料訓練小參數模型,可突破LLM擴展法則;摩根大通發表懂圖文的輕量級多模態模型DocLLM;研究員開源28億參數多模態小模型TinyGPT-V;金管會發布金融業運用AI指引草案;蘋果公布多模態AI模型Ferret

2024-01-07