因少子化導致缺工加劇,加上大量老師傅屆齡退休,迫使許多企業邁入世代交替關鍵期。為求傳承老師傅技能與Know-How,避免生產力出現斷層,近年各界紛紛追求系統化知識管理(KM)手段。
無奈傳統KM系統導入流程冗長,且礙於知識量體龐大分散,以致檢索困難,造成企業無法有效應用。久而久之,使企業費力搭建的知識庫(KB)被束之高閣,原本企盼的知識傳承願景落空,著實可惜。
為補強多年未解的KM需求缺口,向來深具知識管理與搜尋引擎底蘊的意藍資訊(eLAND),積極將生成式AI與大語言模型(LLM)引入KM,在2024年初推出「新一代生成式AI知識管理系統」(AI Search for KM;簡稱AISKM)。憑藉其中諸多亮點特色,成功打通KM任督二脈,還據此獲得國科會舉辦首屆GenAI Stars百工百業應用選拔「創新創業組」銀獎殊榮。
GenAI加持,實現原樣知識入庫妙效
意藍資訊創辦人暨總經理楊立偉博士表示,過往企業導入第一代KM時面臨不少痛點。首先資料蒐集與格式正規化過程艱難,等於在資料入庫整理的起步就陷入泥沼;其次就算辛苦建立大型KB,使用者也難以知悉裡頭有何知識,加上搜尋方式不靈活、不知要下什麼關鍵字,導致後續的分享取用出現障礙。
「換言之不論整理知識、使用知識、分享知識乃至創造知識,每一段都不容易」 楊立偉說,所以前一代KM歷經近20年發展,遲遲未能發揮預期價值。
所幸隨著GenAI崛起,總算讓KM迎來蛻變契機,也促使意藍孕育出有別於傳統的AISKM。
意藍的做法,主要是將GenAI分別置入KM系統最底層和最上層。放在最底層,旨在運用GenAI強大的理解能力,順勢開創「原樣知識入庫」新局,意即不管知識以PDF、Excel、Word、Table…等形式存在,亦無需理會用詞用語是否標準,皆可直接入庫,不再需要費時進行資料整理及格式統一,減輕前置作業負擔。
至於擺在最上層,最大意義就在於方便性。從前使用者需要上課,學會如何理解內容、下Keyword,才能操作KM,門檻偏高;反觀現在只要以口語提問,KM便提供答案。但楊立偉提醒,KM屬於企業級應用,務求答案準確、符合預設的資料範疇,不宜摻雜不相干內容;因此AISKM蘊含深厚的檢索生成增強(RAG)技術基底,確保GenAI給出答案時,都能清楚交待答題邏輯、引用的數據出處,使答案更具可解釋性、可驗證性、可稽核性。
另值得一提,因意藍早年併購龍捲風科技,已建立堅強的搜尋引擎功力,擅於區隔企業不同部門的資料存取權限,有效避免資料與模型無差別地混用。所以即便不同單位同仁詢問相同題目,也能依各自權限產生不同答案,以消弭企業在意的提示詞攻擊(Prompt Attack)風險。
自研eLAND GOAT,迎合RAG和KM場景需求
談及AISKM與其他廠商AI-based KM的技術差異,一是多數其他廠商引用外部的雲端GenAI方案、如ChatGPT;反觀意藍經營知識管理多時,深知許多企業擔心若將資料與模型上雲、可能引發洩漏機密或資料混用,故為AISKM設計少見的地端版和私有雲版方案選項。
此外意藍自有核心搜尋引擎技術,而非援引外來引擎,相對擅長中文斷字切詞,不管做全文檢索、語意檢索都更為精確,有助於在第一道過濾時找出正確答案,大幅增強RAG解題品質。
不僅如此,AISKM還包含多項其餘獨到利基。譬如支援LLM抽換,現階段可抽換的LLM標的涵括GPT-4o、GPT-4o mini、TAIDE、Llama 3,或意藍專為RAG與KM設計的eLAND GOAT大語言模型,下一步將納入Gemini及Claude。經測試eLAND GOAT的問答忠誠度分數達88%,雖稍微落後GPT-4o的90%,但嚴格來說它算是13B小模型,僅需具有48GB VRAM的顯卡便可運作自如,建構成本低,且能部署在地端,深具小而美優勢。
更特別之處,在於eLAND GOAT相較通用型LLM增強了幾項能力,包含擅長從不同問法得出對應正確答案;從大量資料擷取最適切答案段落;可閱讀表格內容;支援Function Call、稱為Active RAG的意藍獨家技術,能依據完整答題所需,適時主動呼叫外部輿情資料或政府開放資料。要重要的,當eLAND GOAT找不到答案,不會硬答,以消弭AI幻覺。
以AISKM取代傳統客服KB,使處理案件量激增
論及新一代生成式AI知識管理系統的導入效益,首先據哈佛商學院與BCG顧問集團共同發表的論文顯示,AI可分擔完成12.2%的知識任務,另有25.1%任務可因AI加快、40%任務得以提升品質。
針對意藍用戶端的客服單位實證,若調閱傳統客服知識庫,平均每人一天可處理24到28個進件,一旦改採AISKM,處理的案件量有望提升到逾40件。
楊立偉歸納,最適合的AISKM應用情境,現階段落在服務業、金融業及政府單位等重度使用KM的領域。係因他們知識量大、不容耗時翻箱倒櫃調閱文件;或知識量也許不大,但人員流動率高,需加快新人上手速度;或是像金融業知識更新頻率快,頻繁重新訓練LLM緩不濟急。
所以上述客群迫切仰賴AISKM這般以RAG為基礎、再結合搜尋引擎與LLM的應用場景。如國家災害防救單位借重Function Call,加速整合歷史與即時災害數據,將以往人工查閱時間從逾4小時驟減為10分鐘內,趕在黃金時間做出防救災決策。
或是如大型金控企業,可利用AISKM拆解任務及選用工具,並隨需生成輸入參數、解析輸出結果,完成複合型知識任務。亦能拆解任務並啟動RPA,接續執行資料的擷取與整合、清理與準備,終至回覆自動化對帳結果,促進智慧流程自動化。
熱門新聞
2024-11-15
2024-11-15
2024-11-14
2024-11-12
2024-11-02
2024-11-07