OpenAI在2022年11月底發表的ChatGPT引爆了全球的AI熱潮,業者爭相投入龐大資源以開發AI模型與服務,在經歷了超過一年的快速成長之後,今年開始出現AI已被過度炒作的聲浪,還有人說AI即將泡沫化,但Google DeepMind專門研究機器學習與電腦安全的科學家Nicholas Carlini並不這麼認為,他以自身對AI的應用,來說明大型語言模型(LLM)是個真正有幫助,可以提高生產力的工具。
Carlini表示,過去一年以來,他每周至少花幾個小時與各種不同的大型語言模型互動,對於這些LLM的進步能力印象深刻,網路上對於LLM的討論有樂觀也有悲觀,但他並不想爭論LLM的未來,只想提供身為一名研究人員與不同LLM之間的互動案例。
其中,Carlini在LLM的協助下,使用過去從未用過的技術建置完整的Web應用程式;LLM教他如何使用從未用過的框架;將數十個程式轉換成C或Rust,以提高10~100倍的效能;裁剪大型程式碼庫以簡化專案;替他先前寫的每一篇研究論文撰寫實驗性程式碼;自動執行所有單調的任務或一次性腳本程式;在設定與配置新封包或專案時,幾乎完全取代了網頁搜尋;在除錯時可取代50%的網頁搜尋。
Carlini所舉的例子大致可以分成學習及自動化無聊的任務,他說,這些例子只占了他使用LLM方式的不到2%,它們並不有趣,卻是他每天從事的任務。他只是要說,LLM真的是有用且可提高其生產力的工具,利用不同的LLM來替他的專案撰寫程式碼,至少可節省50%的時間。
不過,批評AI是種炒作的看法卻是角度各異,不像是光靠Carlini的解釋就能滿足的。例如共同創辦非營利媒體The Markup的評論家Julia Angwin今年5月指出,AI雖然征服了許多以前無法想像的任務,但之後的研究發現其某些成就被OpenAI誇大了,此外,AI模型通常可以產出一份還不錯的初稿,不過,修改它的時間大概等於她自己完成工作所需的時間。
軟體工程專家Jonathan Xia今年4月時表示,生成式AI被炒作了。因為投資者給了太多的錢,期許那些遠遠還未得到證實的商業應用,而且現有的技術很快就會遇到難以突破的瓶頸。
Xia說,他曾經以ChatGPT來寫程式碼,發現它產生的程式碼是合理的且格式簡潔,但卻是錯的。他還說生成程式碼已經是LLM最好的應用之一了,因為倘若以它來進行法律研究,它會生成不存在的案例;讓它跟客戶交談,可能會提供不存在的交易;而且永遠不會有原創,只是陳腔濫調。Xia也懷疑外界對於生成式AI可能會有指數型成長的論點。
華盛頓郵報(The Washington Post)也在今年4月認為,AI泡沬正在破滅。該報所列出的原因主要是開發模型需要投入大規模的硬體資源與成本,但短期內無法看到相對應的回報。
加拿大新聞人Paris Marx亦於今年5月指出,AI的泡沫化指日可待。Marx說,AI公司的估值已從最高點下滑,雲端供應商正在降低客戶對AI工具的期望,因為機器人依舊在犯錯,而且業者尚不知如何從如此昂貴的技術中賺錢,更把對氣候的承諾拋向了腦後。
熱門新聞
2024-10-27
2024-10-30
2024-10-30
2024-10-29
2024-10-23
2024-10-29