臺北市教育局日前與臺大簽署AI教育合作備忘錄,要來推動臺北市AI教育和培育AI師資。

重點新聞(0426~0502)

北市教育局     臺大     AI課程  

北市教育局攜手臺大,要培養北市AI師資

為因應AI浪潮,臺北市教育局日前與臺大簽署AI教育合作備忘錄,要來推動臺北市AI教育,並培育AI師資。在AI教育方面,包括規畫AI教育專案、協助校長和教師發展專業訓練課程、在學校推動AI教學、協助資訊教師投入AI專案發展。在AI師資培育方面,永春高中希望藉教師專業課程來銜接實際教學,中正高中則期望課程能結合機器人語言與電腦視覺,以培育日後相關競賽選手。

另一方面,永春高中已於今年4月開設2班AI科技學程班,共有6堂系列課程,像是AI 科普認知、Python機器學習與深度學習應用、實作AI Line 聊天機器人等,招收臺北市高中職學生共60名。中正高中則計畫於108學年度開設AI課程,以基礎邏輯、AI技術、AI應用場景探討等3層次為主軸。(詳全文)

  OpenAI     MuseNet    音樂生成  

OpenAI發表作曲AI技術MuseNet

OpenAI發表一款深度神經網路MuseNet,可自行用10種不同樂器演奏長達4分鐘的曲子,還能結合各種風格,比如鄉村、莫札特、流行樂等。OpenAI並未教MuseNet任何樂理,而是讓它從數十萬個MIDI音樂檔中,去學習預測下一個音樂風格的token,藉此找出樂曲的和弦、節奏和風格模式。MuseNet採用通用非監督式技術,也就是一種大型Transformer模型,訓練後可預測序列中的下一個token,可用於音訊和文本。

OpenAI指出,在打造MuseNet時,團隊首先建立了作曲token和樂器token,以控管MuseNet產生的樂曲種類。在訓練階段,團隊將這些token加入到每個樣本前面,好讓模型用這些資訊來學習預測音符。在生成階段時,模型就能根據給出的提示(比如蕭邦夜曲的前5個音符),來產生風格相符的樂曲。OpenAI將於5月12日釋出MuseNet原型,開放民眾試用簡易版和進階版MuseNet。(詳全文)

  靜宜大學    生殖醫學    AI  

準確率8成!靜宜大學開發出能預測人工受孕成功率的AI

靜宜大學聯手清大、北醫、臺科大以及數家生殖醫學中心,經1年努力研發出人工受孕(IVF)AI預測模型,準確率達8成。靜宜大學校長唐傳義表示,團隊首先利用生殖醫學中心資料,篩選出胚胎成功著床的特徵,將胚胎影像結合生化檢測數值,打造成一套AI分析引擎,可預測胚胎品質和受孕機率,並提供最佳受孕治療方式的建議給醫生。後來,團隊進一步結合AI和光動力學,研發出縮時影像判讀技術,建立非侵入性、準確率更高的胚胎預測系統,可從細胞向量移動中,得知細胞形變和活動力。唐傳義提到,該技術已申請專利,最快今年可進行臨床驗證。

此外,靜宜大學今年也將完成AI個案管理系統,以微服務系統開發方法,來提供IVF個案管理平臺。靜宜大學表示,一直以來,生殖醫學中心資料多以紙本記錄,也未與病歷系統、檢驗影像設備整合,而AI個案管理系統就是要解決這個問題。(詳全文)

  OpenAI    Sparse Transformer       預測 

OpenAI正研發一套深度神經網路模型,可預測數萬個序列元素的複雜關係

OpnAI近日開發一套深度神經網路模型Sparse Transformer,以改良過的注意力(Attention)演算法,能從比以往長30倍的文字、圖像或語音序列中萃取出模式,進而預測下一段文字、圖像或語音。OpenAI指出,目前AI研究的挑戰之一,就是用難以察覺相互關係的複雜資料(如圖像、影片、語音)來建立預測模型。而Sparse Transformer可利用數百層神經網路,為數萬個元素序列來建模,可用於多種領域。

注意力機制,是指在Transformer模型中,每個輸入和輸出資料之間的權重會依各種情況來動態計算。雖然該機制能使Transformer比固定連接模式的模型更彈性,但當資料類型含有多個元素時,就會耗費龐大的記憶體資源。因此,OpenAI利用稀疏(Sparse)注意力模式,也就是只針對每個輸出位置,從輸入位置的子集合中計算權重,當子集合比整個輸入集小時,即便是非常大的序列,注意力計算結果也較容易處理。(詳全文)

  Google    TPU     影像分割 

Google為雲端TPU運算服務開源釋出兩套影像分割模型

Google最近為雲端TPU運算服務開發了兩套影像分割(Segmentation)模型:Mask R-CNN和DeepLab v3+。Mask R-CNN是一個兩階段的實例分割模型,能用來定位影像中的多個物體,第一階段先從輸入影像中萃取出特徵,產生區域分割建議;第二階段則是過濾並精化區域分割建議,進而預測每個物體的類別,以及為每個物體生成一個像素級的遮罩(Mask)。

DeepLab v3+則是個快速又準確的語義分割模型。Google在TensorFlow 1.13框架中,搭配雲端TPU v2和TPU v3硬體,用PASCAL VOC 2012資料集訓練DeepLab v3+模型,若只用單個雲端TPU v2設備來訓練,DeepLab v3+模型能在大約8小時內完成訓練,成本還不到40美元。Google指出,兩套模型的效能和成本不同,使用者可依據自身需求,來選擇適合的模型和TPU配置;此外,兩套模型也已開源釋出。(詳全文)

工研院   AI產業化    AI晶片 

工研院AI產業化新進展:今年專攻邊緣運算、開發影像辨識監視器實驗AI晶片新架構

工研院在2019國際超大型積體電路技術研討會(VLSI)中,針對AI on Chip計畫揭露新進展,今年要先聚焦在邊緣運算,預計年底推出具影像辨識功能的監視器,透過自動擷取終端影像、上傳雲端的方式,來減少資料傳輸量。

AI on Chip計畫是工研院去年9月發起,由「AI on Chip示範計畫籌備小組」執行,要結合產、官、學,來建立AI晶片產業鏈。目前參與的業界廠商有20多家,包括IC設計公司與半導體製造商。這項計畫為期4年,今年目標聚焦於邊緣運算,要讓終端裝置的AI模型具備推論能力,預計年底推出具影像辨識功能的監視器設備,可在終端先用人臉辨識技術擷取片段影像,再上傳雲端。此外,工研院也計畫於6、7月聯合硬體、IC設計、IC製造商組成AI on Chip聯盟,要整合AI晶片的設計、製造與應用等上下游產業鏈。(詳全文)

PAI    偏見    風險評估  

國際組織籲現行演算法仍不適用於司法風險評估

由Google、臉書、Nvidia等科技巨頭與各國教育、新聞和非營利組織組成的Partnership on AI(PAI)日前發表一篇研究報告,指出現行的演算法仍不適用於犯罪風險評估和保釋預審流程,因為統計預測的有效性和偏見、訓練資料樣本的偏差都是當前風險評估工具的問題,而且高、低風險也未有明確的定義。

美國去年通過了第一步法案(First Step Act)和加州SB 10法案,該法案允許以演算法來取代原有的現金保釋制度。但PAI在報告中指出,刑事風險評估工具最凸顯了演算法偏見的嚴重性,該報告也表明,在部署風險評估系統時,應滿足10項條件,比如訓練資料集需計算預期的變數,或是透過重新加權,來改善歷史偏見問題。(詳全文)

圖片來源/OpenAI、Google、工研院

 AI趨勢近期新聞 

1. 歐洲議會通過92億歐元的科技預算,將用來研發超級電腦、AI及網路安全

2. 新版Nextcloud 16能以機器學習偵測可疑登入行為

3. 美國知名房地產網站用電腦視覺模型自動將圖片編輯為3D看房導覽

4. 中華電信自行研發的中文智慧聲控服務平臺亮相,首推兩款智慧音箱

資料來源:iThome整理,2019年5月


Advertisement

更多 iThome相關內容