李宏毅機(jī)器學(xué)習(xí)?2024年,《機(jī)器學(xué)習(xí)》課程暫別,2025年或?qū)⒗^續(xù)。此年,新設(shè)《生成式人工智能導(dǎo)論》與《生成式人工智能技術(shù)》(擬定)。自2016年起至2023年,每年均開(kāi)設(shè)《機(jī)器學(xué)習(xí)》課程。2023年,技術(shù)革新,教育應(yīng)有所變。以往,每年調(diào)整《機(jī)器學(xué)習(xí)》課程,以適應(yīng)最新技術(shù)。然而,2023年變革顯著,決定新開(kāi)一門(mén)課程。那么,李宏毅機(jī)器學(xué)習(xí)?一起來(lái)了解一下吧。
李宏毅,臺(tái)灣杰出的機(jī)器學(xué)習(xí)專(zhuān)家與教授,以其卓越成果與廣泛影響力在領(lǐng)域內(nèi)獨(dú)樹(shù)一幟。
他雖未自立品牌,然而其名已成為機(jī)器學(xué)習(xí)象征。李宏毅以嚴(yán)謹(jǐn)教學(xué)及前瞻研究,推動(dòng)領(lǐng)域普及與發(fā)展。全球廣受歡迎的視頻教程,被視為機(jī)器學(xué)習(xí)入門(mén)者的首選教材,使李宏毅成為品牌代表。其高質(zhì)量教學(xué)與研究成就,彰顯其品牌價(jià)值。
2024年,《機(jī)器學(xué)習(xí)》課程暫別,2025年或?qū)⒗^續(xù)。此年,新設(shè)《生成式人工智能導(dǎo)論》與《生成式人工智能技術(shù)》(擬定)。
自2016年起至2023年,每年均開(kāi)設(shè)《機(jī)器學(xué)習(xí)》課程。2023年,技術(shù)革新,教育應(yīng)有所變。以往,每年調(diào)整《機(jī)器學(xué)習(xí)》課程,以適應(yīng)最新技術(shù)。然而,2023年變革顯著,決定新開(kāi)一門(mén)課程。
《生成式人工智能導(dǎo)論》已開(kāi)始更新,B站同步更新視頻。所有課程資料整理打包至云盤(pán),公眾號(hào)回復(fù)【26】獲取。
此課程為《生成式人工智能導(dǎo)論》,面向基礎(chǔ)學(xué)習(xí)者,無(wú)需任何前置知識(shí),不需先修機(jī)器學(xué)習(xí)或人工智能課程。對(duì)人工智能領(lǐng)域感興趣的初學(xué)者,這是一個(gè)理想起點(diǎn)。課程從基礎(chǔ)深入,使學(xué)員完成學(xué)習(xí)后,能探索更高級(jí)課程。
課程設(shè)計(jì)注重體驗(yàn),包含代碼編寫(xiě)元素,即使無(wú)代碼經(jīng)驗(yàn),助教會(huì)提供詳細(xì)指導(dǎo)和范例,確保學(xué)員跟上步伐。
對(duì)《生成式人工智能導(dǎo)論》課程感興趣者,趕快加入學(xué)習(xí),抓住這一機(jī)遇!
本文討論的是一個(gè)圖像識(shí)別分類(lèi)問(wèn)題,主要介紹了在學(xué)習(xí)過(guò)程中遇到的基線(xiàn)代碼和最終實(shí)現(xiàn)的高分策略。首先,我們引入的是基于圖像識(shí)別的機(jī)器學(xué)習(xí)項(xiàng)目,具體信息可參閱2023年ML課程網(wǎng)站(ntu.edu.tw)及提供的基線(xiàn)代碼(google.com)。
通過(guò)運(yùn)行基線(xiàn)代碼,我們觀(guān)察到了不同層次的基線(xiàn)實(shí)現(xiàn)。初始的簡(jiǎn)單基線(xiàn)(0.63733)在理解問(wèn)題的基礎(chǔ)上進(jìn)行簡(jiǎn)單的模型構(gòu)建。接著,中等基線(xiàn)(0.70000)引入了圖像數(shù)據(jù)增強(qiáng),這一策略在識(shí)別性能上有顯著提升。具體而言,未進(jìn)行數(shù)據(jù)增強(qiáng)的訓(xùn)練準(zhǔn)確性圖表明,圖像數(shù)據(jù)增強(qiáng)是提高模型表現(xiàn)的關(guān)鍵因素。
進(jìn)一步,優(yōu)化策略中包含了一個(gè)有趣的技巧:通過(guò)調(diào)整DataLoader的并發(fā)數(shù)量(Train用4~8個(gè)并發(fā),persistent_workers=True,Test用2個(gè)并發(fā)),可以將訓(xùn)練時(shí)間顯著縮短至9秒一輪,同時(shí)CPU核的使用率達(dá)到滿(mǎn)載,支持多個(gè)訓(xùn)練任務(wù)并行執(zhí)行,從而加快了實(shí)驗(yàn)進(jìn)程。
在更高層次的基線(xiàn)(0.81400)中,采用了更復(fù)雜的策略,如使用預(yù)定義的CNN模型(如resnet)并加入dropout、增加訓(xùn)練輪數(shù)、提高數(shù)據(jù)變換復(fù)雜度等。在深度學(xué)習(xí)實(shí)踐中,這些策略有助于模型的泛化能力。
作業(yè)來(lái)源源自2022Spring的ML2022Spring-hw2任務(wù),任務(wù)來(lái)自Kaggle平臺(tái),涉及語(yǔ)音數(shù)據(jù)處理與機(jī)器學(xué)習(xí)中的分類(lèi)問(wèn)題。數(shù)據(jù)部分包括.pt格式的語(yǔ)音樣本,可通過(guò)torch.load讀取,樣本編號(hào)存于_split.txt,而音素識(shí)別結(jié)果則記錄在_labels.txt中。為了構(gòu)建更豐富的訓(xùn)練樣本,需將每個(gè)音頻幀(39維)前后延伸5幀,形成11幀的樣本。
數(shù)據(jù)預(yù)處理和合并的函數(shù)設(shè)計(jì)復(fù)雜,但無(wú)需修改,最終能夠處理大規(guī)模的訓(xùn)練集,達(dá)到百萬(wàn)級(jí)規(guī)模。模型設(shè)計(jì)采用多層神經(jīng)網(wǎng)絡(luò),當(dāng)hidden_layers設(shè)置為4時(shí),實(shí)際上有5層,首層負(fù)責(zé)接收輸入。網(wǎng)絡(luò)結(jié)構(gòu)的定義采用*[a,b,c]形式作為參數(shù)傳遞。
在模型訓(xùn)練中,采用特定的損失函數(shù)和優(yōu)化器,如增加stepLR學(xué)習(xí)率調(diào)度器,每10輪調(diào)整學(xué)習(xí)率。訓(xùn)練函數(shù)的實(shí)現(xiàn)也至關(guān)重要,而超參數(shù)的選擇則關(guān)乎模型性能的關(guān)鍵。一個(gè)基礎(chǔ)的優(yōu)化策略是:通過(guò)增加拼接幀數(shù)至17,將準(zhǔn)確率從0.4提升至0.6以上;增加訓(xùn)練輪數(shù)至30輪,根據(jù)訓(xùn)練輸出判斷過(guò)擬合情況;調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),如設(shè)置4個(gè)hidden_layers,每個(gè)層的hidden_dim設(shè)為1024,可使準(zhǔn)確率超過(guò)0.7。