欧美一级特黄aaaaaaa在线观看-欧美一级特黄aaaaaa在线看片-欧美一级特黄aa大片-欧美一级特黄刺激大片视频-深夜久久-深夜激情网站

熱門關(guān)鍵字:  聽(tīng)力密碼  聽(tīng)力密碼  新概念美語(yǔ)  單詞密碼  巧用聽(tīng)寫練聽(tīng)力

深入機(jī)器學(xué)習(xí)

中國(guó)水利水電出版社
    【作 者】 【I S B N 】978-7-5226-1080-1 【責(zé)任編輯】 【適用讀者群】科技 【出版時(shí)間】2023-01-03 【開(kāi) 本】16開(kāi) 【裝幀信息】平裝(光膜) 【版 次】第1版第1次印刷 【頁(yè) 數(shù)】520 【千字?jǐn)?shù)】727 【印 張】32.5 【定 價(jià)】128 【叢 書】 【備注信息】
圖書詳情

    本書將帶領(lǐng)讀者一起主動(dòng)擁抱機(jī)器學(xué)習(xí),快樂(lè)翻越高等數(shù)學(xué)、算法分析、工程實(shí)踐這“三座大山”。面對(duì)三類讀者(會(huì)用即可、想深入學(xué)習(xí)、想成為專家)的學(xué)習(xí)動(dòng)機(jī)和閱讀需求,全書一共用19章來(lái)講解機(jī)器學(xué)習(xí)的各種模型,包括機(jī)器學(xué)習(xí)中基礎(chǔ)和關(guān)鍵的線性回歸、邏輯回歸、決策樹、貝葉斯、支持向量機(jī)、KNN等。全書具有語(yǔ)言表達(dá)輕快、模型講解細(xì)致、圖表配備眾多的特色。

    本書可供計(jì)算機(jī)、人工智能、大數(shù)據(jù)等專業(yè)的大學(xué)生、研究生閱讀,也可供需要用到機(jī)器學(xué)習(xí)技術(shù)的廣大工程技術(shù)人員、研究人員作為參考。

    ●深入淺出算法原理 ●輕松實(shí)現(xiàn)上手操作

    ●真正粉碎數(shù)學(xué)硬核 ●Python語(yǔ)言完整實(shí)現(xiàn)

    從會(huì)用到理解,從上手到真正的領(lǐng)域?qū)<?/p>

    機(jī)器學(xué)習(xí)涉及的知識(shí)特別多,令人應(yīng)接不睱;實(shí)際工程應(yīng)用非常廣,令人不得不學(xué)。目前,很多高校開(kāi)設(shè)了人工智能、大數(shù)據(jù)專業(yè),很多企業(yè)也需要用到人工智能技術(shù)。人工智能、大數(shù)據(jù)基礎(chǔ)的知識(shí)領(lǐng)域自然還是機(jī)器學(xué)習(xí)。于是,學(xué)習(xí)機(jī)器學(xué)習(xí)的人越來(lái)越多。

    當(dāng)前市面上已有不少有關(guān)機(jī)器學(xué)習(xí)的圖書。有的淺嘗輒止,一種模型三五頁(yè)就講完了,讓人大致明白但又感覺(jué)不著地;有的滿版公式,讓人不得要領(lǐng);有的只有理論講解沒(méi)有實(shí)例,讓人不好動(dòng)手練習(xí)。我覺(jué)得根據(jù)讀者對(duì)知識(shí)的學(xué)習(xí)訴求和規(guī)律來(lái)寫作圖書可以解決這些問(wèn)題。我把對(duì)機(jī)器學(xué)習(xí)有學(xué)習(xí)動(dòng)機(jī)的讀者分成三類:

    1.會(huì)用即可的讀者。這類讀者的訴求是只要會(huì)用某個(gè)類庫(kù)(如scikit-learn)建立簡(jiǎn)單的機(jī)器學(xué)習(xí)模型、能做數(shù)據(jù)分析和預(yù)測(cè)即可。針對(duì)這類讀者,寫一大堆數(shù)學(xué)公式?jīng)]有意義。

    2.想深入學(xué)習(xí)的讀者。這類讀者的訴求是要學(xué)懂每個(gè)模型的數(shù)學(xué)原理,會(huì)推導(dǎo)公式。這類讀者得掌握微積分、線性代數(shù)、概率論、統(tǒng)計(jì)學(xué)這四門課程的知識(shí)。

    3.想成為專家的讀者。這類讀者的訴求是要學(xué)習(xí)每種模型的高級(jí)知識(shí),并能融會(huì)貫通地使用開(kāi)發(fā)工具找到較為理想的模型參數(shù)。那就需要掌握一些更為復(fù)雜的數(shù)據(jù)結(jié)構(gòu)、算法分析與設(shè)計(jì)知識(shí),并能接受厚重的知識(shí)閱讀量。

    為了滿足這三類讀者的訴求,考慮到機(jī)器學(xué)習(xí)的模型眾多,我不打算在本書中講解所有的機(jī)器學(xué)習(xí)模型,而是針對(duì)機(jī)器學(xué)習(xí)中基礎(chǔ)和關(guān)鍵的線性回歸、邏輯回歸、決策樹、貝葉斯、支持向量機(jī)、KNN這六種模型來(lái)進(jìn)行詳細(xì)講解,并采取如下的寫法:

    1.第1、2章用于打基礎(chǔ)。講解有關(guān)機(jī)器學(xué)習(xí)的基本概念,說(shuō)明如何使用Python編程做簡(jiǎn)單的開(kāi)發(fā)。

    2.對(duì)每個(gè)模型分3章來(lái)講解。第1章滿足會(huì)用即可的讀者;第2章滿足想深入學(xué)習(xí)的讀者;第3章滿足想成為專家的讀者。由于KNN模型相對(duì)簡(jiǎn)單一些,沒(méi)有編寫第3章。

    3.每個(gè)模型均有實(shí)例講解。有的使用scikit-learn庫(kù)編程實(shí)現(xiàn),有的自主編程實(shí)現(xiàn)。我認(rèn)為理解了原理,完全可以自己編程實(shí)現(xiàn),只是我們沒(méi)有必要這么做。多數(shù)情況下,使用類庫(kù)編程即可,理解原理則還能有目標(biāo)地調(diào)節(jié)參數(shù)來(lái)找到更為理想的模型。

    本書有三點(diǎn)特色:

    1.語(yǔ)言表達(dá)輕快。我比較喜歡閱讀文字表達(dá)像聊天的圖書,自己寫作也將運(yùn)用這種風(fēng)格,盡管可能會(huì)損失一點(diǎn)數(shù)學(xué)的嚴(yán)謹(jǐn)性。

    2.模型講解細(xì)致。對(duì)每個(gè)模型有關(guān)的數(shù)學(xué)知識(shí)、原理、公式推導(dǎo)都講得很細(xì)致。

    3.圖表配備眾多。一圖決勝千里,能用圖表達(dá)出原理就用圖表達(dá)。全書一共配了280多幅插圖和80多張表格。

    如果讀者能把本書通讀下來(lái),相信再去閱讀有關(guān)某一種模型的專著和學(xué)術(shù)論文將會(huì)輕松很多,也將能看得懂滿版的數(shù)學(xué)公式;而且用于工程實(shí)踐也不會(huì)是難事,讀者要做的更多的是分析業(yè)務(wù)場(chǎng)景的需求、構(gòu)建模型所需的數(shù)據(jù)。

    鑒于作者的水平有限,疏漏之處在所難免,敬請(qǐng)讀者多批評(píng)、指教,我的郵箱是dengziyun@126.com,歡迎來(lái)信溝通交流。

    感謝中國(guó)水利水電出版社萬(wàn)水分社的周春元副總經(jīng)理,他經(jīng)常和我探討選題的寫作、宣傳和讀者的需求,給了我創(chuàng)作的動(dòng)力。感謝我的夫人黃婧女士,她承擔(dān)了大量的家務(wù)及帶孩子的事務(wù),使得我有時(shí)間在工作之余進(jìn)行創(chuàng)作。還要感謝參考文獻(xiàn)中的很多作者及CSDN、博客園、知乎上的很多博主,他們的創(chuàng)作成果為我的寫作提供了大量的參考資料。

    本書的創(chuàng)作只是個(gè)開(kāi)始,如果讀者反饋寫得還不錯(cuò),我將繼續(xù)創(chuàng)作討論機(jī)器學(xué)習(xí)其他模型的圖書。最后給出全書為三類讀者準(zhǔn)備的學(xué)習(xí)路線總圖供閱讀、參考。

    為減輕讀者購(gòu)書成本,本書采用了黑白印刷,這可能導(dǎo)致某些圖片的印刷效果不如彩色印刷效果好。因此,特將本書所有圖片及書中源代碼打包,如有需要,讀者可掃描下方二維碼進(jìn)行免費(fèi)下載。

    第1章 認(rèn)知機(jī)器學(xué)習(xí) 1
    1.1 什么是機(jī)器學(xué)習(xí) 2
    1.1.1 理解機(jī)器學(xué)習(xí)的定義 2
    1.1.2 機(jī)器學(xué)習(xí)有哪些模型 3
    1.2 怎么學(xué)習(xí)機(jī)器學(xué)習(xí) 4
    1.2.1 學(xué)習(xí)的總體步驟 4
    1.2.2 理清工具與原理的關(guān)系 4
    1.3 搭建開(kāi)發(fā)環(huán)境 5
    1.3.1 下載和安裝Anaconda 5
    1.3.2 Anaconda的5個(gè)工具軟件 5
    1.4 小結(jié) 6
    第2章 打下開(kāi)發(fā)基礎(chǔ) 7
    2.1 學(xué)會(huì)使用常用的數(shù)據(jù)結(jié)構(gòu) 8
    2.1.1 列表 8
    2.1.2 字典 10
    2.1.3 numpy 11
    2.2 能用matplotlib繪圖 15
    2.2.1 畫點(diǎn) 15
    2.2.2 畫線 16
    2.2.3 畫面 16
    2.2.4 畫多個(gè)子圖 16
    2.3 能編程保存和加載機(jī)器學(xué)習(xí)模型 18
    2.3.1 保存模型 18
    2.3.2 加載模型 18
    2.4 小結(jié) 18
    第3章 入門先學(xué)會(huì)使用線性回歸 19
    3.1 初步理解線性回歸 20
    3.1.1 涉及的主要術(shù)語(yǔ) 20
    3.1.2 線性方程的表達(dá) 21
    3.1.3 擬合出的線的樣子 24
    3.2 了解線性回歸的過(guò)程 26
    3.2.1 做線性回歸的過(guò)程 26
    3.2.2 模型的評(píng)價(jià)指標(biāo) 27
    3.2.3 數(shù)據(jù)集的劃分 29
    3.3 做線性回歸的實(shí)例 30
    3.3.1 用圖觀察數(shù)據(jù)項(xiàng)之間的關(guān)系 31
    3.3.2 對(duì)數(shù)據(jù)集進(jìn)行劃分 33
    3.3.3 用數(shù)據(jù)訓(xùn)練模型 34
    3.3.4 用模型做預(yù)測(cè) 35
    3.3.5 對(duì)模型做評(píng)價(jià) 38
    3.4 使用更復(fù)雜的線性回歸模型 46
    3.4.1 以一元高次方程為模型 46
    3.4.2 以多元一次方程為模型 51
    3.4.3 以多元高次方程為模型 54
    3.5 小結(jié) 58
    第4章 學(xué)習(xí)線性回歸背后的數(shù)學(xué)原理 60
    4.1 補(bǔ)充學(xué)習(xí)高等數(shù)學(xué)知識(shí) 62
    4.1.1 導(dǎo)數(shù)的意義 62
    4.1.2 常用的求導(dǎo)法則 62
    4.1.3 求某點(diǎn)的導(dǎo)數(shù)值 65
    4.1.4 復(fù)合函數(shù)的導(dǎo)數(shù) 68
    4.1.5 偏導(dǎo)數(shù) 70
    4.1.6 行列式及其計(jì)算方法 72
    4.1.7 矩陣及其計(jì)算方法 76
    4.1.8 線性方程組的解法 81
    4.2 理解和使用最小二乘法 85
    4.2.1 為什么叫最小二乘法 85
    4.2.2 求解一元一次方程模型的參數(shù) 87
    4.2.3 求解多元一次方程模型的參數(shù) 94
    4.2.4 求解一元高次方程和多元高次方程模型的參數(shù) 101
    4.2.5 多種模型之間的比較 101
    4.3 學(xué)習(xí)和使用梯度下降法 102
    4.3.1 什么是梯度和梯度下降法 102
    4.3.2 多元函數(shù)的梯度下降法 104
    4.3.3 設(shè)置迭代的出口和學(xué)習(xí)率 110
    4.3.4 線性回歸的梯度下降法 113
    4.3.5 由誤差函數(shù)的圖形引發(fā)對(duì)極小值的討論 119
    4.3.6 遍歷訓(xùn)練數(shù)據(jù)做線性回歸的三種梯度下降法 122
    4.4 小結(jié) 126
    第5章 深入淺出線性回歸的高級(jí)知識(shí) 128
    5.1 模型優(yōu)化要解決什么問(wèn)題 129
    5.1.1 欠擬合、過(guò)擬合和恰當(dāng)擬合 129
    5.1.2 怎么解決過(guò)擬合的問(wèn)題 130
    5.2 用嶺回歸對(duì)線性回歸模型做懲罰 130
    5.2.1 做嶺回歸用最小二乘法時(shí)的數(shù)學(xué)原理 131
    5.2.2 用嶺跡法找到合適的λ值 132
    5.2.3 做嶺回歸用梯度下降法時(shí)的數(shù)學(xué)原理 135
    5.2.4 用交叉驗(yàn)證法找到合適的λ值 136
    5.3 用Lasso回歸對(duì)線性回歸模型做懲罰 146
    5.3.1 Lasso回歸的數(shù)學(xué)原理 146
    5.3.2 從圖形上理解Lasso回歸 150
    5.3.3 用坐標(biāo)軸下降法做Lasso回歸 152
    5.4 化繁為簡(jiǎn)使用scikit-learn庫(kù) 164
    5.4.1 用最小二乘法做線性回歸 164
    5.4.2 做嶺回歸 166
    5.4.3 做Lasso回歸 172
    5.4.4 使用彈性網(wǎng)絡(luò)做線性回歸 174
    5.5 小結(jié) 177
    第6章 學(xué)會(huì)使用邏輯回歸 179
    6.1 初步理解邏輯回歸 180
    6.1.1 涉及的主要術(shù)語(yǔ) 180
    6.1.2 線性分類的圖形表達(dá) 180
    6.1.3 邏輯回歸的圖形表達(dá) 183
    6.2 用scikit-learn庫(kù)做邏輯回歸 185
    6.2.1 引入乳腺癌數(shù)據(jù)集 186
    6.2.2 用邏輯回歸預(yù)測(cè)乳腺癌 187
    6.2.3 評(píng)估邏輯回歸模型 190
    6.2.4 得到模型參數(shù) 192
    6.2.5 得到分類的可能性值 193
    6.3 解決多分類的問(wèn)題 194
    6.3.1 引入鳶尾花數(shù)據(jù)集 194
    6.3.2 用One-Vs-All解決多分類問(wèn)題 195
    6.3.3 用One-Vs-One解決多分類問(wèn)題 203
    6.4 小結(jié) 205
    第7章 學(xué)習(xí)邏輯回歸背后的數(shù)學(xué)原理 207
    7.1 補(bǔ)充學(xué)習(xí)高等數(shù)學(xué)知識(shí) 208
    7.1.1 凸函數(shù)和Hessian矩陣 208
    7.1.2 大數(shù)定律和中心極限定理 210
    7.1.3 正態(tài)分布和伯努利分布 211
    7.1.4 條件概率和似然函數(shù) 212
    7.2 理解邏輯回歸的數(shù)學(xué)原理 213
    7.2.1 找到合適的用于優(yōu)化的函數(shù) 213
    7.2.2 在邏輯回歸中使用梯度下降法的數(shù)學(xué)原理 215
    7.3 用梯度下降法求解邏輯回歸模型 216
    7.3.1 將鳶尾花分成兩類 216
    7.3.2 預(yù)測(cè)乳腺癌 220
    7.4 小結(jié) 222
    第8章 深入淺出邏輯回歸的高級(jí)知識(shí) 224
    8.1 對(duì)邏輯回歸做正則化 226
    8.1.1 理解L2正則化的數(shù)學(xué)原理 226
    8.1.2 用L2正則化預(yù)測(cè)乳腺癌 226
    8.1.3 用其他懲罰方式做邏輯回歸 228
    8.2 化繁為簡(jiǎn)使用scikit-learn庫(kù) 228
    8.2.1 熟悉并使用LogisticRegression類 228
    8.2.2 熟悉并使用SGDClassifier類 230
    8.2.3 熟悉并使用LogisticRegressionCV類 232
    8.2.4 用LogisticRegression類做多分類 233
    8.3 補(bǔ)充學(xué)習(xí)一些更高級(jí)的數(shù)學(xué)知識(shí) 234
    8.3.1 泰勒公式 235
    8.3.2 牛頓法和擬牛頓法的優(yōu)化原理 239
    8.3.3 lbfgs優(yōu)化方法 247
    8.3.4 newton-cg優(yōu)化方法 248
    8.3.5 liblinear優(yōu)化方法 255
    8.3.6 sag和saga優(yōu)化方法 257
    8.4 用softmax解決多分類問(wèn)題 262
    8.4.1 多分類的原理 262
    8.4.2 畫出多分類的界線 266
    8.5 小結(jié) 269
    第9章 學(xué)會(huì)使用樸素貝葉斯 271
    9.1 初步理解樸素貝葉斯 272
    9.1.1 樸素貝葉斯定理的一些基本術(shù)語(yǔ) 272
    9.1.2 樸素貝葉斯怎么得出屬于某一類的概率 274
    9.2 用scikit-learn做樸素貝葉斯分類 276
    9.2.1 使用GuassianNB類做鳶尾花分類 276
    9.2.2 使用MultinomialNB類和BernoulliNB類 278
    9.3 小結(jié) 279
    第10章 學(xué)習(xí)樸素貝葉斯背后的數(shù)學(xué)原理 281
    10.1 理解樸素貝葉斯分類的數(shù)學(xué)原理 282
    10.1.1 理解全概率公式并推導(dǎo)樸素貝葉斯公式 282
    10.1.2 利用樸素的內(nèi)涵再推演樸素貝葉斯公式 284
    10.2 進(jìn)一步說(shuō)明scikit-learn中做樸素 貝葉斯分類的類 285
    10.2.1 再看GuassianNB類 285
    10.2.2 再看MultinomialNB類和BernoulliNB類 287
    10.3 做區(qū)分垃圾郵件和非垃圾郵件的 項(xiàng)目實(shí)戰(zhàn) 288
    10.3.1 理解spambase數(shù)據(jù)集 288
    10.3.2 使用3種樸素貝葉斯模型區(qū)分垃圾郵件和非垃圾郵件 289
    10.4 小結(jié) 291
    第11章 深入淺出貝葉斯的高級(jí)知識(shí) 292
    11.1 會(huì)用有向圖表達(dá)貝葉斯網(wǎng)絡(luò) 293
    11.1.1 深刻理解獨(dú)立和互斥的概念 293
    11.1.2 用有向無(wú)環(huán)圖表達(dá)貝葉斯網(wǎng)絡(luò) 294
    11.1.3 理解貝葉斯網(wǎng)絡(luò)的3種基本結(jié)構(gòu) 296
    11.1.4 打貝葉斯球來(lái)分析兩個(gè)事件是否關(guān)聯(lián) 299
    11.2 使用pgmpy建模貝葉斯網(wǎng)絡(luò) 301
    11.2.1 安裝pgmpy 301
    11.2.2 構(gòu)建某女士結(jié)交男友決策的貝葉斯網(wǎng)絡(luò) 301
    11.2.3 用貝葉斯網(wǎng)絡(luò)做預(yù)測(cè) 308
    11.2.4 讓貝葉斯網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)到條件概率表 310
    11.3 小結(jié) 311
    第12章 學(xué)會(huì)使用決策樹 313
    12.1 初步理解決策樹 314
    12.1.1 決策樹中的一些專業(yè)術(shù)語(yǔ) 314
    12.1.2 常見(jiàn)的3種決策樹算法 315
    12.2 用scikit-learn做決策樹分類 315
    12.2.1 用信息增益做分類 316
    12.2.2 用基尼指數(shù)做分類 317
    12.2.3 畫鼉霾呤� 319
    12.3 小結(jié) 321
    第13章 學(xué)習(xí)決策樹背后的數(shù)學(xué)原理 322
    13.1 學(xué)會(huì)計(jì)算決策樹的專業(yè)術(shù)語(yǔ)表示的量 323
    13.1.1 計(jì)算信息熵 323
    13.1.2 計(jì)算信息增益 326
    13.1.3 計(jì)算信息增益比 328
    13.1.4 計(jì)算基尼指數(shù) 328
    13.1.5 計(jì)算基尼指數(shù)增加值 330
    13.2 理解3種決策樹算法 330
    13.2.1 理解ID3決策樹算法 330
    13.2.2 scikit-learn庫(kù)用信息增益生成決策樹的算法 335
    13.2.3 理解CART算法 339
    13.2.4 用CART算法做分類 341
    13.2.5 用CART算法做回歸 342
    13.3 深入學(xué)習(xí)用scikit-learn做決策樹分類 和回歸 343
    13.3.1 DecisionTreeClassifier類的方法和屬性 343
    13.3.2 DecisionTreeRegressor類的方法和屬性 345
    13.3.3 用決策樹做鳶尾花分類 346
    13.3.4 用決策樹做房?jī)r(jià)回歸分析 351
    13.4 小結(jié) 355
    第14章 深入淺出決策樹的高級(jí)知識(shí) 357
    14.1 學(xué)會(huì)選擇和調(diào)節(jié)決策樹模型的參數(shù) 358
    14.1.1 用交叉驗(yàn)證法選擇更好的參數(shù) 358
    14.1.2 用GridSearchCV類調(diào)節(jié)參數(shù)模型 363
    14.2 理解后剪枝的原理并做實(shí)現(xiàn) 367
    14.2.1 后剪枝有哪些策略 367
    14.2.2 后剪枝之MEP策略 368
    14.2.3 后剪枝之REP策略 377
    14.2.4 后剪枝之PEP策略 378
    14.2.5 后剪枝之CCP策略 382
    14.3 小結(jié) 386
    第15章 學(xué)會(huì)使用支持向量機(jī) 388
    15.1 初步理解支持向量機(jī) 389
    15.1.1 線性支持向量機(jī) 389
    15.1.2 非線性支持向量機(jī) 389
    15.2 用scikit-learn做支持向量機(jī)分類 390
    15.2.1 做線性分類 390
    15.2.2 做非線性分類 392
    15.3 小結(jié) 394
    第16章 學(xué)習(xí)支持向量機(jī)背后的數(shù)學(xué)原理 395
    16.1 學(xué)會(huì)計(jì)算距離 396
    16.1.1 兩點(diǎn)之間的距離 396
    16.1.2 點(diǎn)到超平面的距離 398
    16.1.3 函數(shù)距離和幾何距離 402
    16.2 學(xué)懂拉格朗日乘數(shù)法 402
    16.2.1 用拉格朗日乘數(shù)法求等式約束下的極值 403
    16.2.2 再次深刻理解梯度 406
    16.2.3 用拉格朗日乘數(shù)法求不等式約束下的極值 408
    16.2.4 用拉格朗日乘數(shù)法和KKT應(yīng)對(duì)更復(fù)雜的情況 411
    16.3 理解支持向量機(jī)的數(shù)學(xué)原理 413
    16.3.1 從感知機(jī)談起 414
    16.3.2 感知機(jī)模型的感知策略 416
    16.3.3 用感知機(jī)模型做鳶尾花的二分類 419
    16.4 硬間隔支持向量機(jī) 424
    16.4.1 構(gòu)建出目標(biāo)函數(shù)及約束不等式 425
    16.4.2 用拉格朗日乘數(shù)法求解目標(biāo)函數(shù)和約束不等式 427
    16.5 小結(jié) 432
    第17章 深入淺出支持向量機(jī)的高級(jí)知識(shí) 434
    17.1 用SMO算法求解硬間隔支持向量機(jī)的λ 435
    17.1.1 轉(zhuǎn)化優(yōu)化問(wèn)題 436
    17.1.2 迭代更新的辦法 438
    17.2 軟間隔支持向量機(jī) 441
    17.2.1 軟間隔支持向量機(jī)的優(yōu)化問(wèn)題 441
    17.2.2 迭代時(shí)對(duì)參數(shù)值的剪輯 443
    17.2.3 求解其他參數(shù)值 445
    17.2.4 求解軟間隔支持向量機(jī)模型的步驟總結(jié) 446
    17.2.5 合頁(yè)損失函數(shù) 447
    17.3 自己編程實(shí)現(xiàn)支持向量機(jī) 448
    17.3.1 實(shí)現(xiàn)SMO算法 448
    17.3.2 實(shí)現(xiàn)二分類應(yīng)用 453
    17.4 非線性支持向量機(jī) 455
    17.4.1 理解非線性支持向量機(jī)的原理 455
    17.4.2 學(xué)懂Mercer定理 458
    17.4.3 最簡(jiǎn)單的線性核函數(shù) 458
    17.4.4 多項(xiàng)式核函數(shù) 460
    17.4.5 高斯核函數(shù) 461
    17.4.6 Sigmoid核函數(shù) 464
    17.5 用支持向量機(jī)做回歸分析 465
    17.5.1 理解支持向量回歸的原理 465
    17.5.2 用拉格朗日乘數(shù)法做推導(dǎo) 466
    17.6 深入淺出用scikit-learn做分類和回歸 467
    17.6.1 熟悉線性支持向量機(jī)(LinearSVC) 467
    17.6.2 熟悉非線性支持向量機(jī)(SVC) 468
    17.6.3 熟悉線性向量回歸(LinearSVR)和非線性回歸(SVR) 469
    17.6.4 調(diào)節(jié)非線性支持向量機(jī)的參數(shù) 469
    17.6.5 調(diào)節(jié)非線性支持向量回歸模型的參數(shù) 472
    17.7 小結(jié) 474
    第18章 學(xué)會(huì)使用KNN 476
    18.1 理解KNN的基本原理 477
    18.1.1 不用數(shù)學(xué)公式講解KNN的原理 477
    18.1.2 擴(kuò)展到多分類和回歸應(yīng)用 477
    18.1.3 怎么確定KNN模型的k值 478
    18.2 用KNN做分類和回歸 478
    18.2.1 用KNN模型做鳶尾花分類 478
    18.2.2 用KNN模型做房屋價(jià)格回歸 480
    18.3 小結(jié) 482
    第19章 學(xué)習(xí)KNN背后的數(shù)學(xué)原理 483
    19.1 理解KNN的數(shù)學(xué)原理 484
    19.1.1 用KNN做分類的數(shù)學(xué)原理 484
    19.1.2 有多個(gè)備選分類及樣本數(shù)量不均衡問(wèn)題的解決辦法 485
    19.1.3 用KNN做回歸的數(shù)學(xué)原理 487
    19.2 再次討論距離的度量 487
    19.2.1 歐幾里得距離 488
    19.2.2 曼哈頓距離和閔可夫斯基距離 488
    19.2.3 夾角的余弦 489
    19.2.4 杰卡德相似系數(shù)和杰卡德相似距離 489
    19.3 利用搜索樹加速查找 489
    19.3.1 構(gòu)建KD樹 489
    19.3.2 運(yùn)用KD樹找到k個(gè)近鄰點(diǎn) 491
    19.3.3 構(gòu)建Ball樹 496
    19.3.4 運(yùn)用Ball樹找到k個(gè)近鄰點(diǎn) 499
    19.4 調(diào)節(jié)KNN模型的參數(shù) 501
    19.4.1 熟悉KNeighborsClassifier類 501
    19.4.2 調(diào)節(jié)KNeighborsClassifier模型的參數(shù) 502
    19.4.3 熟悉KNeighborsRegressor類并學(xué)會(huì)調(diào)節(jié)參數(shù) 504
    19.5 小結(jié) 506
    后續(xù)學(xué)習(xí)建議 508
    參考文獻(xiàn) 509
最新評(píng)論共有 0 位網(wǎng)友發(fā)表了評(píng)論
發(fā)表評(píng)論
評(píng)論內(nèi)容:不能超過(guò)250字,需審核,請(qǐng)自覺(jué)遵守互聯(lián)網(wǎng)相關(guān)政策法規(guī)。
用戶名: 密碼:
匿名?
注冊(cè)
主站蜘蛛池模板: 五月婷婷激情四射| 深爱激情成人| 久久国产成人精品麻豆| 91久久精品国产91久久性色tv | 亚洲一区二区视频| 精品国产96亚洲一区二区三区| 久爱精品视频在线视频| 91福利刘玥国产在线观看| 久久亚洲精品视频| 国产第1页| 日韩经典欧美一区二区三区| 99热影院| 久久88色综合色鬼| 亚洲日本一区二区三区在线| 麻豆网页| 99草精品视频| 久久精品大全| 亚洲女同一区二区| 大色香蕉| 精品视频在线免费观看| 亚洲精品天堂在线观看| www.色网站| 四虎网站在线| 97视频国产| 欧美日韩另类在线观看视频| 国产成人女人在线视频观看| 欧美亚洲国产精品| 在线观看亚洲| xxxxxx日本处大片免费看| 久久综合狠狠综合久久| 69国产成人综合久久精品91| 韩国免费毛片| 欧美日韩国产亚洲一区二区| 中文字幕 国产| 成人精品视频| 激情中文字幕| 欧美三级黄色| 亚洲免费黄色| 亚洲 图片 小说 欧美 另类| 国产乱理| 拍真实国产伦偷精品|