定 價:68 元
叢書名:新工科人才培養(yǎng)系列叢書·人工智能
- 作者:劉勝藍
- 出版時間:2025/10/1
- ISBN:9787121514852
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:192
- 紙張:
- 版次:01
- 開本:16開
本書從機器學(xué)習(xí)在數(shù)據(jù)處理的角度入手來介紹機器學(xué)習(xí)的常用算法,按照"背景引入-方法介紹-案例-拓展知識點及文獻”的思路來組織內(nèi)容。本書共14章,涵蓋了機器學(xué)習(xí)的常用算法。對于書中的每種機器學(xué)習(xí)算法,本書均給出了基本定義、典型應(yīng)用,可方便讀者更加深入的理解每種機器學(xué)習(xí)算法。此外,本書還介紹了計算機視覺的應(yīng)用為例,闡述了機器學(xué)習(xí)算法在圖像特征提取和卷積神經(jīng)網(wǎng)絡(luò)中的應(yīng)用。
劉勝藍,男,博士,遼寧省優(yōu)秀博士論文獲得者,大連理工大學(xué)副教授,主要從事以人為中心的感知計算、機器學(xué)習(xí)以及數(shù)據(jù)可視化等領(lǐng)域的研究。目前,已發(fā)表論文50余篇,其中,在AAAI等頂級會議以及IEEE匯刊、數(shù)據(jù)領(lǐng)域頂級期刊Scientific Data等高水平期刊(IEEE Trans. On NNLS等)以第一作者及通訊作者發(fā)表論文20余篇;主持國家自然科學(xué)基金1項,CCF-百度松果基金1項,東軟集團軟件架構(gòu)國家重點實驗室開放課題1項,博士后面上資助1項,以及多項企業(yè)合作橫向課題。
目 錄
第1章 數(shù)據(jù)與機器學(xué)習(xí) 1
1.1 數(shù)據(jù) 1
1.1.1 數(shù)據(jù)的來源 1
1.1.2 數(shù)據(jù)的類型 3
1.2 機器學(xué)習(xí)的任務(wù) 4
1.3 機器學(xué)習(xí)的場景 4
1.4 數(shù)據(jù)預(yù)處理 5
1.4.1 歸一化 6
1.4.2 標(biāo)準化 8
1.4.3 缺失值填充 8
1.5 機器學(xué)習(xí)模型的評價指標(biāo) 9
1.6 本書的主要內(nèi)容框架 10
1.7 參考文獻 10
1.8 習(xí)題 11
第2章 數(shù)據(jù)可視化 12
2.1 基本類型 13
2.1.1 餅狀圖 13
2.1.2 柱狀圖 14
2.1.3 南丁格爾玫瑰圖 16
2.1.4 折線圖 17
2.1.5 雷達圖 18
2.1.6 平行坐標(biāo)圖 20
2.1.7 ;鶊D 22
2.1.8 弦圖 23
2.1.9 散點圖 25
2.2 基本構(gòu)成元素和設(shè)計思路 26
2.3 參考文獻 27
2.4 習(xí)題 28
第3章 圖像特征提取 29
3.1 灰度圖像 30
3.1.1 圖像的數(shù)字表示 30
3.1.2 灰度圖像的數(shù)字表示 31
3.2 LBP 33
3.3 顏色特征提取 36
3.3.1 RGB顏色模型 37
3.3.2 HSV顏色模型 37
3.4 HSV特征提取 39
3.5 拓展知識點 42
3.6 參考文獻 43
3.7 習(xí)題 44
第4章 數(shù)據(jù)分類——KNN分類 45
4.1 分類 45
4.2 KNN分類 46
4.3 分類結(jié)果的評價指標(biāo) 50
4.4 拓展知識點 51
4.5 參考文獻 53
4.6 習(xí)題 53
第5章 K-means聚類 54
5.1 聚類問題的闡述 54
5.2 K-means算法的基本原理 55
5.2.1 數(shù)據(jù)樣本之間的相似性度量 55
5.2.2 K-means算法的基本步驟 58
5.2.3 K-means算法的特點 63
5.3 聚類結(jié)果的評價指標(biāo) 65
5.3.1 聚類算法常見的內(nèi)部評價指標(biāo) 66
5.3.2 聚類算法常見的外部評價指標(biāo) 68
5.4 拓展知識點:K-means算法的應(yīng)用 69
5.5 參考文獻 69
5.6 習(xí)題 70
第6章 綜合應(yīng)用案例——人機交互的數(shù)據(jù)可視化 71
6.1 聚類與人機交互的數(shù)據(jù)可視化 71
6.2 K-means聚類的交互數(shù)據(jù)可視化設(shè)計要點 75
6.3 參考文獻 75
6.4 習(xí)題 75
第7章 線性回歸與正則化 76
7.1 線性回歸的問題定義 76
7.2 線性回歸的求解 78
7.2.1 損失函數(shù) 78
7.2.2 線性回歸的解 80
7.3 正則化線性回歸 83
7.3.1 正則化的作用 83
7.3.2 L2正則化——嶺回歸 84
7.3.3 L1正則化——Lasso回歸 84
7.4 R2度量——衡量回歸擬合效果的重要指標(biāo) 85
7.4.1 R2度量的引出 85
7.4.2 線性回歸中的R2度量 86
7.5 參考文獻 87
7.6 習(xí)題 88
第8章 邏輯回歸 89
8.1 邏輯回歸模型 89
8.2 多分類的Softmax回歸模型 96
8.3 參考文獻 97
8.4 習(xí)題 98
第9章 線性降維——主成分分析 99
9.1 特征選擇與特征提取 99
9.2 度量視角的PCA 101
9.3 信息視角的PCA 104
9.4 概率統(tǒng)計視角的PCA 104
9.5 參考文獻 108
9.6 習(xí)題 109
第10章 非線性降維及其應(yīng)用 110
10.1 局部線性嵌入 111
10.2 拉普拉斯特征映射 118
10.3 LE的相關(guān)應(yīng)用 120
10.4 降維方法的思維拓展 120
10.5 參考文獻 121
10.6 習(xí)題 121
第11章 核函數(shù)及其應(yīng)用 122
11.1 線性可分與高維映射 122
11.2 核函數(shù) 124
11.3 核回歸 126
11.4 核PCA 129
11.5 拓展知識點 132
11.6 參考文獻 133
11.7 習(xí)題 133
第12章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 134
12.1 神經(jīng)元模型 134
12.1.1 神經(jīng)元 134
12.1.2 Rosenblatt感知機 139
12.1.3 異或問題 140
12.2 神經(jīng)網(wǎng)絡(luò) 143
12.2.1 遞歸神經(jīng)網(wǎng)絡(luò) 144
12.2.2 前饋神經(jīng)網(wǎng)絡(luò) 144
12.3 參考文獻 153
12.4 習(xí)題 153
第13章 反向傳播神經(jīng)網(wǎng)絡(luò) 155
13.1 梯度下降法 156
13.2 隨機梯度下降法 159
13.3 反向傳播 160
13.4 梯度消失 166
13.5 參考文獻 167
13.6 習(xí)題 168
第14章 深度神經(jīng)網(wǎng)絡(luò) 169
14.1 “深度”的意義 169
14.2 卷積神經(jīng)網(wǎng)絡(luò)的基本操作 170
14.2.1 卷積 171
14.2.2 池化 172
14.2.3 激活 172
14.3 經(jīng)典卷積神經(jīng)網(wǎng)絡(luò) 173
14.3.1 AlexNet 174
14.3.2 VGG 176
14.3.3 GoogLeNet 177
14.3.4 ResNet 177
14.3.5 SENet 178
14.4 參考文獻 179
14.5 習(xí)題 179