机器学习pdf

图书网 2018年9月4日14:06:021 2.4K
摘要

《机器学习》是迄今市面上内容全面的机器学习教材之一,书中汇集了所有用于理解、挖掘和分析数据的先进方法,并且通过数百个精选实例和解说性插图,直观而准确地阐释了这些方法背后的原理,内容涵盖了机器学习的构成要素和机器学习任务、逻辑模型、几何模型、统计模型,以及矩阵分解、ROC分析等时下热点话题。
本书不仅内容丰富,而且图文并茂,无论是新手还是有经验的读者都能从中获益。

机器学习 内容简介

《机器学习》是全面的机器学习教材之一。书中首先介绍了机器学习的构成要素(任务、模型、特征)和机器学习任务,接着详细分析了逻辑模型(树模型、规则模型)、几何模型(线性模型和基于距离的模型)和概率模型,然后讨论了特征、模型的集成,以及被机器学习研究者称为“实验”的方法。作者不仅使用了已有术语,还引入了一些新的概念,同时提供了大量精选的示例和插图解说。

机器学习 目录

绪 论 机器学习概述 1

第1章 机器学习的构成要素 9

1.1 任务:可通过机器学习解决的问题 9

1.1.1 探寻结构 11

1.1.2 性能评价 13

1.2 模型:机器学习的输出 14

1.2.1 几何模型 14

1.2.2 概率模型 17

1.2.3 逻辑模型 22

1.2.4 分组模型与评分模型 26

1.3 特征:机器学习的马达 26

1.3.1 特征的两种用法 28

1.3.2 特征的构造与变换 29

1.3.3 特征之间的交互 32

1.4 总结与展望 33

第2章 两类分类及相关任务 37

2.1 分类 39

2.1.1 分类性能的评价 40

2.1.2 分类性能的可视化 43

2.2 评分与排序 46

2.2.1 排序性能的评价及可视化 48

2.2.2 将排序器转化为分类器 52

2.3 类概率估计 54

2.3.1 类概率估计量 55

2.3.2 将排序器转化为概率估计子 57

2.4 小结与延伸阅读 59

第3章 超越两类分类 61

3.1 处理多类问题 61

3.1.1 多类分类 61

3.1.2 多类得分及概率 65

3.2 回归 68

3.3 无监督学习及描述性学习 70

3.3.1 预测性聚类与描述性聚类 71

3.2.2 其他描述性模型 74

3.4 小结与延伸阅读 76

第4章 概念学习 77

4.1 假设空间 78

4.1.1 最小一般性 79

4.1.2 内部析取 82

4.2 通过假设空间的路径 84

4.2.1 最一般相容假设 86

4.2.2 封闭概念 87

4.3 超越合取概念 88

4.4 可学习性 92

4.5 小结与延伸阅读 94

第5章 树模型 97

5.1 决策树 100

5.2 排序与概率估计树 103

5.3 作为减小方差的树学习方法 110

5.3.1 回归树 110

5.3.2 聚类树 113

5.4 小结与延伸阅读 115

第6章 规则模型 117

6.1 学习有序规则列表 117

6.2 学习无序规则集 124

6.2.1 用于排序和概率估计的规则集 128

6.2.2 深入探究规则重叠 130

6.3 描述性规则学习 131

6.3.1 用于子群发现的规则学习 131

6.3.2 关联规则挖掘 135

6.4 一阶规则学习 139

6.5 小结与延伸阅读 143

第7章 线性模型 145

7.1 最小二乘法 146

7.1.1 多元线性回归 150

7.1.2 正则化回归 153

7.1.3 利用最小二乘回归实现分类 153

7.2 感知机 155

7.3 支持向量机 158

7.4 从线性分类器导出概率 164

7.5 超越线性的核方法 168

7.6 小结与延伸阅读 170

第8章 基于距离的模型 173

8.1 距离测度的多样性 173

8.2 近邻与范例 178

8.3 最近邻分类器 182

8.4 基于距离的聚类 184

8.4.1 K均值算法 186

8.4.2 K中心点聚类 187

8.4.3 silhouette 188

8.5 层次聚类 190

8.6 从核函数到距离 194

8.7 小结与延伸阅读 195

第9章 概率模型 197

9.1 正态分布及其几何意义 200

9.2 属性数据的概率模型 205

9.2.1 利用朴素贝叶斯模型实现分类 206

9.2.2 训练朴素贝叶斯模型 209

9.3 通过优化条件似然实现鉴别式学习 211

9.4 含隐变量的概率模型 214

9.4.1 期望最大化算法 215

9.4.2 高斯混合模型 216

9.5 基于压缩的模型 218

9.6 小结与延伸阅读 220

第10章 特征 223

10.1 特征的类型 223

10.1.1 特征上的计算 223

10.1.2 属性特征、有序特征及数量特征 227

10.1.3 结构化特征 228

10.2 特征变换 229

10.2.1 阈值化与离散化 229

10.2.2 归一化与标定 234

10.2.3 特征缺失 239

10.3 特征的构造与选择 240

10.4 小结与延伸阅读 243

第11章 模型的集成 245

11.1 Bagging 与随机森林 246

11.2 Boosting 247

11.3 集成学习进阶 250

11.3.1 偏差、方差及裕量 250

11.3.2 其他集成方法 251

11.3.3 元学习 252

11.4 小结与延伸阅读 252

第12章 机器学习的实验 255

12.1 度量指标的选择 256

12.2 量指标的获取 258

12.3 如何解释度量指标 260

12.4 小结与延伸阅读 264

后记 路在何方 267

记忆要点 269

参考文献 271

机器学习 精彩文摘

然而实际情况往往并非如此简单,因为我们还需考虑垃圾邮件的出现频率。假设在我所收到的邮件中,平均每七封邮件中有一封垃圾邮件(真这样就好了!),这就意味着下一封到来的邮件有1 : 6的几率为垃圾邮件。这个几率不算很高,但也不能无视。如果我获知该邮件中包含了“Viagra”,由于该词在垃圾邮件中出现的几率是普通邮件的4 倍,所以在下结论之前需要将这两个几率综合考虑。稍后你将看到,借助贝叶斯公式,只需将这两个几率相乘,即(1 : 6)  (4 : 1) = 4/6,便可得出该邮件是垃圾邮件的概率为0.4。换言之,尽管该封邮件的正文中出现了“Viagra”,最保险的方式仍然是将其判定为普通邮件。这显然不合常理,不是吗?

要理解上述内容,需要明确我们刚才所做的是对两种彼此独立的证据进行融合,其中一种证据刻画的是垃圾邮件的出现概率,而另一种证据则描述了“Viagra”这个词的出现概率。这两种证据形成两股互相牵制的力量,这意味着对二者相对强弱的评价极其重要。前面给出的数字告诉我们:为了推翻垃圾邮件相对稀少这个假设,需要至少6 : 1 的几率,但“Viagra”的出现几率的估计量仅为4 : 1,不足以决定性地倒向“垃圾邮件”的方向,也就无法确保该邮件为垃圾邮件。它所起的作用是削弱“该邮件为普通邮件”这个结论的力度( 因为该邮件为普通邮件的概率从6/7 = 0.86 降至了6/10 = 0.60)。

贝叶斯分类的好处是进一步的证据可在原有基础上使用。例如,假设包含短语“blue pill”的邮件为垃圾邮件的几率的估计量为3 : 1(即在包含该短语的邮件中,垃圾邮件的数量是普通邮件的3 倍),并假定待分类邮件同时包含了“Viagra”和“blue pill”,则综合考虑二者得到的几率为4 : 1乘以3 : 1,即12 : 1,这足以压倒垃圾邮件1 : 6的低出现几率。这样,该邮件为垃圾邮件的总几率即为2 : 1,从而其为垃圾邮件的概率由原先的0.4 增加至0.67。

图书网:机器学习pdf

继续阅读

→→→→→→→→→→→→→→→→→→→→查找获取

人工智能

深度学习之PyTorch实战计算机视觉pdf

适读人群 :本书面向对深度学习技术感兴趣,但是相关基础知识较为薄弱或者零基础的读者。 作者的文笔很好,对深度学习、Python、PyTorch、神经网络、迁移学习及相关数学知识讲解...
人工智能

深度学习原理与实践pdf

深度学习原理与实践 作者:陈仲铭,彭凌西 深度学习原理与实践 出版社:人民邮电出版社 深度学习原理与实践 内容简介 本书详细介绍了目前深度学习相关的常用网络模型(ANN、CNN、RNN),以及不同网络...
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

评论:1   其中:访客  1   博主  0
    • dxnasa
      dxnasa 9

      怎么下载啊?