神经网络与机器学习(原书第3版)pdf

图书网 2018年1月6日16:06:4843.4K2

神经网络与机器学习(原书第3版) 内容简介

神经网络是计算智能和机器学习的重要分支,在诸多领域都取得了很大的成功。在众多神经网络著作中,影响较为广泛的是Simon Haykin的《神经网络原理》(第3版更名为《神经网络与机器学习》)。在本书中,作者结合近年来神经网络和机器学习的新进展,从理论和实际应用出发,全面、系统地介绍了神经网络的基本模型、方法和技术,并将神经网络和机器学习有机地结合在一起。

《神经网络与机器学习》不但注重对数学分析方法和理论的探讨,而且也非常关注神经网络在模式识别、信号处理以及控制系统等实际工程问题的应用。本书的可读性非常强,作者举重若轻地对神经网络的基本模型和主要学习理论进行了深入探讨和分析,通过大量的试验报告、例题和习题来帮助读者更好地学习神经网络。

本版在前一版的基础上进行了广泛修订,提供了神经网络和机器学习这两个越来越重要的学科的新分析。

本书特色:

1. 基于随机梯度下降的在线学习算法;小规模和大规模学习问题。

2. 核方法,包括支持向量机和表达定理。

3. 信息论学习模型,包括连接、独立分量分析(ICA)、一致独立分量分析和信息瓶颈。

4. 随机动态规划,包括逼近和神经动态规划。

5. 逐次状态估计算法,包括卡尔曼和粒子滤波器。

6. 利用逐次状态估计算法训练递归神经网络。

7. 富有洞察力的面向计算机的试验。

神经网络与机器学习(原书第3版) 目录

出版者的话

译者序

前言

缩写和符号

术语

第0章 导言

0.1 什么是神经网络

0.2 人类大脑

0.3 神经元模型

0.4 被看作有向图的神经网络

0.5 反馈

0.6 网络结构

0.7 知识表示

0.8 学习过程

0.9 学习任务

0.10 结束语

注释和参考文献

第1章 Rosenblatt感知器

1.1 引言

1.2 感知器

1.3 感知器收敛定理

1.4 高斯环境下感知器与贝叶斯分类器的关系

1.5 计算机实验:模式分类

1.6 批量感知器算法

1.7 小结和讨论

注释和参考文献

习题

第2章 通过回归建立模型

2.1 引言

2.2 线性回归模型:初步考虑

2.3 参数向量的最大后验估计

2.4 正则最小二乘估计和MAP估计之间的关系

2.5 计算机实验:模式分类

2.6 最小描述长度原则

2.7 固定样本大小考虑

2.8 工具变量方法

2.9 小结和讨论

注释和参考文献

习题55

第3章 最小均方算法

3.1 引言

3.2 LMS算法的滤波结构

3.3 无约束最优化:回顾

3.4 维纳滤波器

3.5 最小均方算法

3.6 用马尔可夫模型来描画LMS算法和维纳滤波器的偏差

3.7 朗之万方程:布朗运动的特点

3.8 Kushner直接平均法

3.9 小学习率参数下统计LMS学习理论

3.10 计算机实验Ⅰ:线性预测

3.11 计算机实验Ⅱ:模式分类

3.12 LMS算法的优点和局限

3.13 学习率退火方案

3.14 小结和讨论

注释和参考文献

习题

第4章 多层感知器

4.1 引言

4.2 一些预备知识

4.3 批量学习和在线学习

4.4 反向传播算法

4.5 异或问题

4.6 改善反向传播算法性能的试探法

4.7 计算机实验:模式分类

4.8 反向传播和微分

4.9 Hessian矩阵及其在在线学习中的规则

4.10 学习率的最优退火和自适应控制

4.11 泛化

4.12 函数逼近

4.13 交叉验证

4.14 复杂度正则化和网络修剪

4.15 反向传播学习的优点和局限

4.16 作为最优化问题看待的监督学习

4.17 卷积网络

4.18 非线性滤波

4.19 小规模和大规模学习问题

4.20 小结和讨论

注释和参考文献

习题

第5章 核方法和径向基函数网络

5.1 引言

5.2 模式可分性的Cover定理

5.3 插值问题

5.4 径向基函数网络

5.5 K-均值聚类

5.6 权向量的递归最小二乘估计

5.7 RBF网络的混合学习过程

5.8 计算机实验:模式分类

5.9 高斯隐藏单元的解释

5.10 核回归及其与RBF网络的关系

5.11 小结和讨论

注释和参考文献

习题

第6章 支持向量机

第7章 正则化理论

第8章 主分量分析

第9章 自组织映射

第10章 信息论学习模型

第11章 植根于统计力学的随机方法

第12章 动态规划

第13章 神经动力学

第14章 动态系统状态估计的贝叶斯滤波

第15章 动态驱动递归网络

参考文献

神经网络与机器学习(原书第3版) 精彩文摘

0.1什么是神经网络

自从认识到人脑计算与传统的数字计算机相比是完全不同的方式开始,关于人工神经网络(一般称为“神经网络”(neural network))的研究工作就开始了。人脑是一个高度复杂的、非线性的和并行的计算机器(信息处理系统)。人脑能够组织它的组成成分,即神经元,以比今天已有的最快的计算机还要快许多倍的速度进行特定的计算(如模式识别、感知和发动机控制)。例如,考虑人类视觉,这是一个信息处理任务。视觉系统的功能是为我们提供一个关于周围环境的表示,并且更重要的是提供我们与环境交互(interact)所需的信息。具体来说,完成一个感知识别任务(例如识别一张被嵌入陌生场景的熟悉的脸)人脑大概需要100~200毫秒,而一台高效的计算机却要花费比人脑多很多的时间才能完成一个相对简单的任务。

再举一个例子:考虑一只蝙蝠的声呐。声呐就是一个活动回声定位系统。除了提供目标(例如飞行的昆虫)有多远的信息外,蝙蝠的声呐可以搜集目标的相对速度、目标大小、目标不同特征的大小以及它的方位角和仰角的信息。所有这些信息都从目标回声中提取,而所有需要的复杂神经计算只在李子般大小的脑中完成。事实上,一只回声定位的蝙蝠可以灵巧地以很高的成功率追逐和捕捉目标,这一点足以使雷达或声呐工程师们自叹弗如。

那么,人脑或蝙蝠的脑是如何做到这一点的呢?脑在出生的时候就有很复杂的构造和具有通过我们通常称为的“经验”来建立它自己规则的能力。确实,经验是经过时间积累的,人脑在出生后头两年内发生了非常大的进化(即硬接线),但是进化将超越这个阶段并继续进行。

一个“进化中”的神经系统是与可塑的大脑同义的。可塑性(plasticity)允许进化中的神经系统适应(adapt)其周边环境。可塑性似乎是人类大脑中作为信息处理单元的神经元功能的关键,同样,它在人工神经元组成的神经网络中亦是如此。最普通形式的神经网络,就是对人脑完成特定任务或感兴趣功能所采用的方法进行建模的机器。网络一般用电子元件实现或者用软件在数字计算机上模拟。在本书中,我们集中介绍一类重要的神经网络,这类网络通过学习过程来实现有用的计算。为了获得良好性能,神经网络使用一个很庞大的简单计算单元间的相互连接,这些简单计算单元称为“神经元”或者“处理单元”。据此我们给出将神经网络看作一种自适应机器的定义。

图书网:神经网络与机器学习(原书第3版)pdf

继续阅读

→→→→→→→→→→→→→→→→→→→→查找获取

人工智能

深度学习之PyTorch实战计算机视觉pdf

适读人群 :本书面向对深度学习技术感兴趣,但是相关基础知识较为薄弱或者零基础的读者。 作者的文笔很好,对深度学习、Python、PyTorch、神经网络、迁移学习及相关数学知识讲解...
人工智能

深度学习原理与实践pdf

深度学习原理与实践 作者:陈仲铭,彭凌西 深度学习原理与实践 出版社:人民邮电出版社 深度学习原理与实践 内容简介 本书详细介绍了目前深度学习相关的常用网络模型(ANN、CNN、RNN),以及不同网络...
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

评论:4   其中:访客  4   博主  0
    • 也无风雨也无晴
      也无风雨也无晴 1

      想学习这个新门类

      • 昨夜星辰
        昨夜星辰 4

        想学

        • 111
          111 9

          谢谢