干净的数据 数据清洗入门与实践pdf

图书网 2018年12月27日09:02:51
评论
2.2K
摘要

本书从文件格式、数据类型、字符编码等基本概念讲起,通过真实的示例,探讨如何提取和清洗关系型数据库、网页文件和PDF文档中的数据。提供了两个真实的项目,让读者将所有数据清洗技术付诸实践,完成整个数据科学过程。
如果你是一位数据科学家,或者从事数据科学工作,哪怕是位新手,只要对数据清洗有兴趣,那么本书就适合你阅读!
– 理解数据清洗在整个数据科学过程中的作用
– 掌握数据清洗的基础知识,包括文件清洗、数据类型、字符编码等
– 发掘电子表格和文本编辑器中与数据组织和操作相关的重要功能
– 学会常见数据格式的相互转换,如JSON、CSV和一些特殊用途的格式
– 采用三种策略来解析和清洗HTML文件中的数据
– 揭开PDF文档的秘密,提取需要的数据
– 借助一系列解决方案来清洗存放在关系型数据库里的坏数据
– 创建自己的干净数据集,为其打包、添加授权许可并与他人共享
– 使用书中的工具以及Twitter和Stack Overflow数据,完成两个真实的项目

干净的数据 数据清洗入门与实践 内容简介

本书主要内容包括:数据清洗在数据科学领域中的重要作用,文件格式、数据类型、字符编码的基本概念,组织和处理数据的电子表格与文本编辑器,各种格式数据的转换方法,解析和清洗网页上的HTML 文件的三种策略,提取和清洗PDF 文件中数据的方法,检测和清除RDBMS 中的坏数据的解决方案,以及使用书中介绍的方法清洗来自Twitter 和Stack Overflow 的数据。

干净的数据 数据清洗入门与实践 目录

第1 章 为什么需要清洗数据 1

1.1 新视角 1

1.2 数据科学过程 2

1.3 传达数据清洗工作的内容 3

1.4 数据清洗环境 4

1.5 入门示例 5

1.6 小结 9

第2 章 基础知识——格式、 类型与编码 11

2.1 文件格式 11

2.1.1 文本文件与二进制文件 11

2.1.2 常见的文本文件格式 14

2.1.3 分隔格式 14

2.2 归档与压缩 20

2.2.1 归档文件 20

2.2.2 压缩文件 21

2.3 数据类型、空值与编码 24

2.3.1 数据类型 25

2.3.2 数据类型间的相互转换 29

2.3.3 转换策略 30

2.3.4 隐藏在数据森林中的空值 37

2.3.5 字符编码 41

2.4 小结 46

第3 章 数据清洗的老黄牛——电子表格和文本编辑器 47

3.1 电子表格中的数据清洗 47

3.1.1 Excel 的文本分列功能 47

3.1.2 字符串拆分 51

3.1.3 字符串拼接 51

3.2 文本编辑器里的数据清洗 54

3.2.1 文本调整 55

3.2.2 列选模式 56

3.2.3 加强版的查找与替换功能 56

3.2.4 文本排序与去重处理 58

3.2.5 Process Lines Containing 60

3.3 示例项目 60

3.3.1 第一步:问题陈述 60

3.3.2 第二步:数据收集 60

3.3.3 第三步:数据清洗 61

3.3.4 第四步:数据分析 63

3.4 小结 63

第4 章 讲通用语言——数据转换 64

4.1 基于工具的快速转换 64

4.1.1 从电子表格到CSV 65

4.1.2 从电子表格到JSON 65

4.1.3 使用phpMyAdmin 从SQL语句中生成CSV 或JSON 67

4.2 使用PHP 实现数据转换 69

4.2.1 使用PHP 实现SQL 到JSON的数据转换 69

4.2.2 使用PHP 实现SQL 到CSV的数据转换 70

4.2.3 使用PHP 实现JSON 到CSV的数据转换 71

4.2.4 使用PHP 实现CSV 到JSON的数据转换 71

4.3 使用Python 实现数据转换 72

4.3.1 使用Python 实现CSV 到JSON的数据转换 72

4.3.2 使用csvkit 实现CSV 到JSON的数据转换 73

4.3.3 使用Python 实现JSON 到CSV的数据转换 74

4.4 示例项目 74

4.4.1 第一步:下载GDF 格式的Facebook 数据 75

4.4.2 第二步:在文本编辑器中查看GDF 文件 75

4.4.3 第三步:从GDF 格式到JSON格式的转换 76

4.4.4 第四步:构建D3 图 79

4.4.5 第五步:把数据转换成Pajek格式 81

4.4.6 第六步:简单的社交网络分析 83

4.5 小结 84

第5 章 收集并清洗来自网络的数据 85

5.1 理解HTML 页面结构 85

5.1.1 行分隔模型 86

5.1.2 树形结构模型 86

5.2 方法一:Python 和正则表达式 87

5.2.1 第一步:查找并保存实验用的Web 文件 88

5.2.2 第二步:观察文件内容并判定有价值的数据 88

5.2.3 第三步:编写Python 程序把数据保存到CSV 文件中 89

5.2.4 第四步:查看文件并确认清洗结果 89

5.2.5 使用正则表达式解析HTML的局限性 90

5.3 方法二:Python 和BeautifulSoup 90

5.3.1 第一步:找到并保存实验用的文件 90

5.3.2 第二步:安装BeautifulSoup 91

5.3.3 第三步:编写抽取数据用的Python 程序 91

5.3.4 第四步:查看文件并确认清洗结果 92

5.4 方法三:Chrome Scraper 92

5.4.1 第一步:安装Chrome 扩展Scraper 92

5.4.2 第二步:从网站上收集数据 92

5.4.3 第三步:清洗数据 94

5.5 示例项目:从电子邮件和论坛中抽取数据 95

5.5.1 项目背景 95

5.5.2 第一部分:清洗来自Google Groups 电子邮件的数据 96

5.5.3 第二部分:清洗来自网络论坛的数据 99

5.6 小结 105

第6 章 清洗PDF 文件中的数据 106

6.1 为什么PDF 文件很难清洗 106

6.2 简单方案——复制 107

6.2.1 我们的实验文件 107

6.2.2 第一步:把我们需要的数据复制出来 108

6.2.3 第二步:把复制出来的数据粘贴到文本编辑器中 109

6.2.4 第三步:轻量级文件 110

6.3 第二种技术——pdfMiner 111

6.3.1 第一步:安装pdfMiner 111

6.3.2 第二步:从PDF 文件中提取文本 111

6.4 第三种技术——Tabula 113

6.4.1 第一步:下载Tabula 113

6.4.2 第二步:运行Tabula 113

6.4.3 第三步:用Tabula 提取数据 114

6.4.4 第四步:数据复制 114

6.4.5 第五步:进一步清洗 114

6.5 所有尝试都失败之后——第四种技术 115

6.6 小结 117

第7 章 RDBMS 清洗技术 118

7.1 准备 118

7.2 第一步:下载并检查Sentiment140 119

7.3 第二步:清洗要导入的数据 119

7.4 第三步:把数据导入MySQL 120

7.4.1 发现并清洗异常数据 121

7.4.2 创建自己的数据表 122

7.5 第四步:清洗&字符 123

7.6 第五步:清洗其他未知字符 124

7.7 第六步:清洗日期 125

7.8 第七步:分离用户提及、标签和URL 127

7.8.1 创建一些新的数据表 128

7.8.2 提取用户提及 128

7.8.3 提取标签 130

7.8.4 提取URL 131

7.9 第八步:清洗查询表 132

7.10 第九步:记录操作步骤 134

7.11 小结 135

第8 章 数据分享的最佳实践 136

8.1 准备干净的数据包 136

8.2 为数据编写文档 139

8.2.1 README 文件 139

8.2.2 文件头 141

8.2.3 数据模型和图表 142

8.2.4 维基或CMS 144

8.3 为数据设置使用条款与许可协议 144

8.4 数据发布 146

8.4.1 数据集清单列表 146

8.4.2 Stack Exchange 上的OpenData 147

8.4.3 编程马拉松 147

8.5 小结 148

第9 章 Stack Overflow 项目 149

9.1 第一步:关于Stack Overflow 的问题 149

9.2 第二步:收集并存储Stack Overflow数据 151

9.2.1 下载Stack Overflow 数据 151

9.2.2 文件解压 152

9.2.3 创建MySQL 数据表并加载数据 152

9.2.4 构建测试表 154

9.3 第三步:数据清洗 156

9.3.1 创建新的数据表 157

9.3.2 提取URL 并填写新数据表 158

9.3.3 提取代码并填写新表 159

9.4 第四步:数据分析 161

9.4.1 哪些代码分享网站最为流行 161

9.4.2 问题和答案中的代码分享网站都有哪些 162

9.4.3 提交内容会同时包含代码分享URL 和程序源代码吗 165

9.5 第五步:数据可视化 166

9.6 第六步:问题解析 169

9.7 从测试表转向完整数据表 169

9.8 小结 170

第10 章 Twitter 项目 171

10.1 第一步:关于推文归档数据的问题 171

10.2 第二步:收集数据 172

10.2.1 下载并提取弗格森事件的数据文件 173

10.2.2 创建一个测试用的文件 174

10.2.3 处理推文ID 174

10.3 第三步:数据清洗 179

10.3.1 创建数据表 179

10.3.2 用Python 为新表填充数据 180

10.4 第四步:简单的数据分析 182

10.5 第五步:数据可视化 183

10.6 第六步:问题解析 186

10.7 把处理过程应用到全数据量(非测试用)数据表 186

10.8 小结 187

干净的数据 数据清洗入门与实践 精彩文摘

大数据、数据挖掘、机器学习和可视化,近来计算界的几件大事好像总也绕不开数据这个主角。从统计学家到软件开发人员,再到图形设计师,一下子所有人都对数据科学产生了兴趣。便宜的硬件、可靠的处理工具和可视化工具,以及海量的免费数据,这些资源的汇集使得我们能够比以往任何一个时期更加精准地、轻松地发现趋势、预测未来。

不过,你可能还未听说过的是,数据科学的这些希望与梦想都建立在乱七八糟的数据之上。在正式应用于我们认为是数据科学的核心的算法和可视化之前,这些数据往往需要经过迁移、压缩、清洗、打散、分片、分块以及其他多种转换处理。

图书网:干净的数据 数据清洗入门与实践pdf

继续阅读

→→→→→→→→→→→→→→→→→→→→查找获取

数据库

Kali Linux & BackTrack渗透测试实战pdf

本书基于编写团队的实际经验,围绕渗透测试进行了全面介绍,并选择“Kali Linux(包含BackTrack)” Live CD作为讲解工具。下载BackTrack Live CD和Kali Linu...
数据库

SQL进阶教程pdf

数据库工程师进阶中级实用指南 挖掘SQL常见技术的新用法 基于标准SQL编写 示例程序均可下载 本书适合具有一定SQL编程经验的工程师阅读 本书特色 1.转变面向过程语言的思维定式,学习SQL常见技术...
数据库

锋利的SQLpdf

锋利的SQL 作者:张洪举 锋利的SQL 出版社:人民邮电出版社 锋利的SQL 内容简介 《锋利的SQL》从基础、开发、性能调整和实战4个方面介绍了SQL技术及其应用,包括数据库管理、表管理、索引管理...
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: