Menu
您的位置:中国房产新闻网 > 数据研究 > >

数据挖掘:实用机器学习工地产新闻具与技术(原书 第三版)2014年版

新闻来源:新浪  2018-03-21 11:32
  4.2.1 缺失值和数值属性
  5.4.2 自助法
 8.3 随机化
 5.1 训练和测试
  6.8.5 分类效用
 11.2 探索Explorer
 16.1 一个分类器范例
 1.5 将泛化看做搜索
  8.2.1 偏差-方差分解
第一部分 数据挖掘简介
  6.5.1 减少样本集的数量
  1.1.1 描述结构模式
 4.8 聚类
  7.2.1 无监督离散化
  6.5.6 泛化的距离函数
第1章 绪论
  17.3.3 可视化朴素贝叶斯
  7.3.1 主成分分析
  11.3.3 有监督过滤器
 17.6 挖掘关联规则
 1.1 数据挖掘和机器学习
  6.8.10 讨论
  7.5.3 检测异常
第7章 数据转换
  16.1.6 main()
  16.1.1 buildClassifier()
 4.6 线性模型
 9.4 融合领域知识
 6.10 多实例学习
译者序
  1.3.7 其他应用
  7.5.1 改进决策树
  6.5.7 讨论
 4.7 基于实例的学习
 8.7 堆栈
 14.3 命令行选项
  1.2.2 隐形眼镜:一个理想化的问题
 1.4 机器学习和统计学
  17.4.5 自动参数调整
  6.6.7 从模型树到规则
 8.1 组合多种模型
  7.2.5 离散属性转换成数值属性
 4.9 多实例学习
 13.2 简单设置
 4.1 推断基本规则
  4.7.1 距离函数
 13.1 开始
  6.6.5 缺失值
  17.6.1 关联规则挖掘
  11.1.5 重做一遍
  6.5.3 属性加权
 2.5 补充读物
  6.7.5 讨论
  7.6.3 集成嵌套二分法
  16.1.3 computeInfoGain()
  6.6.9 讨论
 6.11 Weka实现
  17.2.2 属性选择
  11.4.5 神经网络
  6.8.1 选择聚类的个数
  2.4.3 稀疏数据
  6.7.4 用于快速学习的数据结构
  11.1.2 将数据载入Explorer
  11.1.7 运行错误的处理
 2.2 样本
 5.8 评估数值预测
  17.3.5 弄乱数据
  6.4.9 讨论
 1.6 数据挖掘和道德
 10.4 如何得到Weka
  17.6.2 挖掘一个真实的数据集
  5.7.2 成本敏感学习
 6.1 决策树
  6.8.2 层次聚类
 3.1 表
  1.6.2 使用个人信息
 11.5 元学习算法
  6.4.6 多层感知机
 7.4 抽样
 1.3 应用领域
  17.3.4 可视化决策树和规则集
  4.6.2 线性分类:Logistic回归
  4.6.1 数值预测:线性回归
 9.5 文本挖掘
  1.2.1 天气问题
  11.2.4 使用元学习器
 3.4 规则
 6.2 分类规则
  11.8.3 搜索方法
  5.6.2 信息损失函数
 8.6 可解释的集成器
  7.3.3 偏最小二乘回归
 9.3 数据流学习
  11.4.7 多实例分类器
  11.4.1 贝叶斯分类器
  6.7.3 算法细节
 17.2 最近邻学习和决策树
索引

第4章 算法:基本方法
 6.8 聚类
 11.8 属性选择
第14章 命令行界面
 7.3 投影
  6.6.1 模型树
  8.4.2 提升算法的威力
第5章 可信度:评估学习结果
  1.3.3 图像筛选
  4.4.3 规则与决策列表
  7.2.2 基于熵的离散化
  17.2.4 改变训练数据的数量
  14.2.4 其他包
 13.4 分析面板
第3章 输出:知识表达
 5.11 补充读物
  17.5.1 包含字符串属性的数据
 11.6 聚类算法
  4.8.3 讨论
  6.9.3 EM和协同训练
 8.5 累加回归
 2.1 概念
  2.2.2 其他实例类型
  7.3.2 随机投影
 11.1 开始
  3.4.4 表达能力更强的规则
  11.2.6 属性选择
  4.6.4 使用Winnow的线性分类
目  录
  2.4.2 ARFF格式
  11.4.8 杂项分类器
  4.9.2 聚集输出
  5.6.3 讨论
  2.4.7 了解数据
 9.1 应用数据挖掘
 9.9 补充读物
 7.6 多分类问题转换成二分类问题
  6.6.6 模型树归纳的伪代码
  4.5.1 项集
 5.10 在聚类方法中应用MDL原理
  6.10.2 升级学习算法
  15.1.3 classifyMessage()
  11.4.3 规则
  7.3.4 从文本到属性向量
 4.4 覆盖算法:建立规则
第6章 实现:真正的机器学习方案
  11.2.2 训练和测试学习方案
  11.2.7 可视化
  6.9.2 协同训练
  13.1.1 运行一个实验
  6.8.7 EM算法
 11.4 学习算法
  7.6.2 误差校正输出编码
  1.1.2 机器学习
  11.5.4 成本敏感学习
 11.3 过滤算法
  4.5.4 讨论
  16.1.2 makeTree()
  11.1.3 建立决策树
第8章 集成学习
第12章 Knowledge Flow界面
  8.2.2 考虑成本的装袋
  2.2.1 关系
  4.3.1 计算信息量
  7.2.3 其他离散化方法
  4.8.2 快速距离计算
  1.2.4 CPU性能:介绍数值预测
  4.4.2 一个简单的覆盖算法
 5.6 预测概率
  4.8.1 基于距离的迭代聚类
  11.1.4 查看结果
 17.5 文档分类
  17.1.4 可视化面板
参考文献
  6.8.3 层次聚类的例子
  11.4.4 函数
  17.2.3 类噪声以及最近邻学习
 17.3 分类边界
  5.4.1 留一交叉验证
 10.2 如何使用Weka
 6.6 局部线性模型用于数值预测
  1.3.1 Web挖掘
  11.8.1 属性子集评估器
  17.4.2 离散化的更多方面
第17章 Weka Explorer的辅导练习
  1.6.1 再识别
  2.4.5 缺失值
 9.7 对抗情形
  4.5.2 关联规则
 4.10 补充读物
 3.7 补充读物
  6.2.4 使用全局优化
  3.4.2 关联规则
  6.2.5 从局部决策树中获得规则
  14.2.1 类、实例和包
  6.1.2 缺失值
  3.4.3 包含例外的规则
  6.8.9 贝叶斯聚类
  5.7.6 讨论
 4.11 Weka实现
 13.3 高级设置
  11.1.6 运用模型
第2章 输入:概念、实例和属性
  6.10.4 讨论
内容简介
  17.1.1 导入数据集
 12.2 Knowledge Flow组件
  4.2.3 讨论
 5.5 数据挖掘方法比较
  5.7.3 提升图
  8.6.1 选择树
  7.2.4 基于熵的离散化与基于误差的离散化
 10.1 Weka中包含了什么
  14.2.2 weka.core包
 3.6 聚类
  17.5.3 探索StringToWordVector过滤器
  6.3.2 寻找大项集
  6.1.5 决策树归纳的复杂度
  4.3.2 高度分支属性
  11.2.3 自己动手:用户分类器
出版者的话
第9章 继续:扩展和应用
  6.6.8 局部加权线性回归
第13章 Experimenter界面
  6.1.8 成本-复杂度剪枝
  6.2.1 选择测试的标准
  6.6.3 对树剪枝
  1.3.4 负载预测
  7.6.1 简单方法
 10.3 Weka的其他应用
  6.6.4 名目属性
  6.4.2 非线性类边界
  4.1.1 缺失值和数值属性
 5.7 计算成本
  4.9.3 讨论
  6.2.3 生成好的规则
 11.7 关联规则学习器
  2.4.4 属性类型
  6.4.5 核感知机
  1.3.5 诊断
  1.5.1 枚举概念空间
 8.8 补充读物
 7.7 校准类概率
  6.1.1 数值属性
  4.5.3 有效地生成规则
 14.1 开始
  1.2.5 劳资协商:一个更真实的例子
  4.2.2 用于文档分类的朴素贝叶斯
  11.2.1 载入及过滤文件
 4.5 挖掘关联规则
 5.3 交叉验证
  5.7.4 ROC曲线
 17.4 预处理以及参数调整
出版时间:2014年版
  17.5.2 实际文档文类
  2.4.6 不正确的值
  17.3.2 可视化最近邻学习
作者:(新西兰)威滕,(新西兰)弗兰克,(新西兰)霍尔 著
  4.6.3 使用感知机的线性分类
  1.1.3 数据挖掘
 16.2 与实现分类器有关的惯例
  17.4.3 自动属性选择
  1.2.6 大豆分类:一个经典的机器学习的成功例子
  6.5.5 用于泛化样本集的距离函数
  6.8.8 扩展混合模型
  11.1.1 准备数据
  8.3.2 旋转森林
 7.5 数据清洗
  1.5.2 偏差
  5.7.7 成本曲线
  6.10.1 转换为单实例学习
 5.9 最小描述长度原理
  7.5.4 一分类学习
 2.4 输入准备
  5.6.1 二次损失函数
致谢
  6.10.3 专用多实例方法
  4.3.3 讨论
  7.1.2 搜索属性空间
第二部分 高级数据挖掘
 2.3 属性
  17.3.1 可视化1R
  17.4.1 离散化
  5.7.5 召回率-精确率曲线
  6.6.2 构建树
  6.3.3 讨论
  16.1.5 toSource()
 7.9 Weka实现
  6.1.4 估计误差率
  11.5.1 装袋和随机化
第10章 Weka简介
 12.3 配置及连接组件
  15.1.2 updateData()
 6.9 半监督学习
  11.5.5 优化性能
  17.6.3 购物篮分析
  6.1.6 从决策树到规则
  11.4.2 树
  17.1.3 应用过滤器
  6.1.9 讨论
 6.4 扩展线性模型
  《数据挖掘:实用机器学习工具与技术(原书第3版)》是机器学习和数据挖掘领域的经典畅销教材,被众多国外名校选为教材。书中详细介绍用于数据挖掘领域的机器学习技术和工具以及实践方法,并且提供了一个公开的数据挖掘工作平台Weka。本书主要内容包括:数据输入/输出、知识表示、数据挖掘技术(决策树、关联规则、基于实例的学习、线性模型、聚类、多实例学习等)以及在实践中的运用。本版对上一版内容进行了全面更新,以反映自第2版出版以来数据挖掘领域的技术变革和新方法,包括数据转换、集成学习、大规模数据集、多实例学习等,以及新版的Weka机器学习软件。
 4.3 分治法:建立决策树
  11.3.1 无监督属性过滤器
  1.3.6 市场和销售
 12.4 增量学习
  3.4.1 分类规则
  8.6.2 Logistic模型树
第11章 Explorer界面
前言
  11.8.2 单一属性评估器
  17.2.1 玻璃数据集
  1.6.3 其他问题
  17.1.2 数据集编辑器
 14.2 Weka的结构
  6.9.1 用于分类的聚类
  4.7.2 有效寻找最近邻
  5.7.1 成本敏感分类
  1.2.3 鸢尾花:一个经典的数值型数据集
 3.5 基于实例的表达
 8.9 Weka实现
 8.4 提升
  6.1.7 C4.5:选择和选项
  11.5.6 针对不同任务重新调整分类器
  6.1.3 剪枝
  6.4.4 核岭回归
 1.7 补充读物
  8.4.1 AdaBoost算法
  7.5.2 稳健回归
  4.1.2 讨论
  7.1.1 独立于方案的选择
  11.2.5 聚类和关联规则
  7.3.5 时间序列
 8.2 装袋
  17.4.4 自动属性选择的更多方面
 17.1 Explorer界面简介
 6.7 贝叶斯网络
  17.1.5 分类器面板
 4.2 统计建模
  11.5.3 组合分类器
  8.3.1 随机化与装袋
  4.7.3 讨论
 9.6 Web挖掘
  6.4.1 最大间隔超平面
 5.2 预测性能
  6.8.6 基于概率的聚类
 7.8 补充读物
 5.4 其他评估方法
 15.1 一个简单的数据挖掘应用
 7.1 属性选择
 13.5 将运行负荷分布到多个机器上
  6.9.4 讨论
  6.2.6 包含例外的规则
  4.4.1 规则与树
第三部分 Weka数据挖掘平台
  11.3.2 无监督实例过滤器
 6.5 基于实例的学习
  6.7.1 预测
 7.2 离散化数值属性
 3.2 线性模型
  15.1.1 MessageClassifier()
  11.4.6 懒惰分类器
第15章 嵌入式机器学习
  2.4.1 数据收集
  6.8.4 增量聚类
  13.1.2 分析结果
  6.4.8 随机梯度下降
  6.2.7 讨论
 3.3 树
  6.5.4 泛化样本集
 6.3 关联规则
 12.1 开始
  16.1.4 classifyInstance()
  1.3.2 包含评判的决策
  6.3.1 建立频繁模式树
  8.5.1 数值预测
  14.2.3 weka.classifiers包
  6.5.2 对噪声样本集剪枝
  14.3.2 与具体方案相关的选项
  6.2.2 缺失值和数值属性
  17.2.5 交互式建立决策树
 9.8 无处不在的数据挖掘
  8.5.2 累加Logistic回归
  6.4.7 径向基函数网络
  6.4.3 支持向量回归
  4.9.1 聚集输入
  14.3.1 通用选项

数据挖掘:实用机器学习工具与技术(原书 第三版)
  7.1.3 具体方案相关的选择
  6.7.2 学习贝叶斯网络
  11.5.2 提升
  14.2.5 Javadoc索引
 1.2 简单的例子:天气问题和其他问题
第16章 编写新的学习方案
 9.2 从大型的数据集里学习
免责声明:凡本网注明 “来源:XXX(非中国房产新闻网)” 的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

最新资讯

滚动播报

更多