超前自学网

 找回密码
 立即注册

奥鹏在线作业,2元一门,先做后付,微信424329

查看: 51|回复: 0

20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业

[复制链接]

3万

主题

3万

帖子

9万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
95816
发表于 2020-10-29 14:47:26 | 显示全部楼层 |阅读模式
微信公众号:超前自学网
点击这里

对于k近邻法,下列说法错误的是()。
A:不具有显式的学习过程
B:适用于多分类任务
C:k值越大,分类效果越好
D:通常采用多数表决的分类决策规则

以下哪个不是处理缺失值的方法()
A:删除记录
B:按照一定原则补充
C:不处理
D:随意填写

在一元线性回归模型中,残差项服从()分布。
A:泊松
B:正态
C:线性
D:非线性

一元线性回归中,真实值与预测值的差称为样本的()。
A:误差
B:方差
C:测差
D:残差

Apriori算法的加速过程依赖于以下哪个策略(  )
A:抽样
B:剪枝
C:缓冲
D:并行

数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于()
A:异常值
B:缺失值
C:不一致的值
D:重复值

单层感知机模型属于()模型。
A:二分类的线性分类模型
B:二分类的非线性分类模型
C:多分类的线性分类模型
D:多分类的非线性分类模型

层次聚类适合规模较()的数据集
A:大
B:中
C:小
D:所有

通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
A:简单函数变换
B:规范化
C:属性构造
D:连续属性离散化

例如将工资收入属性值映射到[-1,1]或者[0,1]内属于数据变换中的()
A:简单函数变换
B:规范化
C:属性构造
D:连续属性离散化

在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用()。
A:越小
B:越大
C:无关
D:不确定

考虑下面的频繁3-项集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()
A:1,2,3,4
B:1,2,3,5
C:1,2,4,5
D:1,3,4,5

具有偏差和至少()个S型隐含层加上一个()输出层的网络能够逼近任何有理数。
A:1,线性
B:2,线性
C:1,非线性
D:2,非线性

实体识别属于以下哪个过程()
A:数据清洗
B:数据集成
C:数据规约
D:数据变换

通过变量标准化计算得到的回归方程称为()。
A:标准化回归方程
B:标准化偏回归方程
C:标准化自回归方程
D:标准化多回归方程

我们需要对已生成的树()进行剪枝,将树变得简单,从而使它具有更好的泛化能力。
A:自上而下
B:自下而上
C:自左而右
D:自右而左

聚类是一种()。
A:有监督学习
B:无监督学习
C:强化学习
D:半监督学习

利用最小二乘法对多元线性回归进行参数估计时,其目标为()。
A:最小化方差#最小化标准差
B:最小化残差平方和
C:最大化信息熵

实体识别的常见形式()
A:同名异义
B:异名同义
C:单位不统一
D:属性不同

以下哪一项不属于数据变换()
A:简单函数变换
B:规范化
C:属性合并
D:连续属性离散化

距离度量中的距离可以是()
A:欧式距离
B:曼哈顿距离
C:Lp距离
D:Minkowski距离

Apriori算法的计算复杂度受()影响。
A:支持度阈值
B:项数
C:事务数
D:事务平均宽度

K-means聚类中K值选取的方法是()。
A:密度分类法
B:手肘法
C:大腿法
D:随机选取

聚类的主要方法有()。
A:划分聚类
B:层次聚类
C:密度聚类
D:距离聚类

对于多层感知机,()层拥有激活函数的功能神经元。
A:输入层
B:隐含层
C:输出层

什么情况下结点不用划分()
A:当前结点所包含的样本全属于同一类别
B:当前属性集为空,或是所有样本在所有属性上取值相同
C:当前结点包含的样本集为空
D:还有子集不能被基本正确分类

下列选项是BFR的对象是()
A:废弃集
B:临时集
C:压缩集
D:留存集

系统日志收集的基本特征有()
A:高可用性
B:高可靠性
C:可扩展性
D:高效率

下面例子属于分类的是()
A:检测图像中是否有人脸出现
B:对客户按照贷款风险大小进行分类
C:识别手写的数字
D:估计商场客流量

k近邻法的基本要素包括()。
A:距离度量
B:k值的选择
C:样本大小
D:分类决策规则

一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升越大”,因此我们可用信息增益来进行决策树的最优特征选择。
A:对
B:错

给定一个数据集,如果存在某个超平面S能够将数据集的部分正实例点和负实例点正确的划分到超平面的两侧,则称该数据集是线性可分数据集。
A:对
B:错

Pearson相关系数是判断特征之间、以及特征和目标变量之间线性相关关系的统计量。
A:对
B:错

特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。
A:对
B:错

两个对象越相似,他们的相异度就越高。
A:对
B:错

朴素贝叶斯分类器有简单、高效、健壮的特点,但某些属性可能会降低分类器的性能
A:对
B:错

获取数据为数据分析提供了素材和依据,这里的数据只包括直接获取的数据。
A:对
B:错

选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。
A:对
B:错

K均值(K-Means)算法是密度聚类。
A:对
B:错

K-means算法采用贪心策略,通过迭代优化来近似求解。
A:对
B:错

赤池信息准则是衡量统计模型拟合优良性的一种标准。
A:对
B:错

平均减少的不纯度越大,则特征重要度越高。
A:对
B:错

标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。
A:对
B:错

子集产生本质上是一个搜索过程,该过程可以从空集、随机产生的一个特征子集或者整个特征集开始。
A:对
B:错

数据科学具有广泛的应用领域,可以应用在社交网络、职业体育、政治竞选
A:对
B:错

探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。
A:对
B:错

决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的过程,这一过程对应着特征空间的划分,也对应着决策树的构建
A:对
B:错

给定关联规则A→B,意味着:若A发生,B也会发生。
A:对
B:错

信息熵越大,数据信息的不确定性越小。
A:对
B:错

对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
A:对
B:错

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|超前自学网 ( 皖ICP备20014425号-1 )|网站地图

GMT+8, 2025-5-5 07:16

Powered by Discuz! X3.4

© 2001-2013 Comsenz Inc.. 技术支持 by 巅峰设计

快速回复 返回顶部 返回列表