大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx

大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx

ID:83586917

大小:21.29 KB

页数:17页

时间:2024-09-01

上传者:用户名
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第1页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第2页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第3页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第4页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第5页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第6页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第7页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第8页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第9页
大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx_第10页
资源描述:

《大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

大数据解析与应用导论智慧树知到课后章节答案2023年下浙江大学浙江大学第一章测试1.下列属于多元统计方法的为()A:回归分析B:神经网络C:决策树D:主元分析答案:回归分析;主元分析2.多元统计分析的图表示法有()A:调和曲线图B:雷达图C:轮廓图D:散布图矩阵答案:调和曲线图;雷达图;轮廓图;散布图矩阵3.完整的数据分析过程,包括数据采集、数据清洗和数据分析。() A:错B:对答案:对1.下列场景适用于回归分析的是()A:水果分拣B:天气预报C:信息浓缩D:人脸识别答案:天气预报2.下面哪一句体现了主元分析的思想()A:人不是一座孤岛B:物以类聚,人以群分C:牵牛要牵牛鼻子D:笨鸟先飞答案:牵牛要牵牛鼻子第二章测试3.一般常见的缺失值处理的方法有()A:最近邻插补填充法B:插值填充C:回归填充法D:替换填充法 答案:最近邻插补填充法;插值填充;回归填充法;替换填充法1.一般常见的数据归一化的方法有()A:替换填充法B:最小最大规范化C:回归填充法D:零均值规范化答案:最小最大规范化;零均值规范化2.少量的异常值完全不会影响数据分析。()A:对B:错答案:错3.下列哪种方法不是数据填补的手段()A:回归填充法B:均值标准化C:插值填充法D:替换填充法答案:均值标准化 1.主成分分析的英文名是()。A:CanonicalComponentAnalysisB:PartialLeastSquaresC:OrdinaryLeastSquaresD:PrincipalComponentAnalysis答案:PrincipalComponentAnalysis第三章测试2.下面哪个是SVM在实际生活中的应用()A:邮件分类B:房价预测C:文本翻译D:图片分类答案:邮件分类;图片分类3.以下说法正确的有哪些()A:SVM只能够解决回归问题B:软间隔的引入可以解决轻度线性不可分问题C:SVM是一种线性方法D:核方法不能解决非线性问题答案:软间隔的引入可以解决轻度线性不可分问题;SVM是一种线性方法 1.拉格朗日乘子法可用于线性可分SVM的模型求解。()A:对B:错答案:对2.SVM的中文全称叫什么?()A:支持向量回归器B:最大向量分类器C:最小向量分类器D:支持向量机答案:支持向量机3.SVM算法的最小时间复杂度是O(n²),基于此,以下哪种规格的数据集并不适该算法?()A:大数据集B:中等数据集C:不受数据集的大小影响D:小数据集答案:大数据集第四章测试4.一元线性回归有哪些基本假定?() A:随机误差项和解释变量X不相关;B:随机误差项服从零均值、同方差的正态分布。C:解释变量X是确定性变量,Y是随机变量;D:随机误差项具有零均值、同方差和序列不相关的性质;答案:随机误差项和解释变量X不相关;;随机误差项服从零均值、同方差的正态分布。;解释变量X是确定性变量,Y是随机变量;;随机误差项具有零均值、同方差和序列不相关的性质;1.最典型的两种拟合不佳的情况是()。A:欠拟合B:过拟合C:强拟合D:弱拟合答案:欠拟合;过拟合2.岭回归适用于样本很少,但变量很多的回归问题。()A:对B:错答案:对3.最小二乘方法的拟合程度衡量指标是()。A:残差和B:均值差C:拟合残差D:残差平方和 答案:残差平方和1.关于最小二乘法,下列说法正确的是。()A:最小二乘法要求样本点到拟合直线的垂直距离的平方和最小B:最小二乘法要求样本点到拟合直线的垂直距离的和最小C:最小二乘法要求样本点到拟合直线的竖直距离的平方和最小D:最小二乘法要求样本点到拟合直线的竖直距离的和最小答案:最小二乘法要求样本点到拟合直线的竖直距离的平方和最小第五章测试2.在区分某个算法是否是聚类算法时,往往可以通过该算法是否需要预先设定明确的类中心来判断()。A:对B:错答案:对3.闵可夫斯基距离是一组距离的定义,下列距离中属于闵可夫斯基距离的有()A:马氏距离B:切比雪夫距离C:欧式距离D:曼哈顿距离答案:切比雪夫距离;欧式距离 ;曼哈顿距离1.在利用EM算法估计高斯混合模型参数的时候,需要预先设定的参数有()。A:高斯元的均值B:高斯元的权重系数C:类别个数D:高斯元的方差答案:高斯元的均值;高斯元的权重系数;类别个数;高斯元的方差2.聚类算法是一种()的学习方式。A:有监督B:自上而下C:Q型D:无监督答案:无监督3.理想情况下,K均值算法中确定类别个数的最佳方式为()。A:无需提前确定,可以在训练中得到B:根据比较不同类别个数时的聚类效果来确定C:随机确定D:结合先验知识确定 答案:结合先验知识确定第六章测试1.随机森林只能选择决策树作为基分类器。()A:错B:对答案:错2.在Bootstrap自助采样法中,真实的情况是()。A:在每一次采样中,样本之间不重复;在完成n次采样之后,有些样本可能没有被采集到B:在每一次采样中,样本之间可能有重复;在完成n次采样之后,所有样本都会被采集到C:在每一次采样中,样本之间可能有重复;在完成n次采样之后,有些样本可能没有被采集到D:在每一次采样中,样本之间不重复;在完成n次采样之后,所有样本都会被采集到答案:在每一次采样中,样本之间可能有重复;在完成n次采样之后,有些样本可能没有被采集到3.对于离散型随机变量X,它的熵取决于()。A:X取每个值的概率B:X的分布函数C:X的取值范围D:X的期望 答案:X取每个值的概率1.随机森林有哪些优点()。A:减弱单决策树的过拟合情况B:训练速度快C:可以处理高维度数据D:可以给出特征的重要性大小答案:减弱单决策树的过拟合情况;训练速度快;可以处理高维度数据;可以给出特征的重要性大小2.随机森林的随机性体现在哪里()A:每棵树的结点采用随机属性搜索B:随机删除一些树内结点C:随机采用随机抽取的样本来训练整个随机森林D:每棵树采用随机取样训练答案:每棵树的结点采用随机属性搜索;每棵树采用随机取样训练第七章测试3.典型相关分析适用于分析两组变量之间的关系() A:对B:错答案:对1.CCA算法在求解时,分别在两组变量中选取具有代表性的综合变量Ui,Vi,每个综合变量是原变量的线性组合,选择综合变量时的目标是()A:最小化两者的相关系数B:最大化两者的距离C:最大化两者的相关系数D:最小化两者的距离答案:最大化两者的相关系数2.相比于普通CCA算法,KernelCCA()A:能分析两组随机变量之间的非线性关系B:将标签信息融入到CCA框架中C:使用了自编码器D:只考虑临近点的影响答案:能分析两组随机变量之间的非线性关系3.关于典型相关分析CCA与主成分分析PCA,下面说法错误的是()A:PCA可以视为一种降维技术,CCA不可以视为一种降维技术B:是否进行归一化,都不影响分析结果C:都基于变量的线性变换D:考虑了变量的相关性信息答案:PCA可以视为一种降维技术,CCA不可以视为一种降维技术;是否进行归一化,都不影响分析结果 1.传统典型相关分析的基本假设包括()A:两组变量的地位是相等的。B:样本的同质性高,但各组内变量间不能有高度的复共线性。C:变量具有正态性;D:变量间的关系是线性关系:每对典型变量之间是线性关系,每个典型变量与本组变量之间也是线性关系;答案:两组变量的地位是相等的。;样本的同质性高,但各组内变量间不能有高度的复共线性。;变量具有正态性;;变量间的关系是线性关系:每对典型变量之间是线性关系,每个典型变量与本组变量之间也是线性关系;第八章测试2.为了提高预测结果的精度,网络结构设置得越复杂越好,不必考虑训练网络时所花费的时间。()A:错B:对答案:错3.下面哪个函数不是神经元的激活函数()A:B:C: D:答案:1.关于卷积神经网络CNN,以下说法错误的是:()A:CNN中的池化层用于降低特征图维数,以避免过拟合。B:由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。C:CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。D:CNN中的全连接层常用softmax作为激活函数。答案:由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。2.相较于传统RNN,LSTM引入了独特的门控机制。以下哪些是LSTM中包含的门结构:()A:输入门B:输出门C:更新门D:遗忘门答案:输入门;输出门;遗忘门3.关于卷积神经网络CNN与循环神经网络RNN,下面说法正确的有:() A:CNN和RNN都采用了权值共享机制以减少网络中的参数量。B:CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。C:在同一个网络中,CNN结构和RNN结构不能同时使用。D:CNN适用于图像处理,而RNN适用于序列数据处理。答案:CNN和RNN都采用了权值共享机制以减少网络中的参数量。;CNN适用于图像处理,而RNN适用于序列数据处理。第九章测试1.自编码器的训练属于半监督学习。()A:对B:错答案:错2.下面哪一种算法属于生成式模型()。A:决策树B:变分自编码器C:支持向量机D:线性回归模型答案:变分自编码器3.关于去噪自编码器DAE,以下说法错误的是:()A:DAE一般以含噪声数据作为输入,并输出重构的去噪数据。B:DAE训练时需要保证训练数据的完整性。C:DAE的Loss函数用于最小化预测结果与噪声数据间的误差。 D:DAE中假设所有含噪样本的损坏过程一致。答案:DAE的Loss函数用于最小化预测结果与噪声数据间的误差。1.在稀疏自编码器中,假设神经元采用tanh作为激活函数,则:()A:当神经元的输出接近0的时候,认为它被抑制。B:当神经元的输出接近1的时候,认为它被激活。C:当神经元的输出接近-1的时候,认为它被抑制。D:当神经元的输出接近0的时候,认为它被激活。答案:当神经元的输出接近1的时候,认为它被激活。;当神经元的输出接近-1的时候,认为它被抑制。2.关于变分自编码器VAE,以下说法正确的有:()A:VAE的变分下界中,KL散度项可以为负值。B:VAE是一类生成模型,可用于训练出一个样本的生成器。C:VAE广泛用于生成图像。D:VAE的变分下界由KL散度项和模型重建误差项组成。答案:VAE是一类生成模型,可用于训练出一个样本的生成器。;VAE广泛用于生成图像。;VAE的变分下界由KL散度项和模型重建误差项组成。第十章测试3.一般情况下我们在模型训练及调参前要先进行数据分析预处理以及特征工程,这是十分必要的一环()。 A:错B:对答案:对1.对于糖尿病的血糖预测,我们可以考虑使用()方法。A:DNNB:SVMC:LSTMD:SVR答案:DNN;LSTM;SVR2.工业蒸汽量预测是一个()问题。A:聚类B:多元回归C:二分类D:自回归答案:多元回归3.DBDAE降噪,训练过程中停止训练是因为()。A:节省训练时间B:防止进一步学习噪声的信息C:PCA的重构误差已经最小D:训练的Loss已经达到最小值答案:防止进一步学习噪声的信息 1.双盲降噪自编码器中的“双盲”是指()。A:无需得知噪声的特征信息B:无需训练中加入范数约束C:无需了解信号的纯净版本D:无需训练至Loss最小答案:无需得知噪声的特征信息;无需了解信号的纯净版本

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
最近更新
更多
大家都在看
近期热门
关闭