2020-09-21 22:49:51
2020年上海市高等学校信息技术水平考试试卷 四级 人工智能(视觉技术方向 模拟卷)
(本试卷考试时间 150 分钟)
一、单选题 ( 本大题 16 道小题 ,每小题 1 分,共 16 分),从下面题目给出的A、B、C、D四个可供选择的答案中选择一个正确答案。
1.在回归模型中,下列____在权衡欠拟合和过拟合中影响最大。 A.多项式阶数
B.更新权重 w 时,使用的是矩阵求逆还是梯度下降 C.使用常数项 D.增加数据量
2.A和B分别代表两个事件,如果P(A, B)降低,同时P(A)上升,____是正确的。 A.P(B|A)降低 B.P(A|B)降低 C.P(B)降低 D.P(B)上升
3.癌症检查数据样本有10000个,其中10个数据祥本是有癌症,其它是无癌症。假设分类模型在无癌症数据9990中预测正确了9980个,在10个癌症数据中预测正确了9个,此时真阳=9,真阴=9980,假阳=10,假阴=1 。则该分类模型的F1-score为____。 A.62.07% B.99.89% C.47.36% D.76. 27%
4.在测试一假设h时,发现在一包含n=1000个随机抽取样例的样本s上,它出现r=300个错误, 计算errors(h)的标准差为____。 A.0.0145 B.0.145 C.1.45 D.14.5
5. 下表为某训练集数据,其中X1,X2为特征,Y为分类标记,则使用该训练集学
习到的朴素贝叶斯分类器对x = (1,M) 的分类结果为____。
第 1 页, 共 7 页 41(A 场)
2020-09-21 22:49:51
A.0 B.1
C.不确定
D.0和1都有可能
6.关于主成分分析算法,以下步骤____是错误的。 A.对所有样本进行去中心化 B.计算样本的协方差矩阵 C.对协方差矩阵做特征值分解
D.取最大的低维空间维数特征值所对应的特征向量输出投影矩阵
7.四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用 SVM 分类的决策边界是____。 A.x = 0 B.y = x C.y = -x D.y = 0
8.在大数据集上训练决策树,为减少训练时间,可使用以下________方法。 A.减少树的深度 B.增加树的深度 C.增加学习率 D.减少树的数量
9.关于偏差和方差,以下说法不正确的是____。 A.如果能保证或验证一批训练集来自同一个分布,算法在这批训练集上的学习结果会是一致的
B.偏差-方差分解试图对学习算法的期望泛化错误率进行拆解 C.泛化误差可以分解为偏差、方差和噪声之和 D.方差与偏差通常是有冲突的,其中方差刻画数据扰动造成的影响,偏差刻画的是学习算法本身的拟合能力
10.下列哪个神经网络结构会发生权重共享________。 A.卷积神经网络和循环神经网络 B.卷积神经网络 C.循环神经网络 D.全连接神经网络
第 2 页, 共 7 页 41(A 场)
2020-09-21 22:49:51
11.______不是双目立体视觉中的重要步骤。 A.图像滤波 B.立体匹配 C.相机标定 D.图像校正
12.图像的边缘以及其他灰度突变与______相关。 A.高频分量 B.低频分量
C.具有高频和其他突变的边缘,灰度具有低频分量 D.低频边缘和其他灰度突变的高频分量
13.BatchNorm层对于input batch会统计出mean和 variance 用于计算 EMA。如果input batch 的 shape 为(B, C, H, W),统计出的 mean 和 variance 的 shape 为______。 A.1 * C * 1 * 1 B.B * 1 * 1 * 1 C.B * C * 1 * 1 D.1 * 1 * 1 * 1
14.梯度下降算法的正确步骤是______。 a.计算预测值和真实值之间的误差
b.重复迭代,直至得到网络权重的最佳值 c.把输入传入网络,得到输出值 d.用随机值初始化权重和偏差
e.对每一个产生误差的神经元,调整相应的(权重)值以减小误差
A.dcaeb B.daceb C.dceab D.daecb
15.在训练一个卷积神经网络时,不同最优化方式,如SGD,ADAM下列说法中正确的是______。 A.相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
B.在实际场景下,应尽量使用ADAM,避免使用SGD
C.同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法 D.同样的初始学习率情况下,ADAM比SGD容易过拟合
16.在训练一个卷积神经网络时,不同最优化方式,如SGD,ADAM下列说法中正确的是______。 A.相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通常会取得更好效果
B.在实际场景下,应尽量使用ADAM,避免使用SGD
C.同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法
第 3 页, 共 7 页 41(A 场)