随机练习 1.填空题 。收藏 DenseNets有几个引入注目的优势: 一、 、 和
[参考答案】缓解了梯度消失加强了特征传播增强 了特征复用通过较少的通道数减少参数量 谓输入答案 1.1 请输入答案 1.2 请输入答案 1.3 请输入答案 1.4
3.单选题 对于k折交叉验证,以下对k的说法正确的是() k越大,不一定越好,选择大的k会加大评估 时间 选择更大的k,就会有更小的bias (因为训练 集更加接近总数据集) C 在选择k时,要最小化数据集之间的方差 D 以上所有 A答错了,再接再厉哦 参考答案:D 我的答案:A 答案解析: k越大,bias越小,训练时间越长.在训练时,也要考虑数据 集间方差差别不大的原则.比如,对于二类分类问题,使用 2-折交叉验证,如果测试集里的数据都是A类的,而训练集 中数据都是B类的,显然,测试效果会很差. 随机练习 7.单选题 收藏 增加卷积核的大小对于改进卷积神经网络的效果是 必要的吗? A 没听说过 B 不知道 o是 D 否 A答错了,再接再厉哦 参考答案:D 我的答案:C 答案解析: 增加核函数的大小不一定会提高性能。这个问题在很 大程度上取决于数据集。 < 随机练习 9.单选题 ☆收藏 采用拂度下降法更新模型参数时,求导是非常■要的计鼻步BU求导方法之 一的■■符号求导”存在的主要缺点是() A 代码无法通用或复用 B 计算!■巨大 ? 会引入含入误差和截断误差 D 出现■哀达式臨胀" A答错了,再接再厉哦 参考答案:D 我的答案:C
。收藏 "参数共享”是使用卷积网络的好处。关于参数共享的 下列哪些陈述是正确的? A 它减少了参数的总数,从而减少过拟合。 它允许在整个输入值的多个位置使用特征 检测器。 它允许为一项任务学习的参数即使对于不 同的任务也可以共享(迁移学习)。 它允许梯度下降将许多参数设置为零,从 而使得连接稀疏。 A答错了,再接再厉哦
因为池化层不具有参数,所以它们不影响反向传播 的计算。 O对 B 错 参考答案:错 19.单选题 如果你想要构建一个能够输入人脸图片输出为N个 标记的神经网络(假设图像只包含一张脸),那么你 的神经网络有多少个输出节点? A N B 2N 3N ? N*N A答错了,再接再厉哦 参考答案:B 我的答案:D
。收藏 为什么RNN (循环神经网络)可以应用机器翻译将英 语翻译成法语? A 因为它可以被用做监督学习。 严格意义上它比卷积神经网络(CNN)效果 更好。 它比较适合用于当输入/输岀是一个序列的 时候(例如:一个单词序列) RNNs代表递归过程:想法->编码->实验->想 法->… A答错了,再接再厉哦
参考答案:A,C 我的答案:D
随机练习
17.问答题 一个激活函数需要具有哪些必要的属性?还有哪些属性是好 的属性但不必要的? 我的作答: 耍 参考答案: 1.非线性:即导数不是常数。这个条件前面很多答主都提到 了,是多层神经网络的基础,保证多层网络不退化成单层线 性网络。这也是激活函数的意义所在。 2.几乎处处可微:可微性保证了在优化中梯度的可计算性。 传统的激活函数如sigmoid等满足处处可微。对于分段线性 函数比如ReLU,只满足几乎处处可微(即仅在有限个点处不 可微)。对于SGD算法来说,由于几乎不可能收敛到梯度接 近零的位置,有限的不可微点对于优化结果不会有很大影响 ⑴。 3.计算简单:正如题主所说,非线性函数有很多。极端的 A ,亠,一 , 4 .■ —… Mt -MVXtMMM* W1BMWWV M’<MV9?|fWV?49 ? M WV 9 MW * ? ?M I…— ??ra4NBawiYMe^?m VM BW— ?wi 5UWVWM??― —? r ????
<n?r. .匕 随机练习 24.填空题 < Y0L0算法与RCNN系列最大的不同是,YOLO算 法 快 24.1 参考答案: 24.1:直接预测目标位置 题卡 随机练习 26.单选题 。收藏 “稀疏连接”是使用卷积层的好处。这是什么意思? 正则化导致梯度下降将许多参数设置为 零。 每个过滤器都连接到上一层的每个通道。 下一层中的每个激活只依赖于前一层的少 量激活。 D 卷积网络中的每一层只连接到另外两层。 A答错了,再接再厉哦
参考答案:C 我的答案:B 随机练习 29.单选题 。收藏 对于一个图像识别问题(在一张照片里找出一只猫),下面哪 种神经网络可以更好地解决这个问题? o循环神经网络 感知机 C 多层感知机 D 卷积神经网络 A答错了,再接再厉哦 参考答案:D 我的答案:A 答案解析: 卷积神经网络将更好地适用于图像相关问题,因 为考虑到图像附近位置变化的固有性质。
31.判断题 当一个经验丰富的深度学习工程师在处理一个新的 问题的时候,他们通常可以利用先前的经验来在第 一次尝试中训练一个表现很好的模型,而不需要通 过不同的模型迭代多次从而选择一个较好的模型。 A答错了,再接再厉哦 参考答案:错 我的答案:对 答案解析: 也许之前的一些经验可能会有所帮助,但没有人总是 可以找到最佳模型或超参数而无需迭代多次。 随机练习 32.多选题 以下关于神经网络说法正确的有() o神经网络可以实现非线性分类 。 神经网络可以实现线性分类 神经网络的每层神经元激活函数必须相同 神经网络的每层神经元激活函数值阈必须 在【-1刀 ■恭喜,答对了 参考答案:A,B 我的答案:A,B 随机练习 34.单选题 收藏 在反向传播的过程中,首先被计算的变量0的梯 度,之后将其反向传播。 连接权重 B 激活函数 O损失函数 D 特征映射 A答错了,再接再厉哦
参考答案:B 我的答案:C
随机练习 36.单选题 收藏 当在卷积神经网络中加入池化层(pooling layer)时,变换的 不变性会被保留,是吗? A 不知道 B 看情况 C 是 O否 A答错了,再接再厉哦 参考答案:C 我的答案:D 答案解析: 池化算法比如取最大值/取平均值等,都是输入数据旋转 后结果不变,所以多层叠加后也有这种不变性。 38.判断题 tanh激活函数通常比隐藏层单元的sigmoid激活函 数效果更好,因为其输岀的平均值更接近于零,因此 它将数据集中在下一层是更好的选择,请问正确吗? A答错了,再接再厉哦 随机练习 39.多选题 C?收藏 对于很多算法工程师来说,超参数调优是件非常头 疼的事。除了根据经验设定所谓的“合理值”之外,一 般很难找到合理的方法去寻找超参数的最优取值。 而与此同时,超参数对于模型效果的影响又至关重 要。有没有一些可行的办法去进行超参数的调优呢? A 网格搜索 o梯度下降法 O 随机搜索 O 贝叶斯优化 A答错了,再接再厉哦 参考答案:A.C.D 我的答案:B.C.D 随机练习 40.多选题 0收藏 在人工神经网络的loss优化中跳岀局部最小值的有 () 9 随机梯度下降法 。 模拟退火算法 9 遗传算法 D 梯度下降法 ■恭喜,答对了
参考答案:A.B.C 我的答案:A.B.C
上午 11:17 P ^.ill(jD)> < 随机练习 41.填空题 口收, CycleGAN的生成器网络结构由
.和 构成。 41.1 41.2 41.3 参考答案: 41.1:编码层(Encoding) 41.2:转换层(Transformation) 41.3:解码层(Decoding)
42.填空题 YOLO算法与RCNN系列最大的不同是,YOLO算 法 。 [参考答案]直接预测目标位置 直接预测目标位置 42.1 参考答案: 42.1:直接预测目标位置 随机练习
我的作答: 参考答案: 答案解析: RNN引入了循环的概念,但是在实际过程中却岀现 了初始信息随时间消失的问题,即长期依赖(Long- Term Dependencies)问题,所以引入了LSTM。 LSTM:因为LSTM有进有岀且当前的cell informaton 是通过input gate控制之后叠加的,RNN是叠乘,因 此LSTM可以防止梯度消失或者爆炸的变化是关键, 下图非常明确适合记忆: GRU是LSTM的变体,将忘记门和输入们合成了一个 单一的更新门。 随机练习 44.多选题 VGG的成功主要得益于以下哪儿几点?() 多层小卷积替换大卷积 更深的卷积神经网络 O 批归一化 D 预训练 A答错了,再接再厉哦 参考答案:A.B.D 我的答案:A,B,C 题卡 随机练习 45.问答题 。收藏 CNN的卷积核是单层的还是多层的? 我的作答: 多层 参考答案: 卷积核(filter)—般是3D多层的,除了面积参数,比如3x3之 外,还有厚度参数H (2D的视为厚度1).还有一个属性是卷积 核的个数N。
随机练习
o现在我们有了更好更快的计算能力。 B 神经网络是一个全新的领域。 。 我们现在可以获得更多的数据。 深度学习已经取得了更大的进展,比如在 在线广告、语音识别和图像识别方面有了 很多的应用。
随机练习 47.填空题 RCNN通过算法 生成候选区域。 [参考答案]selective search selective search 47.1 参考答案: 47.1: selective search 随机练习 48.填空题 0收藏 目标检测是一类重要的计算机视觉算法,这类算法 可以同时完成 和 O [参考答案]目标提取目标分类 目标分类 48.1 目标提取 48.2 参考答案: 48.1:目标提取 48.2:目标分类 随机练习 49.判断题 。收藏 如果在一个高度非线性并且复杂的一些变量中,一个树模型 可能比一般的回归模型效果更好. ■恭喜,答对了
随机练习 so.多选题 收藏 下面属于BP的缺点的是() O BP神经网络算法的收敛速度慢 B BP神经网络结果选择不一 C 适应大部分数据训练模式 O BP网络不会受到训练能力影响 c ? ? ? A答错了,再接再厉哦 参考答案:A,B 我的答案:A,D
随机练习 51.多选题 属于重要的人工神经网络包括() 感知器神经网络(Perceptron Neural Netw ork) Q 反向传递(Back Propagation) Hopfield 网络 循环神经网络(RNN) A答错了,再接再厉哦
随机练习 51.多选题 属于重要的人工神经网络包括() 感知器神经网络(Perceptron Neural Netw ork) Q 反向传递(Back Propagation) Hopfield 网络 循环神经网络(RNN) A答错了,再接再厉哦
参考答案:A,C,D 我的答案:B
随机练习 53.判断题 C?收藏 一个完整的人工神经网络包括多层分析层和多层隐 藏层。() O对 B 错 A答错了,再接再厉哦
参考答案:错 我的答案:对
随机练习 54.填空题 收藏 生成对抗网络中需要分别优化的两部分分别为— 和 o [参考答案]生成器(G)判别器(D) 请输入答案 54.1 请输入答案 54.2
< 55.单选题 随机练习
批规范化(Batch Normalization)的好处都有啥? 在将所有的输入传递到下一层之前对其进 行归一化(更改) B 它将权重的归一化平均值和标准差 O 它是一种非常有效的反向传播(BP)方法 D 这些均不是 A答错了,再接再厉哦
参考答案:A
我的答案:C
随机练习 56.填空题 C?收藏 人工神经网络层数増多后通常会遇到 、 等问题。 梯度消失 56.1 难计算 56.2 参考答案: 56.1:梯度爆炸 56.2:梯度消失 E_题 随机练习 57.判断题 收藏 如果增加多层感知机(Multilayer Perceptron)的隐 藏层层数,分类误差便会减小。 O对 B 错 A答错了,再接再厉哦 参考答案:错 我的答案:对 冬 ? ? ? 答案解析: 并不总是正确。层数增加可能导致过拟合,从而可能 引起错误增加。 随机练习 58.多选题 GoogleNet模型中的基础卷积模块(称为Inception 模块)中采用的卷积核大小为() A 11x11 Q 5x5 Q 3x3 Q 1x1 ■恭喜,答对了 参考答案:B.C.D 我的答案:B.C.D 随机练习 59.填空题 ☆收藏 卷积层的输出通常由3个量来控制,它们分别是深 度、步幅和 O padding 59.1 A答错了,再接再厉哦 参考答案: 59.1:补零 < 60.填空题 RCNN算法的贡献
60.1 60.2 参考答案: 60.1:提高了目标检测的精度 60.2:提岀分两阶段检测图像中的目标 随机练习 61.多选题 C?收藏 "没有测量,就没有科学。”这是科学家门捷列夫的名 言。在计算机科学特别是机器学习领域中,对模型的 评估同样至关重要。只有选择与问题相匹配的评估 方法,才能快速地发现模型选择或训练过程中出现 的问题,迭代地对模型进行优化。以下哪些是对图像 目标检测任务的模型评估() Q loU Q RMSE mAP PSNR A答错了,再接再厉哦 参考答案:A,C 我的答案:A,B
随机练习 62.单选题 。收藏 你有一个63x63x16的输入,有32个过滤器进行卷 积,每个过滤器的大小为7x7,步幅为1,你想要使用 “same”的卷积方式,请问pad的值是多少?
■恭喜,答对了
64.多选题 关于残差网络下面哪个(些)说法是正确的? 使用跳越连接能够对反向传播的梯度下降 有益且能够帮你对更深的网络进行训练。 跳跃连接计算输入的复杂的非线性函数以 O 传递到网络中的更深层。 L2 有L层的残差网络一共有种跳跃连接的 顺序。 跳跃连接能够使得网络轻松地学习残差块 类的输入输岀间的身份映射。 A答错了,再接再厉哦 上午 11:34 ? P 随机练习 65.填空题 VGG模型的常用架构是VGG16 (数字“16”代表网络 有16个 ) o 卷积层 65.1 参考答案: 65.1:权重层 题卡 随机练习 66.填空题 C?收藏 ResNet残差模块中,若输入为x,卷积层输出为F(x) 残差块的输出为 f (x)+x 66.1 参考答案: 66.1: ReLu(H(x)=F(x)+x)
67.单选题 假设你的输入的维度为64x64x16,单个1x1的卷积 过滤器含有多少个参数(包括偏差)? A 2 17 ? 4097 D 1 A答错了,再接再厉哦 参考答案:B 我的答案:C 69.问答题 看一下下面的这两个随机数蛆“a”和“b": a = np.random.randn(2, 3) b = np.random.randn(2, 1) c = a + b 请问数组c的维度是多少? 我的作答: (2,3) 参考答案: B (列向景)复制3次,以便它可以和A的每一列相加,所以: c.shape = (2, 3) 随机练习 71.多选题 P收藏 为了消除数据特征之间的量纲影响,我们需要对特 征进行归一化处理,使得不同指标之间具有可比性。 常用的对数值类型的特征做归一化的方法有?() A 线性函数归一化 O 批归一化 C 零均值归一化 D 组归一化 A答错了,再接再厉哦 参考答案:A,C 我的答案:B 随机练习
解决或缓解深层的神经网络训练中的梯度 消失问题 解决或缓解深层的神经网络训练中的梯度 爆炸问题 6 解决或缓解深层的神经网络训练中的过拟 3合问题 解决或缓解深层的神经网络训练中的欠拟 合问题 A答错了,再接再厉哦
随机练习 74.判断题 。收藏 深度学习与机器学习算法之间的区别在 于,后者过程中无需进行特征提取工 作,也就是说,我们建议在进行深度学 习过程之前要首先完成特征提取的工 作。 O 对 B 错 A答错了,再接再厉哦 参考答案:错 我的答案:对 答案解析: 正好相反,深度学习可以自行完成特征提取过程而机器学 习需要人工来处理特征内容。 随机练习 75.问答题 常见的分类算法有哪些? 我的作答: 参考答案: SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯 随机练习 76.填空题 C?收藏 AlexNet有两个较大的创新点,一个是使用了 Relu激 活函数,加快了模型的学习过程,另一个就是加入 了 ,可以防止模型的过拟合。 [参考答案]dropout dropout 76.1 参考答案: 76.1: dropout 题卡 77.多选题 神经网络中参数极多,常用的初始化方法有哪些? A 全零初始化 Q 随机初始化 O 加载预训练模型 使用深度信念网络 A答错了,再接再厉哦 参考答案:A,B,D 我的答案:B,C 答案解析: 深度信念网络(DBN)通过采用逐层训练的方式,解 决了深层次神经网络的优化问题,通过逐层训练为整 个网络赋予了较好的初始权值,使得网络只要经过微 调就可以达到最优解。
随机练习
79.多选题 VGG网络结构有哪些配置?() A VGG9 Q VGG11 Q VGG16 Q VGGG19 ■恭喜,答对了
参考答案:B,C,D 我的答案:B.C.D
随机练习
80.问答题 常见的监督学习算法有哪些? 。收藏
我的作答: 参考答案: 感知机、svm、人工神经网络、决策树、逻辑回归 随机练习 81.问答题 。收藏 如何理解神经网络中的权值共享? 我的作答: 参考答案: 权值(权重)共享这个词是由LeNet5模型提岀来的。以CNN为 例,在对一张图偏进行卷积的过程中,使用的是同一个卷积 核的参数。比如一个3x3x1的卷积核,这个卷积核内的9个 参数被整张图共享,而不会因为图像内位置的不同而改变卷 积核内的权系数。拿一个卷积核为例,简单的说就是用一个 卷积核不改变其内权系数的情况下卷积处理整张图片。
随机练习 85.判断题 。收藏 人工神经网络(ANN)可以处理冗余特征。() ?恭喜,答对了
86.问答题 池化在卷积神经网络里面有何作用,在引进池化后 解决了什么问题? 我的作答: 数据过大 参考答案: 作用:保留主要的特征同时减少参数(降维,效果类似PCA) 和计算里,防止过拟合,提高模型泛化能力;减少模型参 数。 随机练习 87.多选题 在机器学习中,我们通常把样本分为训练集和测试 集,训练集用于训练模型,测试集用于评估模型。在 样本划分和模型验证的过程中,存在着不同的抽样 方法和验证方法。有哪些主要的验证方法? Q Holdout 检验 Q k-fold交叉验证 C 自助法 o随机法 A答错了,再接再厉哦 参考答案:A,B,C 我的答案:A.B.D
什么是欠拟合现象,网络欠拟合你该怎么办? 我的作答: 参考答案: 欠拟合(偏差很大),感知机及简单线性回归容易产生欠拟 合:特征数目过少,模型无法精确的分类和拟合数据,模型 无法很好捕捉到特征;办法:増加训练轮次,减少正则参数 (减小高偏差),増加网络复杂度。 随机练习 91.1 91.2 91.3 参考答案: 91.1:缓解了梯度消失 91.2:加强了特征传播 91.3:増强了特征复用 91.4:通过较少的通道数减少参数量 下午 2:00 ? 1 £. 澎回’Ml □ ".ill CK> < 随机练习 91.填空题 力皿8 DenseNets有几个弓I入注目的优势: 、 、 和 91.1 91.2 91.3 91.4 参考答案: 91-1:缓解了梯度消失 91.2:加强了特征传H6 91.3:塔强了特征豆用 91.4:通过较少的通道数减少参数屋
下列方法中,可以用于特征降维的方法包括0 主成分分析PCA 线性判别分析LDA O 深度学习 S parseAutoEncoder O 最小二乘法 L eastSquares 矩阵奇异值分解SVD A答错了,再接再厉哦 参考答案:A.B.C.E 我的答案:A,B,C,D 答案解析: 降维的3种常见方法ABE,都是线性的。深度学习是降维 的方法这个就比较新鲜了,事实上,细细想来,也是降维 的一种方法,因为如果隐藏层中的神经元数目要小于输 入层,那就达到了降维,但如果隐藏层中的神经元如果 随机练习 对于一个分类任务,如果开始时神经网络的权重不是随机赋 值的,而是都设成0,下面哪个叙述是正确的? 没啥问题,神经网络会正常开始训练 B 其他选项都不对 神经网络不会开始训练,因为没有梯度改 变 神经网络可以训练,但是所有的神经元最 后都会变成识别同样的东西 A答错了,再接再厉哦 参考答案:D 我的答案:C 答案解析: 令所有权重都初始化为0,这个听起来还蛮合理的想法也 许是一个我们假设中最好的一个假设了,但结果是错误 的,因为如果神经网络计算出来的输出值都一个样,那 么反向传播算法计算岀来的梯度值一样,并且参数更新 值也一样(w=w-a*dw)o更一般地说,如果权重初始化为 同一个值,网络即是对称的,最终所有的神经元最后都会 变成识别同样的东西。 回 。^,iil GD 随机练习 95.填空题 ☆收藏 假设输入层矩阵维度是96x96x3,第一层卷积层使 用尺寸为5x5、深度为16的过滤器(卷积核尺寸为5x 5、卷积核数量为16),那么这层卷积层的参数个数 为 o 95.1 A答错了,再接再厉哦 参考答案: 95.1: 1216 答案解析: 5x5x3x16+16=1216 个 随机练习 97.单选题 。收藏 构建一个神经网络,将前一层的输岀和它自身作为 输入。 下列哪一种架构有反馈连接? A 卷积神经网络 B 循环神经网络 C 限制玻尔兹曼机 O 都不是 A答错了,再接再厉哦 参考答案:B 我的答案:D 随机练习 98.多选题 机器学习中L1正则化和L2正则化的区别是? O 使用L1可以得到稀疏的权值 B 使用L1可以得到平滑的权值 O 使用L2可以得到稀疏的权值 使用L2可以得到平滑的权值 A答错了,再接再厉哦 参考答案:A,D 我的答案:A,C 答案解析: L1正则化偏向于稀疏,它会自动进行特征选择,去掉一 些没用的特征,也就是将这些特征对应的权重置为0. L2主要功能是为了防止过拟合,当要求参数越小时,说 明模型越简单,而模型越简单则,越趋向于平滑,从而防 止过拟合。 下午2:03 & 3丑 渺回 %ll。3而GD < 随机练习 卷积神经网络VGG16名称中16指的是()。 A 论文发表于2016年 O 网络总共有16层 C 网络有16层的参数需要训练 D VGG发表的第16代网络 A答错了,再接再厉哦 参考答案:C 我的答案:B 答案解析: 我们针对VGG16逬行具体分析发现,VGG16共包含: 13个卷积层(Convolutional Layer),分别用 conv3-XXX 表示 3个全连接层(Fully connected Layer),分别用FC- XXXX表示 5个池化层(Pool layer),分别用maxpool表示 其中,卷积层和全连接层具有权重系数,因此也被称 为权重层,总数目为13+3=16,这即是VGG16中16的 来源。(池化层不涉及权重,因此不属于权重层,不被 田A曰iSMi旦5E亜徐=甘1佑:的曰
随机练习 100.单选题 。收藏
数据类型 形状 C 存储地址 D 在计算图中的名称 A答错了,再接再厉哦
参考答案:C 我的答案:A
随机练习 105.多选题 降低“欠拟合”风险的方法() o添加新特征 Q 增加模型复杂度 。 减小正则化系数 D 减少数据 ■恭喜,答对了 参考答案:A,B,C 我的答案:A.B.C 题卡 随机练习 108.多选题 文本是一类非常重要的非结构化数据,如何表示文 本数据一直是机器学习领域的一个重要研究方向。 如今常用的文本数据表示方法有?() Q 词袋模型(Bag of Words) C TF-IDF (Term Frequency-Inverse Docume ?nt Frequency) Q 主题模型(Topic Model) 。 词嵌入模型(Word Embedding) ■恭喜,答对了 参考答案:A.B.C.D 我的答案:A.B.C.D
随机练习 109.单选题 。收藏 下列哪一种操作实现了和神经网络中Dropout类似的 效果? 9 Bagging B Boosting 堆疊(Stacking) D 以上都不正确
参考答案:A ■恭喜,答对了 我的答案:A
下午2:11。,丑 随机练习 110.多选题 针对不同的优化问题和应用场景,研究者们提岀了 多种不同的求解算法,并逐渐发展岀了有严格理论 支撑的硏究领域-凸优化。在这众多的算法中,有几 种经典的优化算法是值得被牢记的,了解它们的适 用场景有助于我们在面对新的优化问题时有求解思 路。以下属于优化算法的是() 9 直接法 O 迭代法 O 随机梯度下降法 O 批畐梯度下降法 ■恭喜,答对了 参考答案:A,B,C,D 我的答案:A.B.C.D 随机练习 112.单选题 ☆收藏 你有一个15x15x8的输入,并使用“pad = 2“进行填 充,填充后的尺寸是多少? A 17x17x10 B 19x19x8 19x19x12 ? 17x17x8 A答错了,再接再厉哦 参考答案:B 我的答案:D 随机练习 112.单选题 ☆收藏 你有一个15x15x8的输入,并使用“pad = 2“进行填 充,填充后的尺寸是多少? A 17x17x10 B 19x19x8 19x19x12 ? 17x17x8 A答错了,再接再厉哦 参考答案:B 我的答案:D 随机练习 113.单选题 假设你已经建立了一个神经网络。您决定将权重和 偏差初始化为零。以下聯项陈述是正确的? 第一个隐藏层中的每个神经元节点将执行 相同的计算。所以即使经过多次梯度下降 迭代后,层中的每个神经元节点都会计算 岀与其他神经元节点相同的东西。 第一个隐藏层中的每个神经元将在第一次 迭代中执行相同的计算。但经过一次梯度 下降迭代后,他们将学会计算不同的东西, 因为我们已经?■破坏了对称性”。 第一个隐藏层中的每一个神经元都会计算 出相同的东西,但是不同层的神经元会计 算不同的东西,因此我们已经完成了"对称 破坏"。 即使在第一次迭代中,第一个隐藏层的神 经元也会执行不同的计算,他们的参数将 以自己的方式不断发展。 A答错了,再接再厉哦 参考答案:A 我的答案:B
随机练习
114.判断题 我们使用普通的网络结构来训练一个很深的网络, 要使得网络适应一个很复杂的功能(比如増加层 数),总会有更低的训练误差。 A答错了,再接再厉哦
115.多选题 宇宙,是时间和空间的总和。时间是一维的,而空间 的维度,众说纷纭,至今没有定论。弦理论说是9维, JC金所认同的M理论则认为是10维。机器学习中常 用的降维方法有() Q PCA 线性判别分析 K均值聚类算法 Q ISOMAP ■恭喜,答对了 参考答案:A,B,C,D 我的答案:A,B,C,D 随机练习
116.单选题 下列哪个函数不可以做激活函数? 。收藏
V = tanh(x) B y = sin(x) y = max(x,O) ■恭喜,答对了 参考答案:D 我的答案:D 答案解析: 线性函数不能作为激活函数
< 随机练习 117.多选题 ☆收藏 在Logistic Regression中,如果同时加入L1和L2范数,会产 生什么效果() — 可以做特征选择,并在一定程度上防止过拟 0合 O 能解决維度灾难问题 O 能加快计算速度 D 可以获得更准确的結果 ■恭喜,答对了 参考答案:A.B.C 我的答案:A.B.C 答案解析: L1范数具有系数解的特性,但是要注意的是,L1没有选 到的特征不代表不重要,原因是两个高相关性的特征可 能只保留一个。如果需要确定哪个特征車要,再通过交 叉塗证。它的优良性质是能产生稀疏性,导致W中许多 项变成零。稀恭的解除了计隽虽上的好处之外,更重要 的是更具有?可解释性”。所以能加快计算速度和缓解维 数灾难.所以8C正确.在代价函数后面加上正则项,L1即 是Losso回归,L2是岭回归。L1范数是指向量中各个元 素绝对值之和,用于特征选择。L2范数是指向星各元素 的平方和然后求平方根,用于防止过拟合,提升模型的 泛化能力。因此选择A。
<上一题 题卡 下一题〉
回 。^,ill QT) 随机练习 118.问答题 ☆收藏 为了进行超参数调优,我们一般会采用网格搜索、随 机搜索、贝叶斯优化等算法。简述以下网格搜索、随 机搜索和贝叶斯优化算法。 我的作答: 参考答案: 网格搜索通过查找搜索范围内的所有的点来确定最优值。随 机搜索的思想与网格搜索比较相似,只是不再测试上界和下 界之间的所有值,而是在搜索范围中随机选取样本点。网格 搜索和随机搜索在测试一个新点时,会忽略前一个点的信 息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优 化算法通过对目标函数形状进行学习,找到使目标函数向全 局最优值提升的参数。 下午2:17 ? g m 丑 涉回 %。。^.iii gd < 随机练习 119.单选题 ☆收藏 您正在构建一个识别黄瓜(y = 1)与西瓜(y = 0)的 二元分类器。你会推荐哪一种激活函数用于输出 层? O ReLU B Leaky ReLU sigmoid D tanh A答错了,再接再厉哦 参考答案:C 我的答案:A 下午2:18。。3丑 去回 %||。編II GD < 随机练习 120.判断题 。收藏 梯度下降算法是最常用也是最有效的神经网络的优 化办法,完全可以满足不同类型的需求。() O对 B 错 A答错了,再接再厉哦
参考答案:错 我的答案:对
< 随机练习 121.单选题 计II图中每个节点代表一个() B 张* C 会话 D 变量 ■恭喜,答对了 参考答案:A 我的答案:A
< 随机练习 122.多选题 常用的池化层有哪些? A AveragePooling B Medianpooling ? MinPooling MaxPooling A答错了,再接再厉哦 参考答案:A,D 我的答案:C < 随机练习 123.判断题 。收藏 为了构建一个非常深的网络,我们经常在卷积层使 用“valid”的填充,只使用池化层来缩小激活值的宛/ 高度,否则的话就会使得输入迅速的变小。 O对 B 错 A答错了,再接再厉哦 参考答案:错 我的答案:对 下午2:19。。3丑 去回 %||。3而GD < 随机练习 125.单选题 ☆收藏 你有一个63x63x16的输入,并使用大小为7x7的32 个过滤器进行卷积,使用步幅为2和无填充,请问输 岀是多少? 。29x29x32 B 16x16x32 29x29x16 16x16x16 ■恭喜,答对了 参考答案:A 我的答案:A 下午2:51 & i ?& %ll。*||| 03 < 随机练习 阅读以下文字: 假设我们拥有一个已完成训练的、用来解决车辆检测问题的深 度神经网络模型,训练所用的数据集由汽车和卡车的照片构 成,而训练目标是检测岀每种车辆的名称(车辆共有10种类 型)。现在想要使用这个模型来解决另外一个冋题,冋题数据 集中仅包含一种车(福特野马)而目标变为定位车辆在照片中 的位置。 C 除去神经网络中的最后一层,冻结所有层 3 然后重新训练 对神经网络中的最后几层进行微调,同时 将最后一层(分类层)更改为回归层 c 使用新的数据集重新训练模型 D 所有答案均不对 A答错了,再接再厉哦
参考答案:B 我的答案:A
随机练习
131.问答题 简述下什么是生成对抗网络? 我的作答: 参考答案: GAN之所以是对抗的,是因为GAN的内部是竞争关系,一方 叫generator,它的主要工作是生成图片,并且尽虽使得其看 上去是来自于训练样本的。另一方是discriminator,其目标 是判断输入图片是否属于真实训练样本。 随机练习 132.填空题 P收藏 RCNN算法的贡献 和 [参考答案]提高了目标检测的精度 提出分两阶段检 测图像中的目标 请输入答案 132.1 请输入答案 132.2 随机练习 134.多选题 在DCGAN中,生成器中使用的激活函数为() Q ReLu Tanh LeakyReLu sigmoid A答错了,再接再厉哦 参考答案:A,B 我的答案:A,D 题卡 随机练习 136.多选题 R-CNN存下以下哪儿几个缺点?() A 重复计算 B 采用了神经网络分类器 C 不统一 O 只能处理简单场景 A答错了,再接再厉哦 参考答案:A,C 我的答案:D
随机练习 137.判断题 。收藏 AlexNet网络模型的每个卷积层的后面都会接一个池 化层。() O对 B 错 A答错了,再接再厉哦
随机练习 138.问答题 简述R-CNN、FastR-CNN和Faster R-CNN的区别。 我的作答: 参考答案: RCNN 一是在图像中确定约1000-2000个候选框(使用选律性搜索 Selective Search) 二是每个候选框内图像块縮放至相同大小,并制入到CNN内 诳行特征提取 三是对候选框中提取岀的特征,使用分类器判别是否届于一 个特定类 四是对于属于某一类别的候选框,用回归器诳一步调箜其位 Fast R-CNN 一是在图像中魂定约1000-2000个候选框(使用选择性搜素 Selective Search) 二是对整张图片谕进CNN,得到feature map 三是找到每个候选框在feature map上的跌射patch,将此 patch作为每个候选框的卷枳特征翰入到SPP layer和之后的 层 四是对候选推中提取出的特征,使用分类器判别是否属于一 个特定类 五是对于属于県一类別的候选框,用回归器诳一步调整其位 Faster R-CNN 一是对整张图片谕诳CNN,得到feature map 二是卷积特征输入到RPN.得到候选框的特征信息 三是对候选框中提取出的特征,使用分类器判别是否風于一 个特定类 四是对于属于某一类别的候选框,用回归器诳一步调箜其位 区别: RCNN结合候选区域提取和CNN特征提取,SVM分类,边界 框回归,目标检测精度mAP为53.3%; Fast R-CNNS岀 ROI Pooling,使用soflmax分类,目标检测精度mAP为 65.7%; Faster R-CNN使用RPN生成候选区域,目标检测精 度 mAP 为 67.0%. 题卡 随机练习 139.单选题 收藏 假设你需要调整超参数来最小化代价函 数(cost function),会使用下列哪项技 术? A 穷举搜索 O 随机搜索 Bayesian 优化 D 都可以 A答错了,再接再厉哦
参考答案:D 我的答案:B
随机练习
。 YOLO, R-CNN系列,SSD VGG, YOLO, SSD ResNet, R-CNN系列,SSD VGG, YOLO, R-CNN系列 ■恭喜,答对了 参考答案:A 我的答案:A
随机练习
142.填空题 随着网络层级的不断増加,模型精度不断得到提升, 然而当网络层级増加到一定的数目以后, 和 迅速下降,导致卷积神经网络性能 的退化。 142.1 142.2 参考答案: 142.1:训练精度 142.2:测试精度 题卡
随机练习 143.多选题 下列哪个神经网络结构会发生权通共享? 卷积神经网络 。 循环神经网络 O 全连接神经网络 A答错了,再接再厉哦 参考答案:A,B 我的答案:B,C 随机练习 144.单选题 O收戮 已知: -大脑是有很多个叫做神经元的东西构成,神经 网络是对大脑的简单的数学表达。 -每一个神经元都有输入、处理函数和输出。 ?神经元组合起来形成了网络,可以拟合任何函 数。 -为了得到最佳的神经网络,我们用梯度下降方 法不断更新模型 给定上述关于神经网络的描述,什么情况下神经网 络模型被称为深度学习模型? A 当这是一个图形识别的问题时 有维度更高的数据 加入更多层,使神经网络的深度增加 O 以上都不正确 A答错了,再接再厉哦 参考答案:C 我的答案:D 答案解析: 更多层意味若网络更深。没有严格的定义多少层的模 型才叫深度模型,目前如果有超过2层的隐层,那么 也可以及叫做深度模型。 <上一!2 题卡 下一题> 下午2:58 0 IL
随机练习
o非线性映射能力 Q 自学习和自适应能力 。 具有泛化能力 Q 具有容错能力 ■恭喜,答对了
参考答案:A,B,C,D 我的答案:A,B,C,D
随机练习 如果用一个词来形容概率图模型(Probabilistic Gra phical Model)的话,那就是“优雅”。对于一个实际 问题,我们希望能餅挖掘隐含在数据中的知识。概率 图模型构建了这样一幅图,用观测结点表示观测到 的数据,用隐含结点表示潜在的知识,用边来描述知 识与数据的相互关系,最后基于这样的关系图获得 一个概率分布,非常“优雅”地解决了问题。概率图模 型主要分为什么() A 贝叶斯网络(Bayesian Network) 。 马尔可夫网络(Markov Network) O 深度神经网络(Deep Learning) 图网络(Graph Network) A答错了,再接再厉哦 参考答案:A,B 我的答案:B,C 随机练习 148.单选题 计■图优化的哪种典型优化方法是主要针对GPU运鼻的?() ConstFold Arithmetic Layout Remapper A答错了,再接再厉哦 参考答案:C 我的答案:A 随机练习 149.判断题 C?收藏 DenseNets缓解了梯度消失,加强了特征传播,增强了 特征复用,通过较少的通道数减少参数?o DenseNet 在减少计算■的同时取得了更好的性能并且不会消 耗大量的内存。() A答错了,再接再厉哦
150.问答题 YOLO算法的优缺点是什么? 我的作答: 参考答案: 【优点】 第一:它非常的快。它可以每秒45帧的速度在GPU上运行, 其快速版本的速度可以超过150FPS。 第二:它是基于全局的图片进行类比预测。与基于渭动商口 (DPM)和候选区域提取(RNN)的技术不同,YOLO在训练 和测试期间会看到整个图像,因此它隐式地编码有关类及其 外观的上下文信息。更加准确。 第三:YOLO可以学习更加广泛的目标表示信息。在自然图 像(也就是实际的样子)上诳行训练后,在艺术图片(也就 是加了滤镜的样子)上进行测试时,YOLO在很大程度上优 于DPM和R-CNN等顶级检测方法。 【缺点】 第一:YOLO在准诵性方面仍落后于最新的检测系统。尽管 它可以快速识别图像中的对象,但仍难以精确定位某些物 体,尤其是一些小的物体。 第二:YOLO采用的误差函数并不合理。YOLO采用了平方和 函数作为误差函数,它非常易于优化,但无益于増大mAP。 它不合理在对定位误差和分类误差的权重相等。为了解决这 个问题,YOLO1S加了边界框坐标预测的损失权重,并滅少 了不包含对象的框的置信度预测的损失权重。 第三:YOLO限制了边界框预测的数量。每个网格单元仅预 测两个框,并且只能具有一个类。 下午2:59 t3 i ?金 < 随机练习 151.41空题 RCNN通过算法 .生成候选区域。 151.1 参考答案: 151.1: selective search
模型的高bias是什么意思,我们如何降低它? o在特征空间中减少特征 B 在特征空间中增加特征 C 增加数据点 D B和C A答错了,再接再厉哦 参考答案:B 我的答案:A 答案解析: bias太高说明模型太简单了,数据维数不够,无法准确预 测数据,所以应该升维。
Hopfield 网络结构上,Hopfield神经网络是一种单层互相全连接的反馈型神经网络。
图日一 学 16.7 46 Q) 971多5∶59 。。 O D2 K/s 。 随机练习 1.多选题☆收藏 如下缓减"过拟合"方式,你认为正确的有哪些?() 从数据入手,获得更多的训练数据 降低模型复杂度 集成学习方法 正则化方法 恭喜,答对了 我的答案∶A,B,C,D 参考答案∶A,B,C,D )手 题卡 <上一题下一题
图日一6.3 学一完。 级) 97i多5∶59 ● O D2 K/s o 随机练习 2.单选题取消收藏 假设你的输入是300×300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是5×5的大小,请问这个隐藏层有多少个参数(包括偏置参数)? 八 2501 B 2600 文 7500 D 7600 答错了,再接再厉哦、 我的答案∶C 参考答案∶D ) 题卡 <上一题下一题
图日一19.7 46 2, ①N97i多5∶59 。。 二 ED2 K/s ●U[ 随机练习 取消收藏 3. 单选题 增加卷积核的大小对于改进卷积神经网络的效果是必要的吗? A 没听说过 B 不知道 密 是 D 否 ▲ 答错了,再接再厉哦 我的答案∶C 参考答案∶D ) 答案解析∶ 增加核函数的大小不一定会提高性能。这个问题在很大程度上取决于数据集。 题卡 <上一题下一题
图曰一 15 ,,。哑 )7i乡5∶59 9 O 图回 ·U 长/c 随机练习 、 4.单选题收藏 已知∶ -大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。 -每一个神经元都有输入、处理函数和输出。 -神经元组合起来形成了网络,可以拟合任何函数。 -为了得到最佳的神经网络,我们用梯度下降方法不断更新模型 给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型? A 当这是一个图形识别的问题时 B 有维度更高的数据 加入更多层,使神经网络的深度增加 口 以上都不正确 题卡 <上一题下一题
BDAGALLELING ◎Q八 97 15∶59 M HD2 随机练习 V 5.多选题取消收藏 L R-CNN存下以下哪儿几个缺点( ) 重复计算 采用了神经网络分类器 不统一 只能处理简单场景 100 A 答错了,再接再厉哦 我的答案A,B 参考答案∶A,C <上一题题卡 下一题 >
图日一 鲫。46 ) 【7i年 5∶59 念化 O ED2 ·UU 随机练习 、 6.问答题取消收藏 假设img是一个(32,32,3)数组,具有3个颜色通道∶红色、绿色和蓝色的32x32像素的图像。 如何使用torch框架使用python语言将其重新转换为列向量? 我的作答∶v和你分担 参考答案∶ torch.reshape(img,[-1,1) 题卡 <上一题下一题
图日一 4。●46 Q) [971$6:00 念化 ◎ ED2 ●U 随机练习 7. 判断题收藏 tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中在下一层是更好的选择,请问正确吗? 对 错B 恭喜,答对了 我的答案∶对参考答案∶对 题卡 <上一题下一题
图日一3.5 字46 级) 97i多6∶00 O 。。D2 K/s o 随机练习 8. 填空题收藏 人工神经网络层数增多后通常会遇到 ? 等问题。‘ 梯度下降 8.1 过拟合8.2 参考答案∶8.1∶ 梯度爆炸8.2∶ 梯度消失 题卡 <上一题下一题
图日一2.4 4G 纭 196::01 ,。98]Q 么 ED 2 K/s ●U 随机练习 第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次“ 梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的东西。 第一个隐藏层中的每个神经元将在第一次迭代中执行相同的计算。 但经过B 一次梯度下降迭代后,他们将学会计算不同的东西,因为我们已经"破坏了对称性"。 第一个隐藏层中的每一个神经元都会计算出相同的东西,但是不同层的神O 经元会计算不同的东西因此我们已经完成了"对称破坏"。 即使在第一次迭代中,第一个隐藏层图 的神经元也会执行不同的计算, 他们的参数将以自己的方式不断发展。 ▲ 答错了,再接再厉哦 我的答案∶D 参考答案∶A 题卡 <上一题下一题
图日一5.1 46 纭 车6∶02 ,门。[98 Q)Q)A ED2 K/s oU 随机练习 、 11.多选题下收藏 在人工神经网络的loss优化中跳出局部最小值的有() A 随机梯度下降法 B 模拟退火算法 C 遗传算法 图 梯度下降法 答错了,再接再厉哦: 我的答案∶D 参考答案∶A,B,C 题卡 <上一题下一题
图日一 鲫。46 ]6:02 念化 98](0)O)A ED2 oUU 随机练习 、 不知道 参考答案∶ 【优点】 第一∶它非常的快。它可以每秒45帧的速度在GPU上运行,其快速版本的速度可以超过150FPS。第二∶它是基于全局的图片进行类比预测。与基于滑动窗口(DPM)和候选区域提取(RNN)的技术不同,YOLO在训练和测试期间会看到整个图像,因此它隐式地编码有关类及其外观的上下文信息。更加准确。 第三∶YOLO可以学习更加广泛的目标表示信息。在自然图像(也就是实际的样子)上进行训练后,在艺术图片(也就是加了滤镜的样子)上进行测试时,YOLO 在很大程度上优于DPM和R-CNN等顶级检测方法。【缺点】 第一∶YOLO在准确性方面仍落后于最新的检测系统。尽管它可以快速识别图像中的对象,但仍难以精确定位某些物体,尤其是一些小的物体。 第二∶YOLO采用的误差函数并不合理。YOLO采用了平方和函数作为误差函数,它非常易于优化,但无益于增大mAP。它不合理在对定位误差和分类误差的权重相等。为了解决这个问题,YOLO增加了边界框坐标预测的损失权重,并减少了不包含对象的框的置信度预测的损失权重。 第三∶YOLO限制了边界框预测的数量。每个网格单元仅预测两个框,并且只能具有一个类。 题卡 <上一题下一题
图日一3.7 字46 16:03 [99] A● Q) 剑习ED2 K/s olU 随机练习 ☆收藏 15.单选题 假设你的输入是一个300×300的彩色(RGB)图像,而你没有使用卷积神经网络。 如果第一个隐藏层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)? d 9,000,001 B 9,000,100 27,000,001 C 27,000,100 恭喜,答对了 我的答案∶D 参考答案∶D ): 题卡 <上一题下一题
图日一 鲫。46 Ji多6∶04 99 念化 O) 剑习D2 ●1 随机练习 收藏 16.单选题 你有一个63x63x16的输入,并使用大小为7x7 的32个过滤器进行卷积,使用步幅为2和无填充,请问输出是多少? A 29x29x32 密 16x16x32 29x29x16 。 D 16x16x16 ▲ 答错了,再接再厉哦 我的答案∶B 参考答案∶A 题卡 <上一题下一题
图日一 字 3.8 46 多6∶04 99 。。 O 剑习ED2 K/s ●Ul 随机练习 ☆收藏 17.判断题 梯度下降法能够获得人工神经网络的最优参数。() 图 对 B 错 A 答错了,再接再厉哦 我的答案∶对参考答案∶错 题卡 <上一题下一题
ED04 6.3 字46 ]46:05 [99] ● Q) 剑习ED2 K/s oll 随机练习 ☆ 收藏 18.多选题 机器学习中L1正则化和L2正则化的区别是? d 使用L1可以得到稀疏的权值 B 使用L1可以得到平滑的权值 密 使用L2可以得到稀疏的权值 D 使用L2可以得到平滑的权值 ▲ 答错了,再接再厉哦 参考答案∶A,D 我的答案∶C . 答案解析∶ L1正则化偏向于稀疏,它会自动进行特征选择,去掉一些没用的特征,也就是将这些特征对应的权重置为0. L2主要功能是为了防止过拟合,当要求参数越小时,说明模型越简单,而模型越简单则,越趋向于平滑,从而防止过拟合。 题卡 <上一题下一题
ED04 840 学46 1乡6∶05 99 。。 二 剑习B/s EDa 。 随机练习 收藏 19.判断题 池化层可以非常有效地缩小参数矩阵的尺寸,从而减少后面的卷积层或者全连接层中的参数数量。 对 B 错 恭喜,答对了 我的答案∶对参考答案∶对 “ 题卡 <上一题下一题
图日一2.4 4G 纭 196:05 99 学A 剑习K/S ED 2 ●UU 随机练习 收藏 20.判断题 深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。 图 对 B 错 答错了,再接再厉哦“ 我的答案∶对参考答案∶错 i 答案解析∶ 正好相反,深度学习可以自行完成特征提取过程而机器学习需要人工来处理特征内容。 题卡 <上一题下一题
ED0 2.4 4G 纭 1乡6∶05 99] 净羽 剑习K/s ED2 ●UJ 随机练习 食收藏 21.填空题 一个5x5卷积核需要个参数,两个3x3 个参数。 的卷积核需要
【参考答案】25 18 请输入答案 21.1 请输入答案 21.2 题卡 <上一题下一题
图日一1.3 学46 C) I001$6:06 学部K/S ED2 ·UU 随机练习 收藏 22.单选题 在感知机中(Perceptron)的任务顺序是什么?1随机初始化感知机的权重2去到数据集的下一批(batch)3如果预测值和输出不一致,则调整权重4对一个输入样本,计算输出值 A 1,2,3,4 B 4,3,2,1 1,4,3,2 D 3,1,2,4 恭喜,答对了 我的答案∶C 参考答案∶C 题卡 <上一题下一题
图日一3. 学46 编N10O1多6∶06 学初人K/s D2 ●1 随机练习 食收藏 23.单选题 对于一个图像识别问题(在一张照片里找出一只猫),,下面哪种神经网络可以更好地解决这个问题? “ 循环神经网络 B 感知机 C 多层感知机 卷积神经网络 恭喜,答对了 我的答案∶D 参考答案∶D )手 答案解析∶∶ 卷积神经网络将更好地适用于图像相关问题,因为考虑到图像附近位置变化的固有性质。 题卡 <上一题下一题
图日一2.6 4G Qi OO1$6:06 纭 学人K/s ED 2 ●U 随机练习 收藏 24.多选题 关于梯度下降法叙述正确的有? 梯度方向是使得函数值下降最快的方< 向 梯度下降方法迭代时将沿着负梯度方B 向进行更新 精度下降方法迭代时将沿着梯度方向密 进行更新 梯度方向是使得函数值上升降最快的D 方向 答错了,再接再厉哦。 我的答案∶C 参考答案∶B,D , 答案解析∶ 梯度是一个向量,目标函数在具体某点沿着梯度的相反方向下降最快,一个形象的比喻是想象你下山的时候,只能走一步下山最快的方向 题卡 <上一题下一题
图日 沿。4G 级N 【001多6∶07 染 学钢图回 o 随机练习 、 25.多选题食收藏 针对不同的优化问题和应用场景,研究者们提出了多种不同的求解算法,并逐渐发展出了有严格理论支撑的研究领域一凸优化。在这众多的算法中,有几种经典的优化算法是值得被牢记的,了解它们的适用场景有助于我们在面对新的优化问题时有求解思路。以下属于优化算法的是() 直接法 迭代法 随机梯度下降法 批量梯度下降法 恭喜,答对了 我的答案∶ A,B,C,D 参考答案∶A,B,C,D ): 题卡 <上一题下一题
BDD Gall Plicall 816 49 MAN WO QQQQ00156:07 1 HD 2 随机练习 V ☆收藏 26.多选题 属于重要的人工神经网络包括() 感知器神经网络(Perceptron Neura A I Network) 反向传递(Back Propagation) X Hopfield网络 循环神经网络(RNN)D A 答错了,再接再厉哦 我的答案B 参考答案∶A,C,D 100 题卡 <上一题下一题 >
图日一.9 字46 级) 001多6∶07 学羽K/sS ED2 ●lU 随机练习 27.多选题育收藏 降低"欠拟合"风险的方法( )) “ 添加新特征 增加模型复杂度 减小正则化系数 密 减少数据 ▲ 答错了,再接再厉哦 我的答案∶B,C,D 参考答案∶A,B,C 题卡 <上一题下一题
图日一, 16.8 46 级) 0O1乡6∶08 学K/s D2 o1 随机练习 ☆收藏 28.单选题 下列哪一项在神经网络中引入了非线性? A 随机梯度下降 修正线性单元(ReLU) 卷积函数C D 以上都不正确 恭喜,答对了 我的答案∶B 参考答案∶B B 题卡 <上一题下一题
ED0 部4G 纭 ) 001多6∶08 学初人D2 。 随机练习 食收藏 29.判断题 Faster RCNN算法由于RPN生成候选区域耗费大量时间,所以该算法仍然不能做到实时检测,RPN会生成大量的候选区域,模型对每个区域会进行分类和回归,存在大量冗余计算。() 召 B 错 恭喜,答对了 我的答案∶对参考答案∶对 题卡 <上一题下一题
图日1.8 学46 ) 001乡6∶08 学唱K/s D2 o 随机练习 收藏 30.填空题 生成对抗网络中需要分别优化的两部分分别为 挡,,。 不知道30.1 不知道30.2 参考答案∶30.1∶生成器(G)30.2∶判别器(D) 题卡 <上一题下一题
图日一4.5 , 46 Ci 001$6::08 学A K/s ED 2 ●U 随机练习 收藏 31.多选题 文本是一类非常重要的非结构化数据,如何表示文本数据一直是机器学习领域的一个重要研究方向。如今常用的文本数据表示方法有? (、 词袋模型(Bag of Words) TF-IDF(Term Frequency-Inverse D ocument Frequency) 主题模型(Topic Model) 词嵌入模型(Word Embedding) 恭喜,答对了 我的答案∶A,B,C,D 参考答案∶A,B,C,D ) 题卡 <上一题下一题
图日一3.5 学一完。 级i 001$6∶08 学人K/S ED 2 ●U 随机练习 32.问答题收藏 常见的监督学习算法有哪些? 我的作答∶不知道 参考答案∶ 感知机、svm、人工神经网络、决策树、逻辑回归 题卡 <上一题下一题
部 图日 46 岛 ) 001乡6∶09 学羽人D2 o 随机练习 收藏 33.填空题 VGG模型的常用架构是VGG16(数字"16"代表网络有16个—)。 卷积33.1 参考答案∶33.1∶ 权重层 题卡 <上一题下一题
图日一3.4 E. 46 C) 10O1年6∶09 学唱 是K/s D2 ●1 随机练习 ☆收藏 34.单选题 在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,你就可以近似任何函数。实现这个最佳的办法是什么? 随机赋值,祈祷它们是正确的d 搜索所有权重和偏差的组合,B 直到得到最佳值 赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重 以上都不正确D 恭喜,答对了 我的答案∶C 参考答案∶C 题卡 <上一题下一题
ED0 5.8 学一完。 级i 001多6∶09 学唱 人K/S ED 2 ●U 随机练习 收藏 35.问答题 常见的分类算法有哪些? 我的作答∶二分类 参考答案∶ SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯 题卡 <上一题下一题
图日深。4G 学 ■ QN10Oi6:10 溶ED 2 ●U 随机练习 参考答案∶ RCNN 一是在图像中确定约1000-2000个候选框(使用选择性搜索Selective Search) 二是每个候选框内图像块缩放至相同大小,并输入到CNN内进行特征提取 三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类 四是对于属于某一类别的候选框,用回归器进一步调整其位置Fast R-CNN 一是在图像中确定约1000-2000个候选框使用选择性搜索Selective Search) 二是对整张图片输进CNN,得到feature map 三是找到每个候选框在feature map上的映射patch,将此patch作为每个候选框的卷积特征输入到SPP layer和之后的层 四是对候选框中提取出的特征,使用分类器判别是否属于一个特定类 五是对于属于某一类别的候选框,用回归器进一步调整其位置Faster R-CNN 一是对整张图片输进CNN,得到feature map 二是卷积特征输入到RPN,得到候选框的特征信息三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类 四是对于属于某一类别的候选框,用回归器进一步调整其位置区别∶ R-CNN结合候选区域提取和CNN特征提取,SVM分类,边界框回归,目标检测精度mAP为53.3%;Fast R-CNN提出ROI Pooling,使用softmax分类,目标检测精度mAP为65.7%;Faster R-CNN使用RPN生成候选区域,目标检测精度mAP为67.0%。 题卡 <上一题下一题
3.6 图日一 吕三46 C) [0O1 6:10 净唱K/s ,夕 D2 。三 随机练习 、 36.问答题下收藏 简述R-CNN、FastR-CNN和Faster R-CNN的区别。 我的作答∶不知道 参考答案∶ RCNN 一是在图像中确定约1000-2000个候选框(使用选择性搜索Selective Search) 二是每个候选框内图像块缩放至相同大小,并输入到CNN内进行特征提取 三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类 四是对于属于某一类别的候选框,用回归器进一步调整其位置Fast R-CNN 一是在图像中确定约1000-2000个候选框使用选择性搜索Selective Search) 二是对整张图片输进CNN,得到feature map 三是找到每个候选框在feature map上的映射patch,,将此patch作为每个候选框的卷积特征输入到CPPlaver和之后的E 题卡 <上一题下一题
部 图日 4G 岛 学留 量 QN0Oi 6:10 ED2 ●U[ 随机练习 收藏 37.问答题 为了进行超参数调优,我们一般会采用网格搜索、随机搜索、贝叶斯优化等算法。简述以下网格搜索、随机搜索和贝叶斯优化算法。 我的作答∶不知道 参考答案∶ 网格搜索通过查找搜索范围内的所有的点来确定最优值。随机搜索的思想与网格搜索比较相似,只是不再测试上界和下界之间的所有值,而是在搜索范围中随机选取样本点。网格搜索和随机搜索在测试一个新点时,会忽略前一个点的信息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习,找到使目标函数向全局最优值提升的参数。 题卡 <上一题下一题
图日一1.6 4G 溶 QN10O1 6:10 净羽KJS ED 2 。 olU 随机练习 收藏 38. 问答题 一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的? 我的作答∶ o 参考答案∶ 1.非线性∶即导数不是常数。这个条件前面很多答主都提到了,是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。 2.几乎处处可微∶可微性保证了在优化中梯度的可计算性。传统的激活函数如sigmoid等满足处处可微。对于分段线性函数比如ReLU,只满足几乎处处可微(即仅在有限个点处不可微)。对于SGD算法来说,由于几乎不可能收敛到梯度接近零的位置,有限的不可微点对于优化结果不会有很大影响【1】。 3.计算简单∶正如题主所说,非线性函数有很多。极 题卡 <上一题下一题
嗯 图日 学46 净留 QN0Oi 6:10 ,夕 ED2 。三 随机练习 、 点对于优化结果不会有很大影响【1】。 3.计算简单∶正如题主所说,非线性函数有很多。极端的说,一个多层神经网络也可以作为一个非线性函数,类似于NetworkIn Network【2】中把它当做卷积操作的做法。但激活函数在神经网络前向的计算次数与神经元的个数成正比,因此简单的非线性函数自然更适合用作激活函数。这也是ReLU之流比其它使用Exp 等操作的激活函数更受欢迎的其中一个原因。 4.非饱和性(saturation)∶饱和指的是在某些区间梯度接近于零(即梯度消失),使得参数无法继续更新的问题。最经典的例子是Sigmoid,它的导数在x为比较大的正值和比较小的负值时都会接近于0。更极端的例子是阶跃函数,由于它在几乎所有位置的梯度都为0,因此处处饱和,无法作为激活函数。ReLU在x>0 时导数恒为1,因此对于再大的正值也不会饱和。但同时对于x<0,其梯度恒为0,这时候它也会出现饱和的现象(在这种情况下通常称为dying ReLU)。Leaky ReLU【3】和PReLU【4】的提出正是为了解决这一问题。 5.单调性(monotonic)∶即导数符号不变。这个性质大部分激活函数都有,除了诸如sin、cos等。个人理解,单调性使得在激活函数处的梯度方向不会经常改变,从而让训练更容易收敛。 6.输出范围有限∶有限的输出范围使得网络对于一些 题卡 <上一题下一题
图日一9.8 4G 学g Q20O1 6:10 溶 K/s 、 D2 o 随机练习 ☆收藏 40.单选题 在神经网络中,"梯度消失"问题的主要来源是()。 A 被Dropout丢弃 B 被Pooling丢弃 密 梯度为负数 D 梯度趋近于零 A 答错了,再接再厉哦 我的答案∶C 参考答案∶D ) 答案解析∶ 这图考察梯度消失的概念,dropout是防止过拟合的。 题卡 <上一题下一题
图日础字46 学 ■ Q)10O16:11 ED 2 ●U 随机练习 收藏 41.判断题 使用CNN时,需要对输入进行旋转、平移、缩放等预处理。 对 B 错 恭喜,答对了 我的答案∶对参考答案∶对 答案解析∶ 把数据传入神经网络之前需要做一系列数据预处理(也就是旋转、平移、缩放)工作,神经网络本身不能完成这些变换。 题卡 <上一题下一题
BBALLELING WOLING WOD QQ:00016:11 随机练习 V ☆收藏 42.多选题 在图像分类任务中,如何缓解数据量不足带来的问题 一定程度内的随机旋转、平移、缩放、裁剪、填充、左右翻转等,这些变换对应着同一个目标在不同角度的观察结果。 对图像中的像素添加噪声扰动,比如椒盐噪声、高斯白噪声等。 颜色变换。例如,在图像的RGB颜色空间上进行主成分分析,得到3个主成分的特征向量p1,p2,p3及其对应的特征值λ1,λ2,λ3,然后在每个像素的RG B值上添加增量【p1,p2,p3】·【a1x1,a2 λ2,a3λ3】T,其中 a1,a2,a3是均值为0、方差较小的高斯分布随机数。 改变图像的亮度、清晰度、对比度、跆府笙 <上一题题卡 下一题 >
图日隔。字46 学 Q)10Oi 6:11 ED2 ·UU 随机练习 43.问答题收藏 看一下下面的代码∶A= np.random.randn(4,3) B=np.sum(A,axis=1,keepdims=True)请问B.shape的值是多少? 我的作答∶?! 参考答案∶ B.shape=(4,1) 题卡 <上一题下一题
BBALELELING WALLELING WONG QQ00016:11 0 随机练习 V ☆收藏 44.判断题 DenseNets缓解了梯度消失,加强了特征传播,增强了特征复用,通过较少的通道数减少参数量。DenseNet在减少计算量的同时取得了更好的性能并且不会消耗大量的内存。() 对× 错B A 答错了,再接再厉哦 我的答案对 参考答案∶错 <上一题题卡 下一题 >
BBELI STELI CANG STALING STAL QQ00016:11 T 。 随机练习 V ic Curve的简称,中文名为“受试者工作特征曲线”。ROC曲线源于军事领域,而后在医学领域应用甚广,“受试者工作特征曲线”这一名称也正是来自于医学领域。ROC曲线的横纵坐标分别是 假阳性率(False Positive Rate,FP A R) 假阴性率(False Negative Rate,FN X R) 真阳性率(True Positive Rate,TP R) 真阴性率(True Negative Rate,TN D R) A 答错了,再接再厉哦 我的答案B,C 参考答案∶A,C <上一题题卡 下一题 >
EDD 铝三 5.9 46 QN1OOIi6:12 学唱 人K/s D2 ●UU 随机练习 46.多选题下收藏 在机器学习中,我们通常把样本分为训练集和测试集,训练集用于训练模型,测试集用于评估模型。在样本划分和模型验证的过程中,存在着不同的抽样 方法和验证方法。有哪些主要的验证方法? A Holdout 检验 k-fold交叉验证 自助法。 密 随机法 答错了,再接再厉哦 我的答案∶B,D 参考答案∶A,B,C 题卡 <上一题下一题
BDD ANG LEL ENG DAL ENG WOD DAN QQ0001612 … 随机练习 V 关于Inception 网络下面哪些说法是正确的 Inception 网络包含了各种网络的体系结构(类似于随机删除节点模式,它会在每一步中随机选择网络的结 Y 构),因此它具有随机删除节点的正则化效应。 Inception块通常使用1x1的卷积来减少输入卷积的大小,然后再使用3x3和5×5的卷积。 一个inception块允许网络使用1x1,3 C x3,5x5的和卷积个池化层的组合。 通过叠加inception块的方式让incepti D on 网络更深不会损害训练集的表现。 A 答错了,再接再厉哦 参考答案∶B,C 我的答案A,B <上一题题卡 下一题 >
图日一 你。46 QN0OIi6:12 学羽年。D2 。 随机练习 收藏 48.判断题 AlexNet网络模型的每个卷积层的后面都会接一个池化层。() 图 对 四错 A 答错了,再接再厉哦 我的答案∶对参考答案∶错 题卡 <上一题下一题
图日一1.6 学46 C)[0O1 6:12 学唱K/s D2 。 o 随机练习 ☆收藏 49.单选题 在反向传播的过程中,首先被计算的变量()的梯度,之后将其反向传播。 A 连接权重 B 激活函数 密 损失函数 D 特征映射 A 答错了,再接再厉哦 我的答案∶C 参考答案∶B 3: 题卡 <上一题下一题
图日一2.8 4G 纭 Q入001 6∶12 学羽K/S ED2 ●U 随机练习 50.多选题育收藏 下面哪些是使用卷积网络的开源实现(包含模型/权值)的常见原因? 为一个计算机视觉任务训练的模型通图 常可以用来数据扩充,即使对于不同的计算机视觉任务也是如此。 为一个计算机视觉任务训练的参数通B 常对其他计算机视觉任务的预训练是有用的。 使用获得计算机视觉竞赛奖项的相同的技术,广泛应用于实际部署。 使用开源实现可以很简单的来实现复D 杂的卷积结构。 答错了,再接再厉哦! 我的答案∶A,C 参考答案∶B,C,D 题卡 <上一题下一题
图日一4.8 46 显2 左。 Q[0O16:12 学人D2 ●1 , 随机练习 51.问答题☆收藏 池化在卷积神经网络里面有何作用,在引进池化后解决了什么问题? 我的作答∶ 。 参考答案∶ 作用∶保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力;减少模型参数。 题卡 <上一题下一题
BDAGALELINALILE QQ00016:12 1 HD 2 随机练习 V ☆收藏 52.判断题 AlexNet、VGG、GoogleNet、DenseNet模型的训练方式都是监督学习类型。() 对 错B n恭喜,答对了 我的答案对 参考答案∶对 <上一题题卡 下一题 >
BDAGALELI RANG QQ00016:13 100 。, HD 2 随机练习 V ☆收藏 53.填空题 人工神经网络层数增多后通常会遇到 等问题。 【参考答案】梯度爆炸 梯度消失 请输入答案53.1 请输入答案53.2 <上一题题卡 下一题 >
图日一7.4 跹心4G Q入1001 6∶13 学羽K/s ED2 ●U 随机练习 飞污哪 54.多选题 "没有测量,就没有科学。"这是科学家门捷列夫的名言。在计算机科学特别是机器学习领域中,对模型的评估同样至关重要。只有选择与问题相匹配的评估方法,才能快速地发现模型选择或训练过程中出现的问题,迭代地对模型进行优化。以下哪些是对图像目标检测任务的模型评估( ) loU 密 RMSE C mAP D PSNR ▲ 答错了,再接再厉哦 我的答案∶A,B 参考答案∶A,C 题卡 <上一题下一题
图日一4.6 把46 Q[0O1 6:13 学人ks D2 ●1 随机练习 食 收藏 55.填空题 目标检测是一类重要的计算机视觉算法,这类算法可以同时完成 和 __ 0 【参考答案】目标提取 目标分类 请输入答案 55.1 请输入答案55.2 题卡 <上一题下一题
ED0 空 12.9 4G Q)10O1 6:13 学观K/s D2 o 随机练习 56.问答题食收藏 RNN、LSTM、GRU区别。 我的作答∶ o 参考答案∶ 答案解析∶ RNN引入了循环的概念,但是在实际过程中却出现了初始信息随时间消失的问题,即长期依赖(Long-Term Dependencies)问题,所以引入了LSTM。 LSTM∶因为LSTM有进有出且当前的cell informaton是通过input gate控制之后叠加的,RNN是叠乘,因此LSTM可以防止梯度消失或者爆炸的变化是关键,下图非常明确适合记忆∶GRU是LSTM的变体,将忘记门和输入们合成了一个单一的更新门。 题卡 <上一题下一题
图日3. 字46 学初人 Q[0O1 6:13 K/s D2 。 随机练习 收藏 57.判断题 一个完整的人工神经网络包括多层分析层和多层隐藏层。() ( · 对 四错 A 答错了,再接再厉哦 我的答案∶对参考答案∶错 题卡 <上一题下一题
BDD ALELI RANG QQ00016:13 。 HD2 随机练习 V ☆收藏 58.填空题 YOLO算法与RCNN系列最大的不同是,YOLO 算法O O 58.1 参考答案∶ 58.1直接预测目标位置 <上一题题卡 下一题 >
图日一 研篱审46 岛“ QN1001 6:13 ED2 ●U 随机练习 59.问答题飞污哪 简述下什么是生成对抗网络? 我的作答∶ 。 参考答案∶ GAN之所以是对抗的,是因为GAN的内部是竞争关系,一方叫generator,它的主要工作是生成图片,并且尽量使得其看上去是来自于训练样本的。另一方是discriminator,其目标是判断输入图片是否属于真实训练样本。 题卡 <上一题下一题
图日一2.5 岛心 46 QN0OIi6:13 学唱 人K/s D2 ●U 随机练习 口收藏 60.多选题 在典型的卷积神经网络中,你能看到的是? 多个卷积层后面跟着的是一个池化“ 层。 B 全连接层(FC)位于最后的几层。 多个池化层后面跟着的是一个卷积C 层。 全连接层(FC)位于开始的几层。x ▲ 答错了,再接再厉哦 我的答案∶D 参考答案∶A,B 题卡 <上一题下一题
ED0 7.1 字4G 学羽( Q10O1 6:14 Q K/s D2 o 随机练习 、 61.多选题食 收藏 关于残差网络下面哪个(些)说法是正确的? 使用跳越连接能够对反向传播的梯度工 下降有益且能够帮你对更深的网络进行训练。 跳跃连接计算输入的复杂的非线性函B 数以传递到网络中的更深层。 2 × 有L层的残差网络一共有 种跳跃连接的顺序。 跳跃连接能够使得网络轻松地学习残D 差块类的输入输出间的身份映射。 ▲ 答错了,再接再厉哦 我的答案∶C 参考答案∶B,D 题卡 <上一题下一题
沉 图日一 46 Q1[0016:14 ,。 学人( O) ED2 oU , 随机练习 ☆收藏 62.填空题 RCNN算法的贡献和 ,。, 。 62.1 o 62.2 参考答案∶ 62.1∶ 提高了目标检测的精度62.2∶提出分两阶段检测图像中的目标 题卡 <上一题下一题
BDD Gall 206 Mo QQ00016:19 HD2 随机练习 V ☆收藏 64.问答题 请简述卷积层与池化层有何区别。 我的作答 0 参考答案∶ 1、卷积层有参数,池化层没有参数2、经过卷积层节点矩阵深度会改变,池化层不会改变节点矩阵的深度,但是它可以缩小节点矩阵的大小。 <上一题题卡 下一题 >
图回一 吕三 3.4 46 C) 0016:20 服O D2 K/s ●U 随机练习 v 己凸行犷仅子’义“!。 假设我们拥有一个已完成训练的、用来解决车辆检测问题的深度神经网络模型,训练所用的数据集由汽车和卡车的照片构成,而训练目标是检测出每种车辆的名称(车辆共有10种类型)。现在想要使用这个模型来解决另外一个问题,问题数据集中仅包含一种车(福特野马)而目标变为定位车辆在照片中的位置。 除去神经网络中的最后一层,冻结所A 有层然后重新训练 对神经网络中的最后几层进行微调,B 同时将最后一层(分类层)更改为回归层 3 使用新的数据集重新训练模型 D 所有答案均不对 答错了,再接再厉哦A 我的答案∶C 参考答案∶B 题卡 <上一题下一题
ED0 研申回一完。密“ N 0Oi 6:20 D2 o 随机练习 66.多选题飞污哪 ResNet的提出背景是() 解决或缓解深层的神经网络训练中的八 梯度消失问题 解决或缓解深层的神经网络训练中的B 梯度爆炸问题 解决或缓解深层的神经网络训练中的密 过拟合问题 解决或缓解深层的神经网络训练中的可 欠拟合问题 答错了,再接再厉哦“ 我的答案∶C 参考答案∶A,B 题卡 <上一题下一题
图日一8.1 40 岛吆 16:23 [99]GA D2 K/s o 随机练习 67.多选题收藏 为了消除数据特征之间的量纲影响,我们需要对特征进行归一化处理,使得不同指标之间具有可比性。常用的对数值类型的特征做归一化的方法有?() 线性函数归一化 B 批归一化 零均值归一化 D 组归一化 恭喜,答对了 我的答案∶A,C 参考答案∶A,C 题卡 <上一题下一题
图日一7.3 跹心46 Q入1 7∶47 K/s ED2 oUU 随机练习 收藏 68.单选题 批规范化(Batch Normalization)的好处都有啥? 在将所有的输入传递到下一层之前对< 其进行归一化(更改) 文 它将权重的归一化平均值和标准差 它是一种非常有效的反向传播(BP)方C 法 口 这些均不是 △ 答错了,再接再厉哦 我的答案∶ B 参考答案∶A 题卡 <上一题下一题
图日 跹心 2.7 46 )Z1 7:48 D2 K/s 。三 随机练习 收藏 69.判断题 因为池化层不具有参数,所以它们不影响反向传播的计算。 A 对 错 恭喜,答对了 我的答案∶错参考答案∶错 叫 题卡 <上一题下一题
图日一7.9 学46 C入Ⅱ 7∶48 K/s ED2 ·UU 随机练习 收藏 70.填空题 ResNet残差模块中,若输入为x,卷积层输出为F(x)残差块的输出为 ,。 fx 70.1 参考答案∶ 70.1:ReLu(H(x)=F(x)+x) 题卡 <上一题下一题
图日一 4 46 C入1 7∶48 溶ED2 K/s ·UU 随机练习 ☆7收藏 71.单选题 当在卷积神经网络中加入池化层(pooling layer)时,变换的不变性会被保留,是吗? < 不知道 B 看情况 是C · (x 否 ▲ 答错了,再接再厉哦 我的答案∶D 参考答案∶C . 答案解析∶ 池化算法比如取最大值/取平均值等,都是输入数据旋转后结果不变,所以多层叠加后也有这种不变性。 题卡 <上一题下一题
ED0 704 字4G 级)□717∶48 B/s D2 o 随机练习 72.多选题飞污哪 下列哪个神经网络结构会发生权重共享? A 卷积神经网络 B 循环神经网络 图 全连接神经网络 ▲ 答错了,再接再厉哦 我的答案∶C 参考答案∶A,B 题卡 <上一题下一题
ED0 0 46 级 □1 7∶48 2。, K/s ED2 ●U[ 随机练习 73.单选题收藏 都属于目标检测算法的是?() A YOLO,R-CNN系列,SSD B VGG, YOLO, SSD 8 ResNet,R-CNN系列,SSD D VGG,YOLO,R-CNN系列 A 答错了,再接再厉哦 我的答案∶C 参考答案∶A 题卡 <上一题下一题
图日一 跹心 1.6 4G 级)1 7∶49 ED 2 K/s olU 随机练习 7收藏 74.单选题 对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,而是都设成0,下面哪个叙述是正确的? A 没啥问题,神经网络会正常开始训练 密 其他选项都不对 神经网络不会开始训练,因为没有梯C 度改变 神经网络可以训练,但是所有的神经D 元最后都会变成识别同样的东西 答错了,再接再厉哦 我的答案∶B 参考答案∶D D 答案解析∶ 令所有权重都初始化为0,这个听起来还蛮合理的想法也许是一个我们假设中最好的一个假设了,但结果是错误的,因为如果神经网络计算出来的输出值都一个样,那么反向传播算法计算出来的梯度值 4□ 分业4=计rI士 山L4平1 十,1 题卡 <上一题下一题
图日一 0 46 级)1 7∶49 .。 K/S ED 2 ●U 随机练习 75.单选题收藏 对于神经网络的说法,下面正确的是∶ 1.增加神经网络层数,可能会增加测试数据集的分类错误率 2.减少神经网络层数,总是能减小测试数据集的分类错误率 3.增加神经网络层数,总是能减小训练数据集的分类错误率 A r B 1、3 密 1、2 D 2 答错了,再接再厉哦AI 我的答案∶C 参考答案∶A 产产”!恰丫尸下” 题卡 <上一题下一题
图日一 3 5 46 )Z17:49 D2 K/s 。三 随机练习 收藏 76.填空题 生成对抗网络中需要分别优化的两部分分别为 和_O 【参考答案】生成器(G)判别器(D) 请输入答案 76.1 请输入答案 76.2 题卡 <上一题下一题
EDD 4 681 跹心46 级1@17∶49 B/s D2 ●U 随机练习 下收藏 77.填空题 RCNN算法的贡献 和O 【参考答案】】 提高了目标检测的精度 提出分两阶段检测图像中的目标 请输入答案 77.1 请输入答案 77.2 题卡 <上一题下一题
图日1.5 跹心4G 级□717∶49 D2 K/s 。三 随机练习 ☆收藏 78.单选题 下面哪项操作能实现跟神经网络中Dropout的类似效果? 密 Boosting B Bagging C Stacking D Mapping A答错了,再接再厉哦 我的答案∶A 参考答案∶B 3: 答案解析∶ Dropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,从而实现模型参数的高度正则化。 题卡 <上一题下一题
图日 0 4, 级 1 7∶50 染 K/s D2 。 随机练习 食收藏 79.判断题 为了构建一个非常深的网络,我们经常在卷积层使用"valid"的填充,只使用池化层来缩小激活值的宽/高度,否则的话就会使得输入迅速的变小。 A 对1 错 恭喜,答对了 我的答案∶错 参考答案∶错 题卡 <上一题下一题
图曰一 0 部三4G 级) 7∶50 K/s ED2 ●U 随机练习 收藏 80.填空题 DenseNets有几个引入注目的优势∶ , __和。 【参考答案】缓解了梯度消失 加强了特征传播 增强了特征复用 通过较少的通道数减少参数量 请输入答案 80.1 请输入答案 80.2 请输入答案 80.3 请输入答案 题卡 <上一题下一题
图日一3.3 出手 46 级)【I 7∶51 K/s ED2 ●U 随机练习 卜收藏 81.单选题 在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢? 搜索每个可能的权重和偏差组合,直< 到得到最佳值 赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重 随机赋值,听天由命。 D 以上都不正确的 恭喜,答对了 我的答案∶B 参考答案∶B 3: 答案解析∶ 选项B是对梯度下降的描述。 题卡 <上一题下一题
图日一 铝三 1.5 46 级)D7∶51 C K/s ED2 ●UU 随机练习 下收藏 82.单选题 梯度下降算法的正确步骤是什么?1.计算预测值和真实值之间的误差2.迭代跟新,直到找到最佳权重3.把输入传入网络,得到输出值4.初始化随机权重和偏差 5.对每一个产生误差的神经元,改变相应的(权重)值以减小误差 d 1,2,3,4,5 密 5,4,3,2,1 3,2,1,5,4 。 D 4,3, 1,5,2 ▲ 答错了,再接再厉哦 我的答案∶ B 参考答案∶D : 题卡 <上一题下一题
图日一 蹈仰46 级)【I 7∶51 KsC ED2 ●lU 随机练习 飞污哪 83.填空题 RCNN通过算法生成候选区域。 【参考答案】selective search 请输入答案 83.1 题卡 <上一题下一题
ED0 铝三 632 平 4G 级)【I 7∶51 B/s ED2 oU 随机练习 飞污哪 84.多选题 哪些是深度学习快速发展的原因? A 现在我们有了更好更快的计算能力。 文 神经网络是一个全新的领域。 我们现在可以获得更多的数据。 深度学习已经取得了重大的进展,比D 如在在线广告、语音识别和图像识别方面有了很多的应用。 ▲ 答错了,再接再厉哦 我的答案∶ B,C 参考答案∶A,C 题卡 <上一题下一题
图日 铝三 1.4 46 级入7∶51 回K/s ED2 oUU 随机练习 85.单选题收藏 下列哪个函数不可以做激活函数? < y = tanh(x) B y = sin(x) 密 y = max(x,0) D y = 2x 答错了,再接再厉哦冷 我的答案∶C 参考答案∶D ) 答案解析∶ 线性函数不能作为激活函数 题卡 <上一题下一题
图日一 56 46 )Z 7:51 K/sC D2 。三 随机练习 86.多选题食收藏 在DCGAN中,生成器中使用的激活函数为() ReLu 四 Tanh C LeakyReLu D sigmoid 题卡 <上一题下一题
DD 533 铝三46 可 级入Z 7∶51 B/s ED2 oUU 随机练习 ☆7收藏 87. 填空题 AlexNet有两个较大的创新点,一个是使用了R elu激活函数,加快了模型的学习过程,另一个 __,可以防止模型就是加入了的过拟合。 【参考答案】dropout 请输入答案 87.1 题卡 <上一题下一题
图日一12.3 46 岛v 级)Z17∶52 D2 K/s ●1 随机练习 下收藏 88.多选题 神经网络中参数极多,常用的初始化方法有哪些? A 全零初始化 B 随机初始化 C 加载预训练模型 D 使用深度信念网络 题卡 <上一题下一题
图日一1.6 出手46 级)Z17∶52 C K/s D2 ●1 随机练习 下收藏 88.多选题 神经网络中参数极多,常用的初始化方法有哪些? A 全零初始化 B 随机初始化 文 加载预训练模型 D 使用深度信念网络 答错了,再接再厉哦4: 我的答案∶C 参考答案∶A,B,D 答案解析∶ 深度信念网络(DBN)通过采用逐层训练的方式,解决了深层次神经网络的优化问题,通过逐层训练为整个网络赋予了较好的初始权值,使得网络只要经过微调就可以达到最优解。 题卡 <上一题下一题
ED 4 4.7 O 46 纭 袋17∶52 K/s ED2 ●UU 随机练习 、 o 89.1 o 89.2 。 89.3 o 89.4 参考答案∶ 89.1∶ 缓解了梯度消失 加强了特征传播89.2∶力 增强了特征复用89.3:± 89.4∶ 通过较少的通道数减少参数量 题卡 <上一题下一题
图日一 跹心 o义 4G 级)D7∶52 图 ED2 。三 随机练习 飞污骥 90.填空题 假设输入层矩阵维度是96×96×3,第一层卷积层使用尺寸为5×5、深度为16的过滤器(卷积核尺寸为5×5、卷积核数量为16),那么这层卷积层的参数个数为_ 。 0 90.1 ▲ 答错了,再接再厉哦 参考答案∶90.1: 1216 答案解析∶ 5×5×3×16+16=1216个 题卡 <上一题下一题
图日 研气40 铝 )Z17:53 △ D2 o 随机练习 91.单选题取消收藏 构建一个神经网络,将前一层的输出和它自身作为输入。 下列哪一种架构有反馈连接? 密 卷积神经网络 B 循环神经网络 C 限制玻尔兹曼机 D 都不是 答错了,再接再厉哦冷。 我的答案∶A 参考答案∶B 3: 题卡 <上一题下一题
14 图日一 铝三4G 级 □1 7∶53 作K/s ED2 。三 随机练习 合收藏 92.单选题 下列哪一项属于特征学习算法(rep resentation learning algorith m)? 密 K近邻算法 B 随机森林 C 神经网络 D 都不属于 答错了,再接再厉哦 我的答案∶A 参考答案∶C 答案解析∶ 神经网络会将数据转化为更适合解决目标问题的形式,我们把这种过程叫做特征学习。 题卡 <上一题下一题
ED0 铝三 667 4G 级 □1 7∶53 团A B/s ED2 ●U[ 随机练习 93.多选题收藏 VGG网络结构有哪些配置?()) A VGG9 B VGG11 VGG16 D VGGG19 题卡 <上一题下一题
图日 跹心 1.8 4G 级)□17∶53 E 广K/s ED2 。三 随机练习 94.多选题收藏 常用的池化层有哪些? A AveragePooling B MedianPooling 图 MinPooling D MaxPooling ▲ 答错了,再接再厉哦 我的答案∶C 参考答案∶A,D 题卡 <上一题下一题
图曰一 谛自碎善46 级) 7∶53 吆 ED2 ●U[ 随机练习 , 95. 单选题食 收藏 卷积神经网络VGG16名称中16指的是()。 A 论文发表于2016年 B 网络总共有16层 网络有16层的参数需要训练 D VGG发表的第16代网络 恭喜,答对了 我的答案∶C 参考答案∶C 答案解析∶ 我们针对VGG16进行具体分析发现,VGG16共包含∶ 13个卷积层(Convolutional Layer),分别用conv3-XXX表示 3个全连接层(Fully connected Layer),分别用FC-XXXX表示 L 11./0 /\ mil r 1一 1 1 _ 题卡 <上一题下一题
2.1 图日一 46 Q入 7∶54 E 。溶 K/s ED2 ·UU 随机练习 96.问答题下收藏 相对于传统人工神经网络,AlexNet主要有哪些技术上的创新? 我的作答∶ 。 参考答案∶ 主要有以下四点创新∶ (1)Dropout(随机失活)。在训练的过程中随机舍弃部分隐层节点,可以避免过拟合。 (2)LRN(局部响应归一化)。LRN可以提升较大响应,抑制较小响应。但最近几年业界发现LRN层作用不大,所以现在使用LRN的研究者很少。 (3)Max Pooling(最大池化)。最大池化可以避免特征被平均池化模糊,提高特征的鲁棒性。在AlexNet 之前,很多研究用平均池化。 (4)ReLU激活函数。在AlexNet之前,常用的激活函数是sigmoid和tanh。而ReLU函数简单,输入小于0 输出0,输入大于0时输出等于输入。AlexNet在卷积层和全连接层的输出均使用ReLU激活函数,能有效提高训练时的收敛速度。 题卡 <上一题下一题
ED0 将4, 级□717∶54 C 。 D2 o 随机练习 食收藏 97.问答题 什么是欠拟合现象,网络欠拟合你该怎么办? 我的作答∶ o 参考答案∶ 欠拟合(偏差很大),感知机及简单线性回归容易产生欠拟合∶ 特征数目过少,模型无法精确的分类和拟合数据,模型无法很好捕捉到特征;办法∶增加训练轮次,减少正则参数(减小高偏差),增加网络复杂度。 题卡 <上一题下一题
图日一3.1 46 级)Z7∶54 仑 岛 。K/s ED2 ●U 随机练习 下收藏 98.单选题 模型的高bias是什么意思,我们如何降低它? A 在特征空间中减少特征 在特征空间中增加特征 C 增加数据点 D B和C 恭喜,答对了 我的答案∶B 参考答案∶B B; 答案解析∶ bias太高说明模型太简单了,数据维数不够,无法准确预测数据,所以应该升维。 题卡 <上一题下一题
1.0 图日一 . 4G ]107:54 E 。 仍K/s ED 2 ●U 随机练习 收藏 100.填空题 卷积层的输出通常由3个量来控制,它们分别是深度、步幅和 。 o 100.1 A 答错了,再接再厉哦 参考答案∶100.1∶ 补零 题卡 <上一题下一题
ED0 研气46 D1 7:54 铝 仍A ED2 ●U[ 随机练习 99.多选题收藏 以下哪些是"超参数"? 隐藏层的大小 学习率α 迭代次数 神经网络中的层数L 恭喜,答对了 我的答案∶A,BC,D 参考答案∶A,B,C,D ) 题卡 <上一题下一题
图日一 研审跹心46 ]107:54 仍△ ED2 oUU 随机练习 下收藏 101.单选题 你有一个32x32x16的输入,并使用步幅为2、过滤器大小为2的最大化池,请问输出是多少? A 15x15x16 B 16x16x8 16x16x16 D 32x32x8 恭喜,答对了 我的答案∶C 参考答案∶C 题卡 <上一题下一题
图日一3.5 46 岛“ ]1 7:55 C 乃仍K/s D2 o1 随机练习 食收藏 103.问答题 CNN的卷积核是单层的还是多层的? 我的作答∶多层 参考答案∶ 卷积核(filter)一般是3D多层的,除了面积参数,比如3x3之外,还有厚度参数H(2D的视为厚度1).还有一个属性是卷积核的个数N。 题卡 <上一题下一题
图日一1.3 出手46 1 7:55 C 乃仍K/s ED2 ●U 随机练习 下收藏 105.多选题 以下关于神经网络说法正确的有() A 神经网络可以实现非线性分类 神经网络可以实现线性分类 神经网络的每层神经元激活函数必须密 相同 神经网络的每层神经元激活函数值阈D 必须在【-1,1】 ▲ 答错了,再接再厉哦 我的答案∶B,C 参考答案∶A,B 题卡 <上一题下一题
图日一621 学了 4, 1 7:55 N N[76 B/s D2 。三 随机练习 特别是在实际项目中,采用多种方法、从多个角度降低"过拟合"和"欠拟合"的风险是算法工程师应当具备的领域知识。以下说法正确的有?() 过拟合是指模型对于训练数据拟合呈尾 过当的情况 过拟合反映到评估指标上,就是模型在训练集上的表现很好,但在测试集和新数据上的表现较差 欠拟合指的是模型在训练和预测时表现都不好的情况 欠拟合指的是模型在训练和预测时表图 现都很好的情况 ▲ 答错了,再接再厉哦 我的答案∶B,C,D 参考答案∶A,B,C 题卡 <上一题下一题
图日一 出手 1.4 46 ] 7:55 回 乃仍K/s ED2 ·UU 随机练习 收藏 107.判断题 如果增加多层感知机(Multilayer Perceptro n)的隐藏层层数,分类误差便会减小。 × * 对 B 错 A答错了,再接再厉哦 我的答案∶对参考答案∶错 答案解析∶ 并不总是正确。层数增加可能导致过拟合,从而可能引起错误增加。 题卡 <上一题下一题
2图日一 蹈仰46 ]1 7:55 望 乃仍 D2 ●1 随机练习 下收藏 108.多选题 "参数共享"是使用卷积网络的好处。关于参数共享的下列哪些陈述是正确的? 它减少了参数的总数,从而减少过拟“ 合。 它允许在整个输入值的多个位置使用特征检测器。 它允许为一项任务学习的参数即使对× 于不同的任务也可以共享(迁移学习)。 它允许梯度下降将许多参数设置为D 零, 从而使得连接稀疏。 ▲ 答错了,再接再厉哦 我的答案∶B,C 参考答案∶B,D 题卡 <上一题下一题
图日一6.3 船“46 ]1 7:55 C 乃仍D2 K/s ●1 随机练习 收藏 109.单选题 对于k折交叉验证,以下对k的说法正确的是() k越大,不一定越好,选择大的k会加大允八 评估时间 选择更大的k,就会有更小的bias(因为B 训练集更加接近总数据集) 在选择k时,要最小化数据集之间的方厂“ 差 以上所有 恭喜,答对了 我的答案∶D 参考答案∶D 手 答案解析∶ k越大,bias越小,训练时间越长.在训练时,也要考虑数据集间方差差别不大的原则.比如,对于二类分类问题,使用2-折交叉验证,如果测试集里的数据都是A类的,而训练集中数据都是B类的,显然,测试效果会很差. 题卡 <上一题下一题
图日一口心46 1 7:56 念化 图 仍D2 ●1 随机练习 下收藏 110.单选题 您正在构建一个识别黄瓜(y=1)与西瓜(y =0)的二元分类器。 你会推荐哪一种激活函数用于输出层? 八 ReLU B Leaky ReLU C sigmoid 密 tanh ▲ 答错了,再接再厉哦 我的答案∶D 参考答案∶C 题卡 <上一题下一题
图日一3.1 铝三了 4G ]1 7:56 仍ED2 K/s oJ 随机练习 飞污哪 111.填空题 一个5x5卷积核需要个参数,两个3x3 个参数。 的卷积核需要 ,‘ o 111.1 o 111.2 参考答案∶111.1: 25 111.2:18 题卡 <上一题下一题
BDD AGall Feall Ve ◎CAC617:56 B HD2 随机练习 V ☆收藏 112.单选题 计算图中每个节点代表一个( ) 操作A 张量 会话 10 变量 A 答错了,再接再厉哦 我的答案B 参考答案∶A <上一题题卡 下一题 >
.1 图日一 出手4G ] 7:56 C 仍K/s ED2 ●U 随机练习 收藏 113.判断题 人工神经网络(ANN)可以处理冗余特征。() 对 四错 恭喜,答对了 我的答案∶对参考答案∶对 题卡 <上一题下一题
图日一4.3 ⑦铝喜46 ]17:56 仍K/s ED2 ·UU 随机练习 收藏 114.单选题 TensorFlow中张量的常用属性不包括∶( ) A 数据类型 B 形状 存储地址 D 在计算图中的名称 恭喜,答对了 我的答案∶C 参考答案∶C C: 题卡 <上一题下一题
图日一1.2 出手 46 1 7:56 仍K/s ED2 ●U 随机练习 收藏 115.多选题 VGG的成功主要得益于以下哪儿几点?( ) 多层小卷积替换大卷积 更深的卷积神经网络 图 批归一化 D 预训练 ▲ 答错了,再接再厉哦 我的答案∶A,,B,C 参考答案∶A,B,D 题卡 <上一题下一题
图日一335 铝手46 ]17:56 A 仍B/s ED2 ·U 随机练习 ☆7收藏 116.单选题 如果你想要构建一个能够输入人脸图片输出为N个标记的神经网络(假设图像只包含一张脸),那么你的神经网络有多少个输出节点? N 八 B 2N 3N C 文 N*N A 答错了,再接再厉哦 我的答案∶D 参考答案∶B 3: 题卡 <上一题下一题
图日一2.9 出手46 7:57 D C A[ [76 D2 K/s o 随机练习 收藏 117.判断题 我们使用普通的网络结构来训练一个很深的网络,要使得网络适应一个很复杂的功能(比如增加层数),总会有更低的训练误差。 密 对 B 错 ▲ 答错了,再接再厉哦 我的答案∶对参考答案∶错 题卡 <上一题下一题
图日一 蹈仰46 ]1 7:57 Q[ 76 不。ED 2 ●U 随机练习 收藏 118.填空题 YOLO算法与RCNN系列最大的不同是,YOLO 算法。 【参考答案】 直接预测目标位置 。 118.1 参考答案∶ 118.1∶直接预测目标位置 题卡 <上一题下一题
2.8 图日一 出手46 ] 7:57 C 0 A[ [76 D2 K/s o1 随机练习 119.问答题☆收藏 如何理解神经网络中的权值共享? 我的作答∶ 。 参考答案∶ 权值(权重)共享这个词是由LeNet5模型提出来的。以CNN为例,在对一张图偏进行卷积的过程中,使用的是同一个卷积核的参数。比如一个3×3×1的卷积核,这个卷积核内的9个参数被整张图共享,而不会因为图像内位置的不同而改变卷积核内的权系数。拿一个卷积核为例,简单的说就是用一个卷积核不改变其内权系数的情况下卷积处理整张图片。 题卡 <上一题下一题
图日一 出手 1.7 了 4G ]17:57 (QN[ [76 K/s ED2 ●U 随机练习 收藏 120.单选题 你有一个15x15x8的输入,并使用"pad=2"进行填充,填充后的尺寸是多少? A 17x17x10 B 19x19x8 密 19x19x12 D 17x17x8 答错了,再接再厉哦 我的答案∶C 参考答案∶B 3: 题卡 <上一题下一题
图日一467 出手46 ]17:57 位 (QN[ [76 B/s ED2 ● 随机练习 7收藏 121.单选题 你有一个63x63x16的输入,有32个过滤器进行卷积,每个过滤器的大小为7x7,步幅为1,你想要使用"same"的卷积方式,请问pad的值是多少? A r B 2 . C 3 x) 了 答错了,再接再厉哦冷 我的答案∶ D 参考答案∶C 题卡 <上一题下一题
图日一1.5 出手46 07:57 D Q△[ 76 K/s ED2 oU 随机练习 ☆收藏 122.填空题 RCNN通过算法生成候选区域。‘ 。 122.1 参考答案∶ 122.1: selective search 题卡 <上一题下一题
图日一453 46 岛“5 7:57 QN[ [76 B/s D2 o 随机练习 ☆收藏 123.单选题 假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术? A 穷举搜索 图 随机搜索 C Bayesian优化 D 都可以 ▲ 答错了,再接再厉哦 我的答案∶B 参考答案∶D ): 题卡 <上一题下一题
4.2 图日一 铝三 46 ] 7:57 0 N[ [76 K/s D2 ●U 随机练习 ☆收藏 124.多选题 人工神经网络可以看做由哪三种基本元素组成() 一个连接 一个加法器 C 一个减法器 一个激励函数 恭喜,答对了 我的答案∶A,B,D 参考答案∶A,B,D )手 题卡 <上一题下一题
图日一 出手 1.7 了 4G ]1 7:58 仍K/s ED2 ●U[ 随机练习 ☆收藏 125.单选题 "稀疏连接"是使用卷积层的好处。这是什么意思? 正则化导致梯度下降将许多参数设置“ 为零。 每个过滤器都连接到上一层的每个通B 道。 下一层中的每个激活只依赖于前一层厂心 的少量激活。 卷积网络中的每一层只连接到另外两密 层。 答错了,再接再厉哦0: 我的答案∶ D 参考答案∶C 题卡 <上一题下一题
图日一守46 ] 7:58 C 29 仍D2 ●1 随机练习 ☆收藏 126.多选题 下列方法中,可以用于特征降维的方法包括() 主成分分析PCA 线性判别分析LDA 深度学习SparseAutoEncoder 密 最小二乘法LeastSquares E 矩阵奇异值分解SVD 答错了,再接再厉哦 我的答案∶A,B,C,D 参考答案∶A,B,C,E 答案解析∶ 降维的3种常见方法ABE,都是线性的。深度学习是降维的方法这个就比较新鲜了,事实上,细细想来,也是降维的一种方法,因为如果隐藏层中的神经元数目要小于输入层,那就达到了降维,但如果 题卡 <上一题下一题
ED0 守4, 1 7:58 C 2, 仍D2 o 随机练习 ☆收藏 127.单选题 假设你的输入的维度为64x64x16,单个1x1的卷积过滤器含有多少个参数(包括偏差)? A 2 17 4097 C D A 恭喜,答对了 我的答案∶ B 参考答案∶B B 题卡 <上一题下一题
图日一27 46 ]1 7:58 E 9 仍ED2 ·UU 随机练习 收藏 128.判断题 ResNet的出现使得卷积神经网络不再受层数太深的限制,使得深度神经网络有了显著性的进展。() 对 B 错 恭喜,答对了 我的答案∶对参考答案∶对 “ 题卡 <上一题下一题
图日一 蹈仰46 ]1 7:58 仍K/sD ED2 ·UU 随机练习 收藏 129.判断题 梯度下降算法是最常用也是最有效的神经网络的优化办法,完全可以满足不同类型的需求。() A 对 错 恭喜,答对了 我的答案∶错参考答案∶错 题卡 <上一题下一题
图日一 出手 1.7 ⑦ 46G ]1 7:58 仍K/s ED2 ●U 随机练习 收藏 130.多选题 下面属于BP的优点的是() 非线性映射能力 自学习和自适应能力 具有泛化能力 具有容错能力 恭喜,答对了 我的答案∶A,BC,D 参考答案∶A,B,C,D ) 题卡 <上一题下一题
ED0 1.6 出手4G 1 7:58 位 仍K/s D2 o 随机练习 CycleGAN的生成器网络结构由 ___和构成。 。 131.1 o 131.2 o 131.3 参考答案∶ (Encoding) 131.1∶编码层 一 (Transformation)131.2∶转换层(Decoding) 131.3∶ 解码层 ( 题卡 <上一题下一题
1.1 图日 出手46 ] 7:58 回 N[76 K/s D2 。 随机练习 ☆收藏 132.多选题 下面属于BP的缺点的是() BP神经网络算法的收敛速度慢 BP神经网络结果选择不一 C 适应大部分数据训练模式 D BP网络不会受到训练能力影响 恭喜,答对了 我的答案∶A,B 参考答案∶A,B 3 题卡 <上一题下一题
EDD 1. 铝三46 1 7:58 C 仍K/s D2 ●UU 随机练习 下收藏 133.多选题 类别型特征必须经过处理转换成数值型特征才能正确工作。处理类别特征的编码有哪些?(、 A 序号编码 独热编码(One-hot Encoding 十进制编码C D 哈希编码(Binary Encoding) ▲ 答错了,再接再厉哦 我的答案∶B 参考答案∶A,B,D 题卡 <上一题下一题
图日一 跹心 1.6 46 ]1 7:59 位 仍K/s ED2 oUU 随机练习 v/ 如果用一个词来形容概率图模型(Probabilisti c Graphical Model)的话,那就是"优雅"。对于一个实际问题,我们希望能够挖掘隐含在数据中的知识。概率图模型构建了这样一幅图,用观测结点表示观测到的数据,用隐含结点表示潜在的知识,用边来描述知识与数据的相互关系,最后基于这样的关系图获得一个概率分布,非常"优雅"地解决了问题。概率图模型主要分为什么( ) A 贝叶斯网络(Bayesian Network) 马尔可夫网络(Markov Network) 密 深度神经网络(Deep Learning) D 图网络(Graph Network) ▲ 答错了,再接再厉哦 我的答案∶B,C 参考答案∶A,B 题卡 <上一题下一题
图日一1.5 出手4G 1 7:59 位 仍K/s ED2 ●U[ 随机练习 收藏 136.填空题 随着网络层级的不断增加,模型精度不断得到提升,然而当网络层级增加到一定的数目以面。 迅速下降,导致 和7 .m , 卷积神经网络性能的退化。 o 136.1 。 136.2 参考答案∶训练精度136.1∶订136.2∶ 测试精度 题卡 <上一题下一题
1.A 图日一 出手46 ]1 7:59 回 仍K/s ED2 ·UU 随机练习 ☆收藏 137.单选题 计算图优化的哪种典型优化方法是主要针对GPU运算的?() A ConstFold B Arithmetic Layout D Remapper 恭喜,答对了 我的答案∶C 参考答案∶C , 题卡 <上一题下一题
图日一533 一完。 蝠“ ] 7:59 仍B/s D2 。三 随机练习 收藏 138.多选题 GoogleNet模型中的基础卷积模块(称为Ince ption模块))中采用的卷积核大小为() 密 11x11 5x5 3x3 D 1x1 答错了,再接再厉哦。“ 我的答案∶A,B,C 参考答案∶B,C,D . 题卡 <上一题下一题
图日一 出手 4.4 46 ]1 7:59 C 仍K/S ED 2 ●U 随机练习 收藏 139.判断题 正则化方法是一种通过引入额外的新信息来解决机器学习中过拟合问题的方法。 对 四错 恭喜,答对了 我的答案∶对参考答案∶对 题卡 <上一题下一题
A.2 图日一 出手⑦ 46 ]1 7:59 仍K/s ED2 ·UU 随机练习 ☆7收藏 140.判断题 当一个经验丰富的深度学习工程师在处理一个新的问题的时候,他们通常可以利用先前的经验来在第一次尝试中训练一个表现很好的模型,而不需要通过不同的模型迭代多次从而选择一个较好的模型。 图 对 B 错 ▲ 答错了,再接再厉哦 我的答案∶对参考答案∶错 答案解析∶ 也许之前的一些经验可能会有所帮助,但没有人总是可以找到最佳模型或超参数而无需迭代多次。 题卡 <上一题下一题
图日一17 46 岛心 ] 7:59 仍D K/s D2 ●1 随机练习 ☆收藏 141.问答题 看一下下面的这两个随机数组"a"和"b"a = np.random.randn(2,3)b = np.random.randn(2,1)= a + b C 请问数组c的维度是多少? 我的作答∶ 二 参考答案∶ B(列向量)复制3次,以便它可以和A的每一列相加,所以∶ c.shape =(2,3) 题卡 <上一题下一题
BDD Gall Seall We ◎QQQ 26 1 8:00 B HD 2 随机练习 V ☆收藏 142.单选题 采用梯度下降法更新模型参数时,求导是非常重要的计算步骤。求导方法之一的“符号求导”存在的主要缺点是( ) 代码无法通用或复用A 计算量巨大 会引入舍入误差和截断误差 出现“表达式膨胀” 100 A 答错了,再接再厉哦 我的答案B 参考答案∶D <上一题题卡 下一题 >
图日一 跹心 1.3 4G 5]1 8:00 位 序仍K/s ED 2 olU 随机练习 ☆收藏 143.单选题 在训练神经网络时,损失函数(Iloss)在最初的几个epochs时没有下降,可能的原因是? 密 学习率(learning rate)太低 B 正则参数太高 C 陷入局部最小值 D 以上都有可能 ▲ 答错了,再接再厉哦 我的答案∶ A 参考答案∶D ): 题卡 <上一题下一题
图日一3.5 46 岛“ ]I8:00 位 C)1[76 K/s ED2 ●U 随机练习 ☆收藏 144.单选题 下列哪一种操作实现了和神经网络中Dropout 类似的效果? A Bagging B Boosting 密 堆叠(Stacking) D 以上都不正确 A 答错了,再接再厉哦 我的答案∶C 参考答案∶A 题卡 <上一题下一题
图日一1.6 出手46 ]i 8:00 D 序仍K/s D2 o 随机练习 收藏 145.多选题 对于很多算法工程师来说,超参数调优是件非常头疼的事。除了根据经验设定所谓的"合理值"之外,一般很难找到合理的方法去寻找超参数的最优取值。而与此同时,超参数对于模型效果的影响又至关重要。有没有一些可行的办法去进行超参数的调优呢?( ) “ 网格搜索 密 梯度下降法 随机搜索C D 贝叶斯优化 ▲ 答错了,再接再厉哦 我的答案∶B 参考答案∶A,C,D 题卡 <上一题下一题
GDD AG.AL ELIL RIL KIS ◎CANGI8:00 B HD 2 随机练习 V ☆收藏 146.判断题 “过拟合”只在监督学习中出现,在非监督学习中,没有“过拟合”。 对A 错 心恭喜,答对了 我的答案错 参考答案∶错 答案解析∶ 我们可以评估无监督学习方法通过无监督学习的指标,如∶我们可以评估聚类模型通过调整兰德系数(adjusted rand score)。 <上一题题卡 下一题 >
图日一2.5 困仰46 ]i 8:00 C 序仍D2 K/s ●1 随机练习 收藏 147. 填空题 ResNet网络结构中,包括两种类型的残差块 ,挡,。 。 147.1 。 147.2 参考答案∶ 147.1∶ 实线残差结构147.2∶ 虚线残差结构 题卡 <上一题下一题
图日2.2 4G D]I 8:00 纭 C)1[76 K/s ED2 ●U 随机练习 、 收藏 148.多选题 在Logistic Regression中,如果同时加入L1和L2范数,会产生什么效果() 可以做特征选择,并在一定程度上防止过拟合 能解决维度灾难问题 能加快计算速度 D 可以获得更准确的结果 恭喜,答对了 我的答案∶A,B,C 参考答案∶A,B,C ” 答案解析∶ L1范数具有系数解的特性,但是要注意的是,L1 没有选到的特征不代表不重要,原因是两个高相关性的特征可能只保留一个。如果需要确定哪个特征重要,再通过交叉验证。它的优良性质是能产生稀疏性,导致W中许多项变成零。 稀疏的解除了计 题卡 <上一题下一题
图日一3.1 蹈仰仓 一完。 ]i 8:00 序仍D2 K/s o 随机练习 收藏 149.判断题 全连接的神经网络应用于图像处理时可能会导致一一个严重的参数数量的膨胀的问题。 对 四错 恭喜,答对了 我的答案∶对参考答案∶对 题卡 <上一题下一题
ED0 9.7 船“4G ]i 8:00 位 (Q1[76 D2 K/s o 随机练习 ☆收藏 150.多选题 VGG网络架构中,采用的卷积核的大小为() A 11x11 8 5x5 3x3 C D 1x1 ▲ 答错了,再接再厉哦 我的答案∶B 参考答案∶C,D 题卡 <上一题下一题
图日一436 出手46 包 ]i 8:01 (QI[75 B/s ED2 ●U[ 随机练习 收藏 151.多选题 为什么RNN(循环神经网络)可以应用机器翻译将英语翻译成法语? A 因为它可以被用做监督学习。 严格意义上它比卷积神经网络(CN 密 N)效果更好。 它比较适合用于当输入/输出是一个序列的时候(例如∶一个单词序列) RNNs代表递归过程∶ 想法->编码->D 实验->想法->… 答错了,再接再厉哦4 我的答案∶B,C 参考答案∶A,C 题卡 <上一题下一题
图日1.9 出手46 创 ]1 8:01 C[75 K/s ED2 ·UU 随机练习 收藏 152.多选题 在选择神经网络的深度时,下面那些参数需要考虑? 神经网络的类型(如MLPCNN) 输入数据 计算能力(硬件和软件能力决定) 学习速率 映射的输出函数 恭喜,答对了 我的答案∶A,B,C,D,E 参考答案∶A,B,C,D,E 用 答案解析∶ 所有上述因素对于选择神经网络模型的深度都是重要的。 题卡 <上一题下一题
|