考生姓名:黄焕英
学号:1234070208
班级:数字媒体技术2班
一、单项选择题(共15题,每题2.0分,下列的备选项中,只有一个最符合题意)第1题: 传统计算机视觉的特点
A. 依赖手工提取特征       B. 自动学习特征       C. 通过深度神经网络提取特征       D. 需要大量的标注数据进行训练       
你的答案:A. 依赖手工提取特征
参考答案:A
得分:2.0
第2题: 8位色深的RGB模型中,每一种颜色的取值范围是
A. 0-255       B. 0-1024       C. 0-1       D. 0-100%       
你的答案:A. 0-255
参考答案:A
得分:2.0
第3题: Laplacian算子的主要特点是什么
A. 仅检测水平方向的边缘       B. Laplacian算子对噪声不敏感       C. 检测图像中的边缘和细节,并且不区分方向       D. Laplacian算子是一种一阶导数算子       
你的答案:C. 检测图像中的边缘和细节,并且不区分方向
参考答案:C
得分:2.0
第4题: 以下关于卷积计算的描述,正确的是
A. 卷积核的大小通常与图像的大小相同,以便捕捉整个图像的特征       B. 将卷积核与整个图像进行逐像素相加计算       C. 计算图像的每个像素与邻近像素的差异       D. 卷积操作是将卷积核沿着整个图像滑动,与图像的局部区域进行元素间的乘积求和,以此计算卷积结果       
你的答案:D. 卷积操作是将卷积核沿着整个图像滑动,与图像的局部区域进行元素间的乘积求和,以此计算卷积结果
参考答案:D
得分:2.0
第5题: 在卷积计算中,步长(Strides)控制的是什么
A. 卷积核的大小       B. 步长是卷积操作中用于增加图像尺寸的参数       C. 卷积核滑动的距离       D. 特征图层的通道数       
你的答案:C. 卷积核滑动的距离
参考答案:C
得分:2.0
第6题: 关于决策树的特点,以下描述正确的是
A. 决策树只能用于分类问题,不能处理回归问题       B. 决策树只能用于回归问题,不能处理分类问题       C. 决策树不会过拟合       D. 决策树易于理解和解释,因为它们可以被可视化为树状图       
你的答案:D. 决策树易于理解和解释,因为它们可以被可视化为树状图
参考答案:D
得分:2.0
第7题: 关于朴素贝叶斯分类器的特点,以下哪项描述是正确的
A. 在特征高度相关时可能不准确       B. 假设所有特征都高度相关       C. 计算复杂度高       D. 不能用于文本分类       
你的答案:A. 在特征高度相关时可能不准确
参考答案:A
得分:2.0
第8题: 以下哪一项不属于K-Means聚类的特点
A. 是无监督学习方法       B. 将数据点划分为 K 个簇       C. 通过迭代计算每个簇的均值向量来确定簇中心       D. 算法复杂,但效果更好       
你的答案:D. 算法复杂,但效果更好
参考答案:D
得分:2.0
第9题: 以下关于损失函数的说法中,正确的是
A. 模型预测值与真实值之间差异越大,损失函数的值越小       B. 用于计算模型的准确率       C. 衡量模型预测与真实值之间的误差       D. 只能用于线性回归算法       
你的答案:C. 衡量模型预测与真实值之间的误差
参考答案:C
得分:2.0
第10题: 神经网络的基本组成部分为
A. 输入层、卷积层、池化层       B. 输入层、损失层、梯度层       C. 输入层、卷积层、输出层       D. 输入层、隐藏层、输出层       
你的答案:D. 输入层、隐藏层、输出层
参考答案:D
得分:2.0
第11题: 关于神经网络中的正向传播,以下哪项描述是正确的
A. 用于计算模型对输入数据的预测       B. 正向传播用于调整模型参数       C. 正向传播仅在训练过程中发生,不涉及模型的推理阶段       D. 正向传播不涉及激活函数的应用       
你的答案:A. 用于计算模型对输入数据的预测
参考答案:A
得分:2.0
第12题: 激活函数在人工神经网络中的作用是什么
A. 激活函数用于减少网络的计算复杂度       B. 激活函数用于在训练过程中调整学习率       C. 激活函数用于引入非线性,使网络能够解决复杂的非线性问题       D. 激活函数用于调整神经网络的权重和偏差       
你的答案:C. 激活函数用于引入非线性,使网络能够解决复杂的非线性问题
参考答案:C
得分:2.0
第13题: 缩放数据(Scaling)对模型准确度的影响
A. 数据缩放可以显著影响模型的准确度       B. 数据缩放可加快模型的计算速度,但是不能提高模型的准确度       C. 数据缩放会使得模型忽略那些在原始数据中具有较大尺度的特征       D. 数据缩放通常将特征值变换到1-100之间       
你的答案:A. 数据缩放可以显著影响模型的准确度
参考答案:A
得分:2.0
第14题: 以下关于交并比IoU(Intersection over Union)的说法,错误的是
A. IoU用来评估两个多边形或区域重叠程度       B. IoU值范围在0到1之间,数值越大表示重叠程度越高       C. IoU计算公式为交集面积除以并集面积       D. IoU用来评估检测框的置信度       
你的答案:D. IoU用来评估检测框的置信度
参考答案:D
得分:2.0
第15题: 以下哪项是非极大值抑制的主要作用
A. 增加目标检测中的候选框数量       B. 移除冗余框,保留得分最高的预测框       C. 提高模型的训练速度       D. 识别图像中物体的类别标签       
你的答案:B. 移除冗余框,保留得分最高的预测框
参考答案:B
得分:2.0
二、多项选择题(共10题,每题3.0分,每题的备选项中,有2个或2个以上符合题意,至少有一个错项。错选,本题不得分;少选,,所选的每个选项得0.5分)
第1题: 以下选项中,哪些不是常见的图片格式
A. EXIF       B. TIFF       C. GIF       D. HEVC       E. WEBM       
你的答案:['A', 'D', 'E']
参考答案:['A', 'D', 'E']
得分:3.0
第2题: JPG格式的主要特点包括
A. 应用广泛       B. 适合存储高质量图像       C. 无损压缩       D. 文件体积较小       E. 通常包含8个通道       
你的答案:['A', 'B', 'D']
参考答案:['A', 'D']
得分:0.0
第3题: 在卷积计算中,关于填充(Padding)的描述,以下哪项是正确的
A. 保证卷积核能够在边界计算       B. 增加图像的颜色深度       C. 减少卷积核的计算量       D. 提高图像的清晰度       E. 保持输出特征图的尺寸与原图一致       
你的答案:['A', 'E']
参考答案:['A', 'E']
得分:3.0
第4题: 以下哪一项不属于监督学习的特点
A. 利用带有标签的数据集训练       B. 常用于聚类和降维问题       C. 监督学习需要自行探索数据中的规律       D. 常见的监督学习算法包括线性回归和决策树       E. 模型的目标是预测新数据的标签       
你的答案:['B', 'C', 'D']
参考答案:['B', 'C']
得分:0.0
第5题: 以下哪一项不属于无监督学习的特点
A. 利用未标记的数据集训练       B. 主要用于预测新数据的标签       C. 聚类属于无监督学习算法       D. 旨在从数据中发现隐藏的结构或模式       E. 常用于分类和回归问题       
你的答案:['B', 'E']
参考答案:['B', 'E']
得分:3.0
第6题: 强化学习的特点包括
A. 通过试错机制学习       B. 模型与环境进行交互       C. 主要用于预测新数据的标签       D. 目标是最大化累积奖励       E. 强化学习通过梯度下降的方法减小训练误差       
你的答案:['A', 'B', 'D']
参考答案:['A', 'B', 'D']
得分:3.0
第7题: 以下关于线性回归的特点,错误的是
A. 适用于预测连续型变量       B. 假设数据服从线性分布       C. 线性回归模型无法处理具有多个自变量的情况       D. 对非线性关系的拟合能力强       E. 线性回归模型可解释性强,易于理解       
你的答案:['C', 'D']
参考答案:['C', 'D']
得分:3.0
第8题: 以下关于梯度下降的说法,错误的是
A. 用于计算目标函数的全局最优解       B. 通过沿梯度方向更新参数来最小化目标函数       C. 学习率越大,收敛越快       D. 学习率越小,收敛越快       E. 只能用于线性模型的训练       
你的答案:['D', 'E']
参考答案:['A', 'C', 'D', 'E']
得分:1.0
第9题: 以下哪一项不属于反向传播的特点
A. 利用链式法则高效计算梯度       B. 从输出层向输入层反向传递误差       C. 通过梯度下降来调整模型结构       D. 迭代更新权重以最小化损失函数       E. 反向传播用于模型推理       
你的答案:['C', 'E']
参考答案:['C', 'E']
得分:3.0
第10题: 在RCNN模型的训练过程中,以下选项正确的是
A. 训练数据集中的每个对象直接输入到VGG16模型中进行分类和回归,不需要额外的候选区域生成       B. 生成的候选区域通过SelectiveSearch算法生成,并与真实边界框计算交并比(IoU),根据IoU最大且大于阈值的真实框进行类别和偏移量标注       C. RCNN直接输出对象的类别,忽略边界框的回归       D. RCNN算法的计算效率低       E. 非极大值抑制(NMS)用于丢弃边界框并选择所有生成的候选框,而不考虑它们的置信度       
你的答案:['B', 'D']
参考答案:['B', 'D']
得分:3.0
三、判断题(共8题,每题2.0分,请根据题目描述判断下列陈述是否正确)
第1题: HEVC是一种常见的图片格式
你的答案:False
参考答案:False
得分:2.0
第2题: Sobel 算子使用高斯滤波器来进行图像锐化
你的答案:False
参考答案:False
得分:2.0
第3题: 强化学习需要及时给模型进行反馈,使模型能迅速调整自身策略。
你的答案:True
参考答案:False
得分:0.0
第4题: 线性回归适用于预测连续型变量
你的答案:True
参考答案:True
得分:2.0
第5题: 损失函数用于评估模型预测的准确率
你的答案:False
参考答案:False
得分:2.0
第6题: 在卷积计算中,步长是卷积核与图像局部区域进行元素乘积求和的系数
你的答案:False
参考答案:False
得分:2.0
第7题: 迁移学习利用预先训练好的模型来适应新任务
你的答案:True
参考答案:True
得分:2.0
第8题: Selective Search 算法根据亮度、对比度特征生成候选区域
你的答案:False
参考答案:False
得分:2.0
四、简答题(共4题,每题6.0分,请根据题目要求作答)
第1题: 简述线性回归的基本原理,并解释其如何通过训练数据集确定最佳的回归系数
你的答案:基本原理:线性回归是一种监督学习算法,用于预测连续目标变量。特点在于假设目标变量与特征变量之间存在一个线性关系,并通过最小化预测值与真实值的误差来确定最佳的回归系数。 怎样通过训练数据集确定最佳的回归系数、 线性回归通过训练数据集确定最佳回归系数的方法 在线性回归中,确定最佳回归系数(权重)通常涉及到最小化损失函数,最常见的损失函数是均方误差(MSE)。 初始化:首先,我们需要初始化回归系数。这些初始值可以是随机选择的小数值。 计算预测值:使用当前的回归系数对训练数据集中的每个样本进行预测。这通常是通过将每个特征与相应的回归系数相乘并将结果相加来完成的。 计算损失:计算预测值与实际目标变量之间的差异,这通常通过均方误差(MSE)来衡量。MSE是所有样本预测误差平方的平均值。 计算梯度:为了最小化损失函数,我们需要计算损失相对于每个回归系数的梯度。梯度是一个向量,它的每个元素都是相应回归系数的偏导数。梯度告诉我们损失函数在当前点的上升方向。 更新回归系数:使用梯度下降算法,我们可以通过从当前回归系数中减去学习率乘以梯度来更新回归系数。这将使损失函数朝着最小值的方向移动。 重复计算预测值、损失、梯度和更新回归系数的过程,直到满足停止条件。停止条件可以是达到最大迭代次数、损失函数的变化小于某个阈值或者梯度接近于零。 最终模型:一旦满足停止条件,我们就得到了最佳回归系数,这些系数可以用来对新数据进行预测。
参考答案:线性回归是一种监督学习方法,通过使用标注数据集进行训练来建立。通过损失函数衡量预测值与真实值之间的差异,通过梯度下降法,以最小化损失函数为目标,不断调整模型参数,从而确定最佳的回归系数。
得分:5.0
第2题: 梯度下降法如何调整权重参数的方向和大小,使损失函数逐步减小
你的答案:梯度下降法调整权重参数的方向和大小,使损失函数逐步减小 梯度下降法是一种常用的优化算法,用于调整模型的权重参数,以最小化损失函数。 初始化权重参数:首先,我们需要初始化模型的权重参数。这些参数可以随机设置,或者使用一些启发式方法来设置。 计算梯度:接下来,我们需要计算损失函数关于每个权重参数的梯度。梯度是一个向量,它的方向指向上坡的方向,即损失函数增长最快的方向。因此,负梯度方向就是下坡的方向,即损失函数减小最快的方向。 更新权重参数:有了梯度信息后,我们就可以更新权重参数了。更新的公式通常是:[w_{new} = w_{old} - \eta \cdot \nabla J(w_{old})]其中,w_{new}w new 是更新后的权重参数,w_{old}w old 是更新前的权重参数,\etaη是学习率(一个超参数),\nabla J(w_{old})∇J(w old )是损失函数在w_{old}w old 处的梯度。 重复计算梯度和更新权重参数的过程,直到满足停止准则。停止准则可以是达到最大迭代次数,或者损失函数的变化小于某个阈值。 需要注意的是,学习率η的选择非常重要。如果学习率太小,模型收敛速度会很慢;如果学习率太大,模型可能会在最小值附近震荡,甚至发散。此外,梯度下降法可能会陷入局部最小值,而不是全局最小值。
参考答案:1、方向:沿着损失函数梯度(导数)的反方向调整参数,确保损失函数值下降。2、大小:通过学习率控制每次参数更新的幅度。避免学习率过小,导致梯度下降的速度过于缓慢;学习率过大,导致无法收敛。合适的学习率可以使梯度下降既快速又稳定地收敛到最小值。
得分:5.0
第3题: 简述神经网络的正向传播过程与反向传播
你的答案:神经网络的正向传播是人工神经网络训练过程中的一步,负责将输入数据数据传递到输出层,并计算最终预测结果。特点在于逐层将输入信号通过激活函数处理,并将处理后的信号作为下一层的输入,直到得到最终的输出。正向传播的过程本质是神经网络模型的执行过程,用于生成模型对输入数据的预测。 神经网络的反向传播是一种用于训练人工神经网络的优化算法,核心特点在于通过计算损失函数对每个参数的梯度,并利用梯度下降法更新参数值,从而逐步降低模型的预测误差。反向传播的关键在于利用链式法则来高效计算梯度,反向传递误差,并迭代更新权重以最小化损失函数,使神经网络能够学习如何调整内部参数以改善性能。
参考答案:正向传播:正向传播是神经网络训练过程中的关键步骤,负责将输入数据传递到输出层,计算最终预测结果。正向传播通过将输入值与权重矩阵相乘并加上偏置向量进行线性变换,然后应用激活函数进行非线性转换,并将处理后的值作为下一层的输入,直到得到最终的输出。正向传播的过程本质上就是神经网络模型的执行过程,用于生成模型对输入数据的预测。反向传播:反向传播是一种用于训练神经网络的优化算法,其核心特点在于通过计算损失函数对每个参数的梯度,并利用梯度下降法更新参数值,从而逐步降低模型的预测误差。这一过程会遍历整个神经网络,从输出层向输入层逐层计算梯度信息,计算量较大,但能够高效地训练复杂的深度学习模型。反向传播的关键在于利用链式法则来高效计算梯度,反向传递误差,并迭代更新权重以最小化损失函数,使神经网络能够学习如何调整内部参数以改善性能。
得分:5.0
第4题: 根据本课程所学的知识,请简要说明使用迁移学习进行图片分类的具体步骤
你的答案:迁移学习是一种机器学习技术,它允许模型将在一个任务上学习到的知识应用到另一个相关的任务上。能够利用已有的模型和数据,减少对大量投注数据的需求,加速模型训练过程,提高模型在新任务上的性能。 以下为使用迁移学习进行图片分类的具体步骤: 数据收集和预处理:首先,需要收集包含多个标签的场景图像数据集。这些图像可以来自不同的来源,例如网络图片库或自行采集的图像。然后,对这些图像进行预处理,包括图像的大小调整、颜色空间转换和图像增强等操作,以便提高分类的准确性和鲁棒性。 模型选择和预训练:选择一个合适的预训练模型作为基础模型。这些模型在大规模图像数据集上进行了训练,可以提取出图像的高级特征。通过加载预训练模型的权重,可以将其应用于多标签场景图像分类任务中。 特征提取和表示学习:使用预训练模型提取图像的特征,通过将图像输入到预训练模型中,并获取模型的某一层的输出来实现,再利用这些特征进行表示学习,将图像表示为一个向量或矩阵,以便后续的分类任务。 分类器训练和评估:使用已提取的特征作为输入,训练一个多标签分类器。训练过程中,可以使用交叉验证等技术来评估模型的性能,并进行参数调优以提高分类的准确性。 模型部署和应用:将训练好的多标签分类模型部署到实际应用中。在应用中,可以输入一张图像,然后模型会输出该图像所属的多个标签或类别。
参考答案:1、准备用于训练的数据集,可以在Open Images等数据集中下载。2、使用同样的参数(与预训练模型同样的平均值和标准差)对输入的图像进行归一化。3、通过PyTorch获取预训练模型的架构与预训练模型训练后的权重。4、丢弃预训练模型的最后几层,接入我们针对特定数据集微调的最后几层。5、将截断的预训练模型连接到一个新初始化的层,其中权重是随机初始化的。确保最后一层的输出与我们想要预测的类别/输出有一样多的神经元。6、确保预训练模型的权重不可训练(冻结预训练模型的权重),只训练我们接入的层的权重。7、训练模型,更新我们新接入层的权重。
得分:4.0
你的考试成绩:85.0
| 项目 | 满分 | 得分 |
|---|---|---|
| 作业1:遍历数组 | 20 | 20 |
| 作业2:图像边缘检测与锐化 | 20 | 16 |
| 作业3:图像分类 | 20 | 20 |
| 作业4:目标检测 | 20 | 20 |
| 考勤与课堂表现 | 20 | 16 |
| 平时成绩(小计) | 100 | 92 |
| 卷面成绩 | 100 | 85.0 |
| 综合成绩 | 88.5 |
作业与考勤每项20分,平时成绩与卷面成绩各占总成绩的50%。
如果对成绩有疑问,请及时与老师联系。