考生姓名:杨丽新
学号:1234070113
班级:数字媒体技术1班
一、单项选择题(共15题,每题2.0分,下列的备选项中,只有一个最符合题意)第1题: 传统计算机视觉的特点
A. 依赖手工提取特征       B. 自动学习特征       C. 通过深度神经网络提取特征       D. 需要大量的标注数据进行训练       
你的答案:A. 依赖手工提取特征
参考答案:A
得分:2.0
第2题: 8位色深的RGB模型中,每一种颜色的取值范围是
A. 0-255       B. 0-1024       C. 0-1       D. 0-100%       
你的答案:A. 0-255
参考答案:A
得分:2.0
第3题: Laplacian算子的主要特点是什么
A. 仅检测水平方向的边缘       B. Laplacian算子对噪声不敏感       C. 检测图像中的边缘和细节,并且不区分方向       D. Laplacian算子是一种一阶导数算子       
你的答案:C. 检测图像中的边缘和细节,并且不区分方向
参考答案:C
得分:2.0
第4题: 以下关于卷积计算的描述,正确的是
A. 卷积核的大小通常与图像的大小相同,以便捕捉整个图像的特征       B. 将卷积核与整个图像进行逐像素相加计算       C. 计算图像的每个像素与邻近像素的差异       D. 卷积操作是将卷积核沿着整个图像滑动,与图像的局部区域进行元素间的乘积求和,以此计算卷积结果       
你的答案:D. 卷积操作是将卷积核沿着整个图像滑动,与图像的局部区域进行元素间的乘积求和,以此计算卷积结果
参考答案:D
得分:2.0
第5题: 在卷积计算中,步长(Strides)控制的是什么
A. 卷积核的大小       B. 步长是卷积操作中用于增加图像尺寸的参数       C. 卷积核滑动的距离       D. 特征图层的通道数       
你的答案:C. 卷积核滑动的距离
参考答案:C
得分:2.0
第6题: 关于决策树的特点,以下描述正确的是
A. 决策树只能用于分类问题,不能处理回归问题       B. 决策树只能用于回归问题,不能处理分类问题       C. 决策树不会过拟合       D. 决策树易于理解和解释,因为它们可以被可视化为树状图       
你的答案:D. 决策树易于理解和解释,因为它们可以被可视化为树状图
参考答案:D
得分:2.0
第7题: 关于朴素贝叶斯分类器的特点,以下哪项描述是正确的
A. 在特征高度相关时可能不准确       B. 假设所有特征都高度相关       C. 计算复杂度高       D. 不能用于文本分类       
你的答案:A. 在特征高度相关时可能不准确
参考答案:A
得分:2.0
第8题: 以下哪一项不属于K-Means聚类的特点
A. 是无监督学习方法       B. 将数据点划分为 K 个簇       C. 通过迭代计算每个簇的均值向量来确定簇中心       D. 算法复杂,但效果更好       
你的答案:D. 算法复杂,但效果更好
参考答案:D
得分:2.0
第9题: 以下关于损失函数的说法中,正确的是
A. 模型预测值与真实值之间差异越大,损失函数的值越小       B. 用于计算模型的准确率       C. 衡量模型预测与真实值之间的误差       D. 只能用于线性回归算法       
你的答案:C. 衡量模型预测与真实值之间的误差
参考答案:C
得分:2.0
第10题: 神经网络的基本组成部分为
A. 输入层、卷积层、池化层       B. 输入层、损失层、梯度层       C. 输入层、卷积层、输出层       D. 输入层、隐藏层、输出层       
你的答案:D. 输入层、隐藏层、输出层
参考答案:D
得分:2.0
第11题: 关于神经网络中的正向传播,以下哪项描述是正确的
A. 用于计算模型对输入数据的预测       B. 正向传播用于调整模型参数       C. 正向传播仅在训练过程中发生,不涉及模型的推理阶段       D. 正向传播不涉及激活函数的应用       
你的答案:A. 用于计算模型对输入数据的预测
参考答案:A
得分:2.0
第12题: 激活函数在人工神经网络中的作用是什么
A. 激活函数用于减少网络的计算复杂度       B. 激活函数用于在训练过程中调整学习率       C. 激活函数用于引入非线性,使网络能够解决复杂的非线性问题       D. 激活函数用于调整神经网络的权重和偏差       
你的答案:C. 激活函数用于引入非线性,使网络能够解决复杂的非线性问题
参考答案:C
得分:2.0
第13题: 缩放数据(Scaling)对模型准确度的影响
A. 数据缩放可以显著影响模型的准确度       B. 数据缩放可加快模型的计算速度,但是不能提高模型的准确度       C. 数据缩放会使得模型忽略那些在原始数据中具有较大尺度的特征       D. 数据缩放通常将特征值变换到1-100之间       
你的答案:A. 数据缩放可以显著影响模型的准确度
参考答案:A
得分:2.0
第14题: 以下关于交并比IoU(Intersection over Union)的说法,错误的是
A. IoU用来评估两个多边形或区域重叠程度       B. IoU值范围在0到1之间,数值越大表示重叠程度越高       C. IoU计算公式为交集面积除以并集面积       D. IoU用来评估检测框的置信度       
你的答案:D. IoU用来评估检测框的置信度
参考答案:D
得分:2.0
第15题: 以下哪项是非极大值抑制的主要作用
A. 增加目标检测中的候选框数量       B. 移除冗余框,保留得分最高的预测框       C. 提高模型的训练速度       D. 识别图像中物体的类别标签       
你的答案:B. 移除冗余框,保留得分最高的预测框
参考答案:B
得分:2.0
二、多项选择题(共10题,每题3.0分,每题的备选项中,有2个或2个以上符合题意,至少有一个错项。错选,本题不得分;少选,,所选的每个选项得0.5分)
第1题: 以下选项中,哪些不是常见的图片格式
A. EXIF       B. TIFF       C. GIF       D. HEVC       E. WEBM       
你的答案:['A', 'D', 'E']
参考答案:['A', 'D', 'E']
得分:3.0
第2题: JPG格式的主要特点包括
A. 应用广泛       B. 适合存储高质量图像       C. 无损压缩       D. 文件体积较小       E. 通常包含8个通道       
你的答案:['A', 'D']
参考答案:['A', 'D']
得分:3.0
第3题: 在卷积计算中,关于填充(Padding)的描述,以下哪项是正确的
A. 保证卷积核能够在边界计算       B. 增加图像的颜色深度       C. 减少卷积核的计算量       D. 提高图像的清晰度       E. 保持输出特征图的尺寸与原图一致       
你的答案:['A', 'E']
参考答案:['A', 'E']
得分:3.0
第4题: 以下哪一项不属于监督学习的特点
A. 利用带有标签的数据集训练       B. 常用于聚类和降维问题       C. 监督学习需要自行探索数据中的规律       D. 常见的监督学习算法包括线性回归和决策树       E. 模型的目标是预测新数据的标签       
你的答案:['B', 'C']
参考答案:['B', 'C']
得分:3.0
第5题: 以下哪一项不属于无监督学习的特点
A. 利用未标记的数据集训练       B. 主要用于预测新数据的标签       C. 聚类属于无监督学习算法       D. 旨在从数据中发现隐藏的结构或模式       E. 常用于分类和回归问题       
你的答案:['B', 'E']
参考答案:['B', 'E']
得分:3.0
第6题: 强化学习的特点包括
A. 通过试错机制学习       B. 模型与环境进行交互       C. 主要用于预测新数据的标签       D. 目标是最大化累积奖励       E. 强化学习通过梯度下降的方法减小训练误差       
你的答案:['A', 'B', 'D']
参考答案:['A', 'B', 'D']
得分:3.0
第7题: 以下关于线性回归的特点,错误的是
A. 适用于预测连续型变量       B. 假设数据服从线性分布       C. 线性回归模型无法处理具有多个自变量的情况       D. 对非线性关系的拟合能力强       E. 线性回归模型可解释性强,易于理解       
你的答案:['C', 'D']
参考答案:['C', 'D']
得分:3.0
第8题: 以下关于梯度下降的说法,错误的是
A. 用于计算目标函数的全局最优解       B. 通过沿梯度方向更新参数来最小化目标函数       C. 学习率越大,收敛越快       D. 学习率越小,收敛越快       E. 只能用于线性模型的训练       
你的答案:['B', 'C', 'D', 'E']
参考答案:['A', 'C', 'D', 'E']
得分:0.0
第9题: 以下哪一项不属于反向传播的特点
A. 利用链式法则高效计算梯度       B. 从输出层向输入层反向传递误差       C. 通过梯度下降来调整模型结构       D. 迭代更新权重以最小化损失函数       E. 反向传播用于模型推理       
你的答案:['E']
参考答案:['C', 'E']
得分:0.5
第10题: 在RCNN模型的训练过程中,以下选项正确的是
A. 训练数据集中的每个对象直接输入到VGG16模型中进行分类和回归,不需要额外的候选区域生成       B. 生成的候选区域通过SelectiveSearch算法生成,并与真实边界框计算交并比(IoU),根据IoU最大且大于阈值的真实框进行类别和偏移量标注       C. RCNN直接输出对象的类别,忽略边界框的回归       D. RCNN算法的计算效率低       E. 非极大值抑制(NMS)用于丢弃边界框并选择所有生成的候选框,而不考虑它们的置信度       
你的答案:['B', 'D']
参考答案:['B', 'D']
得分:3.0
三、判断题(共8题,每题2.0分,请根据题目描述判断下列陈述是否正确)
第1题: HEVC是一种常见的图片格式
你的答案:False
参考答案:False
得分:2.0
第2题: Sobel 算子使用高斯滤波器来进行图像锐化
你的答案:False
参考答案:False
得分:2.0
第3题: 强化学习需要及时给模型进行反馈,使模型能迅速调整自身策略。
你的答案:True
参考答案:False
得分:0.0
第4题: 线性回归适用于预测连续型变量
你的答案:True
参考答案:True
得分:2.0
第5题: 损失函数用于评估模型预测的准确率
你的答案:False
参考答案:False
得分:2.0
第6题: 在卷积计算中,步长是卷积核与图像局部区域进行元素乘积求和的系数
你的答案:False
参考答案:False
得分:2.0
第7题: 迁移学习利用预先训练好的模型来适应新任务
你的答案:True
参考答案:True
得分:2.0
第8题: Selective Search 算法根据亮度、对比度特征生成候选区域
你的答案:False
参考答案:False
得分:2.0
四、简答题(共4题,每题6.0分,请根据题目要求作答)
第1题: 简述线性回归的基本原理,并解释其如何通过训练数据集确定最佳的回归系数
你的答案:答:线性回归的基本原理是通过一个线性模型来拟合数据,它是一种监督学习算法,用于预测连续目标变量。 确定最佳的回归系数的过程: 1 收集训练数据集:这个数据集包含了已知的输入特征(自变量)和对应的输出标签(因变量)。 2 定义损失函数:损失函数用来量化预测值和真实值之间的差距。常见的损失函数有均方误差(MSE)等。 3 使用优化算法:通过梯度下降来最小化损失函数。这个过程涉及计算损失函数关于每个回归系数的梯度,并沿着梯度的反方向更新回归系数,直到找到使损失函数最小的一组回归系数。 4 训练模型:在训练过程中,模型会不断地调整回归系数,以使得预测的输出尽可能接近真实值。这个过程会迭代进行,直到满足停止准则,比如最大迭代次数或损失函数的变化小于某个阈值。 通过上述步骤,线性回归模型能够在给定的训练数据集上学习到最佳的回归系数,从而能够对新的输入数据进行有效的预测。
参考答案:线性回归是一种监督学习方法,通过使用标注数据集进行训练来建立。通过损失函数衡量预测值与真实值之间的差异,通过梯度下降法,以最小化损失函数为目标,不断调整模型参数,从而确定最佳的回归系数。
得分:5.0
第2题: 梯度下降法如何调整权重参数的方向和大小,使损失函数逐步减小
你的答案:答:梯度下降是一种优化算法,用于通过迭代方式最小化目标函数。它通过计算目标函数对模型参数的梯度,沿着梯度下降的方向更新参数,直到达到最优值或接近最优值。 梯度下降法调整权重参数的方向和大小,使损失函数逐步减小的步骤: 1. 计算梯度:首先,计算损失函数关于每个权重参数的梯度。梯度是一个向量,它的方向指向损失函数增长最快的方向,大小表示增长的速率。 2. 确定更新方向:由于梯度指向损失函数增长最快的方向,为了最小化损失函数,我们需要向梯度的反方向更新权重参数。因此,权重参数的更新方向是梯度的负方向。 3. 确定更新大小:权重参数的更新大小由梯度的大小和学习率(一个超参数)共同决定。学习率是一个正数,用于控制每次更新的步长。较大的学习率会导致较大的更新,但可能使算法在最小值附近震荡或发散;较小的学习率会导致较小的更新,但可能使算法收敛速度过慢。 4. 更新权重参数:根据确定的方向和大小,更新权重参数。 5. 迭代执行:重复上述步骤,直到梯度接近零或达到预设的迭代次数,此时认为损失函数已经最小化,算法收敛。 梯度下降法的关键在于利用梯度信息来指导权重参数的调整,通过不断迭代,使损失函数逐步减小,最终找到损失函数的最小值或局部最小值。
参考答案:1、方向:沿着损失函数梯度(导数)的反方向调整参数,确保损失函数值下降。2、大小:通过学习率控制每次参数更新的幅度。避免学习率过小,导致梯度下降的速度过于缓慢;学习率过大,导致无法收敛。合适的学习率可以使梯度下降既快速又稳定地收敛到最小值。
得分:5.0
第3题: 简述神经网络的正向传播过程与反向传播
你的答案:答:神经网络的正向传播过程是指输入信息从网络的输入层逐层传递到输出层的过程,而反向传播则是根据输出误差信号逆向传播,更新网络参数以减小误差的过程。 一、正向传播过程中,网络中的每个神经元根据输入信号及其对应的权重进行加权求和,并通过激活函数进行非线性变换,得到输出信号。具体步骤如下: 1. 输入层:将输入样本的特征值作为输入信号,经过权重连接到隐层的神经元上。 2. 隐层:隐层神经元接收到输入信号后,进行加权求和并加上偏置值,形成隐层神经元的输入。然后,通过激活函数对输入进行非线性转换,得到隐层神经元的输出。 3. 输出层:输出层神经元接收到隐层神经元的输出信号,进行加权求和并加上偏置值,形成输出层神经元的输入。最后,通过激活函数对输入进行非线性转换,得到输出层神经元的输出。 二、反向传播是BP神经网络训练过程中的关键一步,用于根据输出误差信号逆向传播,更新网络参数以减小误差。具体步骤如下: 1. 计算输出误差:首先,将网络的实际输出与期望输出进行比较,计算输出误差。常用的误差函数包括均方误差和交叉熵等。 2. 传播误差信号:从输出层开始,将输出误差按权重比例逆向传播到隐层和输入层的神经元。这一步骤利用了链式法则,将输出误差分解为各个层上神经元误差的加权和。 3. 更新权重和偏置值:根据传播的误差信号,利用梯度下降法更新网络中的权重和偏置值。学习率的设置可以控制参数更新的步幅。通过多次迭代反向传播的过程,网络逐渐减小误差并调整权重和偏置值,实现更好的模型拟合。
参考答案:正向传播:正向传播是神经网络训练过程中的关键步骤,负责将输入数据传递到输出层,计算最终预测结果。正向传播通过将输入值与权重矩阵相乘并加上偏置向量进行线性变换,然后应用激活函数进行非线性转换,并将处理后的值作为下一层的输入,直到得到最终的输出。正向传播的过程本质上就是神经网络模型的执行过程,用于生成模型对输入数据的预测。反向传播:反向传播是一种用于训练神经网络的优化算法,其核心特点在于通过计算损失函数对每个参数的梯度,并利用梯度下降法更新参数值,从而逐步降低模型的预测误差。这一过程会遍历整个神经网络,从输出层向输入层逐层计算梯度信息,计算量较大,但能够高效地训练复杂的深度学习模型。反向传播的关键在于利用链式法则来高效计算梯度,反向传递误差,并迭代更新权重以最小化损失函数,使神经网络能够学习如何调整内部参数以改善性能。
得分:5.0
第4题: 根据本课程所学的知识,请简要说明使用迁移学习进行图片分类的具体步骤
你的答案:答:进行迁移学习训练的具体步骤如下: 一、 图像预处理: 使用与预训练模型相同的参数对输入图像进行归一化处理,包括减去平均值(mean)和除以标准差(standard deviation)。 二、 获取预训练模型: 获取预训练模型的架构,这通常意味着复制模型的结构,包括所有的层和连接。获取预训练模型的训练后的权重,这些权重是在大型数据集上训练得到的,能够捕捉到通用的特征。 三、 调整模型架构: 丢弃预训练模型的最后几层,这些层通常包含特定于原始数据集的特征。 接入针对特定数据集微调的新层,这些层将学习到特定于新数据集的特征。 四、添加自定义层: 将截断的预训练模型连接到新初始化的层(或层),这些层的权重是随机初始化的。确保最后一层的输出神经元数量与我们想要预测的类别数量相匹配。 五、 冻结预训练层: 确保预训练模型的权重在训练过程中不可训练,即冻结这些权重,这样它们在训练过程中不会更新。 六、设置可训练层: 只训练新接入层的权重,这些层将根据新数据集进行调整。 七、训练模型: 使用新数据集训练模型,更新新接入层的权重。在这个阶段,预训练层的权重保持不变,只有新层的权重会根据反向传播算法进行更新。 八、 评估和微调: 在训练过程中,定期评估模型的性能,使用验证集来监控过拟合和欠拟合。根据评估结果,可能需要进行一些微调,比如解冻一些预训练层的权重,进行微调,或者调整学习率等超参数。 九、模型优化: 如果需要,可以进一步优化模型,比如通过正则化技术减少过拟合,或者使用更复杂的网络结构。 十、 部署模型: 一旦模型在验证集上表现良好,就可以将其部署到实际应用中,进行图片分类任务。
参考答案:1、准备用于训练的数据集,可以在Open Images等数据集中下载。2、使用同样的参数(与预训练模型同样的平均值和标准差)对输入的图像进行归一化。3、通过PyTorch获取预训练模型的架构与预训练模型训练后的权重。4、丢弃预训练模型的最后几层,接入我们针对特定数据集微调的最后几层。5、将截断的预训练模型连接到一个新初始化的层,其中权重是随机初始化的。确保最后一层的输出与我们想要预测的类别/输出有一样多的神经元。6、确保预训练模型的权重不可训练(冻结预训练模型的权重),只训练我们接入的层的权重。7、训练模型,更新我们新接入层的权重。
得分:5.0
你的考试成绩:88.5
| 项目 | 满分 | 得分 |
|---|---|---|
| 作业1:遍历数组 | 20 | 20 |
| 作业2:图像边缘检测与锐化 | 20 | 14 |
| 作业3:图像分类 | 20 | 14 |
| 作业4:目标检测 | 20 | 20 |
| 考勤与课堂表现 | 20 | 14 |
| 平时成绩(小计) | 100 | 82 |
| 卷面成绩 | 100 | 88.5 |
| 综合成绩 | 85.25 |
作业与考勤每项20分,平时成绩与卷面成绩各占总成绩的50%。
如果对成绩有疑问,请及时与老师联系。