美文网首页
书籍和论文中涉及疑惑

书籍和论文中涉及疑惑

作者: pure_joy | 来源:发表于2023-09-13 11:00 被阅读0次
    多光谱图像和高光谱图像的区别?
    • 多光谱:3-10宽波段;高光谱:数百条窄带。
    • 多光谱图像可用于地表特征和景观模式,而高光谱图像可用于识别和表征材料。
    相位:描述信号波形变化的度量,通常以度为单位,也称作相角。
    主成分分析:用于减少数据集的维数,保留数据集当中对方差贡献最大的特征。
    debug和release的区别?
    • debug是调试版本,不作任何优化。
    • release是发布版本,进行了各种优化。
    孪生结构:这两个网络的结构一般是相同的,并且参数是共享的,即参数是一致的。
    感知机:有监督学习算法,二分类的线性模型;输入的是实例的特征向量,输出的是事例的类别。
    多尺度可以理解为与某固定事物之间的距离不同时人所感知的特征不同,即某物体在视场中成像大小不同时,其表现出的特征也不同。
    空间注意力与通道注意力的区别?
    • 空间注意力机制代表模型STN,对各种形变数据在空间中进行转换并自动捕获重要区域特征。能够保证图像在经过裁剪、平移或者旋转等操作后,依然可以获得和操作前的原始图像相同的结果。
    • 通道注意力机制代表模型是SENet。SENet分为压缩和激励两个部分,其中压缩部分的目的是对全局空间信息进行压缩,然后在通道维度进行特征学习,形成各个通道的重要性,最后通过激励部分对各个通道进行分配不同的权重。
    空洞卷积也叫扩张卷积或者膨胀卷积,就是在卷积核元素之间加入一些空格(零)来扩大卷积核的过程。
    ASPP(Atrous Spatial Pyamid Pooling),空洞空间卷积池化金字塔。目的与普通的池化层一致,尽可能地去提取特征。
    精准率和召回率?
    • 精准率:正确预测为正占全部预测为正的比例。
    • 召回率:正确预测为正占全部正样本的比例。
    PPM(Pyramid pooling module):特殊的池化模型,可以有效增大感受野,增大全局信息的利用率。
    图像差分:就是把两幅图像的对应像素值相减,以削减相似部分,突出显示图像变化的部分。
    编码是将图像数据写入文件,解码是从图像文件中读出图像数据。
    类别不平衡:分类任务中不同类别的训练样本数目差别很大的情况。
    虚警率:负样本被预测为正样本占总的负样本的比例。
    SVM(支持向量机):处理二分类问题。
    能量函数是描述整个系统状态的一种度量。系统越有序或概率分布越集中,系统能量越小。反之,系统越无序或趋于均匀分布,则系统能量越大。能量函数的最小值,就是系统最稳定的状态。
    随机森林是一组决策树,用于分类和回归的一种主流集成学习方法。
    欧式距离衡量的是多维空间中两个点之间的绝对距离。
    Tensor(张量):一个多维数组,能够创造更高维度的矩阵、向量。
    极化雷达属于激光雷达。
    UVA:紫外线中的一种。
    一维、二维、三维卷积块:
    • 一维卷积常用在序列模型、自然语言处理领域。
    • 二维卷积常用在计算机视觉、图像处理领域。
    • 三维卷积:在神经网络的输入中增加时间这个维度(连续帧),神经网络就可以同时提取时间和空间特征,进行行为识别、视频处理。
    矩阵维数:
    • 数学上,其行向量或列向量生成的向量空间的维数。
    • 编程中,指它的行数与列数,关注的是矩阵的大小。
    泛化能力是指机器学习算法对新鲜样本的适应能力。
    异质性:研究的样本的重要属性上存在差异。
    细粒度识别:研究图像中的物体是什么种类。
    马尔科夫随机场:用于解决离散的优化问题。
    SAR图像中的斑点噪声是由于雷达目标回波信号的衰落现象所引起的。
    ZY-3:国产资源3号,获取三线阵立体影像和多光谱影像。
    scharr算子是sobel算子的优化,scharr算子在处理边缘时比sobel精度高一些。
    1*1卷积核:降维,减少参数。
    跳跃连接的作用:解决梯度消失和退化问题。
    注意力机制的作用:定位到感兴趣的信息,抑制无用信息。结果以概率图或者概率特征向量的形式表示。
    自注意力:通过计算单词间的互相影响,来解决长距离依赖问题。
    VGG16:13层卷积层和5层池化层负责特征提取,最后的3层全连接层负责完成分类任务。
    自注意力机制:注意力机制的变体,减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。
    ResNet:网络深度问题,引入残差块来解决梯度消失问题。
    mIOU:基于类进行计算,将每一类的IOU计算之后累加,再进行平均。得到的就是基于全局的评价。
    evaluation模式:评估模式,非训练模式。
    buffer:反向传播不需要被optimizer更新。
    half:半精度模式,减少计算量和资源。
    KL散度:衡量两个分布之间的差异。
    正则项:减轻模型过拟合的程度。
    多头注意力机制:注意力机制的简单堆叠。不同的头提取到不同的特征
    FLOPS:计算速度,衡量硬件性能的指标。
    FLOPs:计算量,衡量算法/模型的复杂度。
    SE模块:对输入特征图进行通道特征加强,且不改变输入特征图的大小。通道注意力,对输入特征图进行通道特征加强。
    MACS:衡量计算机定点处理能力的量。
    编码器:通过卷积和下采样提取图像特征;解码器:卷积和上采样将特征进行解码还原为需要的信息。skip-connection:补充信息来提升分割性能。
    变化检测:检测出输入的配准好的同源图像对的像素点。
    MLP:多层感知机。
    转置卷积:反卷积。在深度学习中表示为卷积的一个逆向过程,可以根据卷积核大小和输出的大小,恢复卷积前的图像尺寸,而不是恢复原始值。
    特征提取的作用:减少数据维度,整理已有的数据特征。特征就是数字,数值越大,特征越强烈。
    Attention机制:便于聚焦于局部信息的机制。定位到感兴趣的信息,抑制无用信息。结果通常都是以概率图或者概率特征向量的形似展示。
    空间注意力:空间域将原始图片中的空间信息变换到另一个空间中并保留了关键信息。
    通道注意力:在于建模于各个特征之间的重要性,对于不同的任务可以根据输入进行特征分配。

    相关文章

      网友评论

          本文标题:书籍和论文中涉及疑惑

          本文链接:https://www.haomeiwen.com/subject/sdyskdtx.html