计算机视觉算法岗面试归纳(持续解答ing)

ML

  • 介绍一下调参的经验
  • Softmax的公式和伪代码
  • 分类常见的指标有什么,如何理解AUC?
  • 介绍决策树、RF、XGBoost、GBDT和 LightGBM
  • XGboost的loss函数的推导(mse以及非mse形式),以及求解推导。
  • 使用O(N)复杂度完成GBDT分裂
  • 介绍 F1-score,AUC,交叉熵,ROC
  • 介绍 Adboost,GBDT,XGBoost
  • 介绍不同的聚类算法:K-Means、GMM、DBSCAN等
  • CCA和PCA的区别
  • 牛顿法能用于非凸函数吗?
  • XGBoost里处理缺失值的方法
  • 样本不平衡对 SVM 的影响
  • KNN和Kmeans的算法中K的含义,K对算法的影响,怎么选择K
  • LR的全过程,从train到inference,损失函数
  • 介绍常见的集成方法
  • LR + softmax做多分类和LR + multiLoss 做多分类区别在哪里
  • LR为什么用交叉熵作为loss函数
  • Kmeans的缺点?如何改善?
  • 讲一下K-means算法的过程以及原理
  • 为什么Bagging降方差,Boosting降偏差?
  • 介绍XGBoost对GBDT的提升,LightGBM对XGBoost的提升
  • 为什么要对连续型数值进行离散化,这样做有什么优势
  • LR 为什么用sigmoid函数?
  • 怎么解决样本不均衡(重点考核损失函数优化)
  • HMM 和 CRF的区别
  • XGBoost 如何处理缺失数据?
  • 写一下 LR 和 SVM 的损失函数
  • 正负样本不均衡时的解决方案
  • 知道哪些降维的方法,具体讲讲
  • 线性模型和非线性模型都有哪些?
  • 手写AUC的计算(小矩形积分得到总面积即可)
  • 决策树分支的原理
  • offerpolicy 和 onpolicy 的区别
  • 为什么随机森林的树比 GBDT 的深一点?
  • 逻辑回归的目标函数(损失函数)是凸函数吗?
  • 完全二叉树的概念
  • 朴素贝叶斯与贝叶斯有什么区别?
  • SVM 为什么变成对偶问题来求解?
  • 缺失值如何处理,什么情况下均值、众数,什么情况下丢弃特征。
  • 诸如ID类的特征如何处理,编码方式one-hot还是其他的,高维时?什么样才算高维,有没有界定?
  • 聚类的算法有哪些?评价方法?优化算法?
  • 解释几何间隔和函数间隔
  • 描述决策树,如何选特征,怎么划分,怎么剪枝,介绍信息增益
  • K-Means 聚类这种方法一定会收敛嘛?如果不收敛,怎么办?
  • SVM 的目标函数,为什么能用拉格朗日乘子法讲原始最优化问题转化为极大极小问题,数学原理是什么
  • 介绍SVM,其中的软间隔是什么意思?
  • 使用线性回归的时候什么时候会需要用L2?
  • 如果F1已经趋于平稳,如何在保持F1稳定的前提下提高precision,降低recall;
  • LR 为什么不用 MSE,SVM 为什么用hinge不用logloss
  • XGBoost 怎么解决过拟合?怎么剪枝?怎么选择特征?怎么处理缺失值?
  • XGBoost 的默认深度
  • 各种决策树模型的优劣(从最简单的ID3到最后的LGB)
  • SVM 核函数哪些是高维空间维度已知,哪些是未知的?
  • LR介绍、LR对特征需要做什么特殊处理吗?类别特征、连续特征
  • 损失函数正则项的本质是什么?
  • SVM 有哪些核函数?
  • L1 正则化为什么能使特征稀疏?
  • Stacking原理,还有怎么调优?
  • XGBoost怎么调参?用了多少棵树?
  • 各种决策树模型的优劣(从最简单的ID3到最后的LGB)
  • ID3 C4.5 CART的区别
  • 手推 SVM, GBDT, XGBoost
  • CRF 怎么训练的(传统+深度学习)
  • 得到AUC的两种计算方法
  • 树的分裂方式(id3,gini,gdbt,xgboost)
  • 监督学习的概念?什么是随机森林,随机森林的优点?
  • LR和SVM区别(计算复杂度)
  • Adam优化器的迭代公式
  • SGD每步做什么,为什么能online learning
  • L1 L2正则化区别
  • PCA原理和执行步骤
  • 特征工程知道吗?举几个特征归一化的例子
  • SVM为什么可以处理非线性问题
  • L1正则化的先验分布?
  • L1的不知道,L2的先验分布知道吧?
  • 多标签分类问题怎么解决,从损失函数角度考虑

NN

  • 激活函数除了Sigmoid tanh ReLU 还有什么介绍一下
  • BFE 和 Dropout的关系
  • Dropout是失活神经元还是失活连接
  • 手推梯度反向传播
  • 分类网络样本不均衡怎么办?
  • dropout层作用,如何实现有什么作用?
  • Dropout 前向和反向的处理
  • 神经网络如果没有激活函数还能解决线性不可分问题吗?
  • Tensorflow的动态图和静态图有什么区别
  • 分别介绍GN,BN,LN,IN
  • 为什么BN有泛化能力的改善. 什么场景用什么normalization方法,效果如何.
  • Dropout为什么能防止过拟合?具体实现
  • dropout在训练和测试时不同,怎么保证测试结果稳定
  • 如何计算神经网络的 FLOPS?
  • 梯度下降陷入局部最优有什么解决办法

图像处理

  • 手写灰度直方图代码
  • 介绍一下开运算和闭运算
  • 介绍双目相机识别目标深度的原理
  • 单目视觉如何测量深度?
  • 介绍常见的边缘检测算法
  • SIFT 特征是如何保持旋转不变性的?
  • 如何快速判断图中有环?
  • 介绍常见的边缘检测算子
  • Hough 变换原理(直线和圆检测)
  • 为什么 Sobel 算子中间是2,两边是1
  • 算法题:实现 OpenCV中的图像缩放,包括实现双线性插值
  • 输入图像灰度值对模型的影响,为什么要把0-255转化成0-1?
  • 介绍 RANSAC
  • 介绍一阶二阶边缘检测算子一阶二阶边缘检测算子
  • OpenCV里面findcontour函数的原理是什么?
  • 相机里面的标定参数有哪些?是怎么计算这些参数的?
  • 如何求边缘,45°边缘,高斯滤波和双边滤波
  • 代码题:手撕实现图像的resize和rotate90度
  • 手写中值滤波
  • 介绍一下高斯滤波,均值滤波,中值滤波
  • SIFT特征提取怎么做的,具备什么性质,为什么
  • 讲一下CTC的原理
  • 夜间拍照的多图对齐和融合

CV

  • 介绍你读到的19年 Anchor-free 目标检测论文
  • 简单介绍Fast RCNN -> Faster RCNN -> mask RCNN (这个真的好高频)
  • 256×256×3 -> 128×128×64的卷积,stride,padding和待优化的参数有多少
  • 手撕 SoftNMS代码
  • CNN反向传播公式推导;参数共享指的是?
  • 介绍熟悉的NAS网络
  • 介绍目标检测中的多尺度训练/测试?
  • 为什么 DenseNet 比 ResNet 更耗显存?
  • 为什么深度学习中的图像分割要先编码再解码?
  • 1×1 卷积有什么作用?
  • 如何计算语义分割的 mIoU(写伪代码)
  • 原始图片中的 RoI 如何映射到 feature map ?
  • PyTorch 不用库函数如何实现多机多卡
  • 哪些情况用 MaxPool比AveragePool效果好?原因
  • 介绍Anchor based 和Anchor free目标检测网络的优缺点
  • YOLOv3在小缺陷检测上也很好,RPN上和two-stage的有什么区别
  • MobileNetV2 module的参数量和FLOPs计算
  • CNN 的感受野受什么影响
  • CNN 如何保持平移方向不变性
  • 如果分类的数据图像每一类只有几张,你会用什么方法?
  • RPN怎么计算 box 的实际坐标
  • 介绍常见的 Anchor free 目标检测算法
  • 算法题:编程实现目标检测中的 IoU 计算
  • 公式及讲解soft attention,hard attention,multi head attention
  • 卷积操作是线性的吗?CNN是线性的吗?为什么?(激活函数)常用的激活函数?
  • 3×3 卷积核 与 5×5 卷积核相比的优点
  • InceptionV1~V4系列介绍,以及每一版的改进,优缺点介绍
  • CNN Maxpooling 怎么反向传播?
  • 写出 YOLOv3 的损失函数
  • YOLOV1~V3系列介绍,以及每一版的改进,优缺点介绍
  • 介绍金字塔池化,ASPP,深度可分,带孔卷积
  • VGG网络什么特点,用到了哪几种卷积核?
  • 介绍 anchor-based和anchor-free两者的优缺点
  • PyTorch 多gpu训练机制的原理,优化器以及网络参数保存机制
  • 讲下faster-rcnn?Faster-rcnn里面的NMS的算法原理是什么?
  • Mask R-CNN 如何提高mask的分辨率?
  • 普通卷积、DW+PW卷积计算量推导
  • MobileNet V2中的Residual结构最先是哪个网络提出来的
  • CornerNet介绍,CornerPooling是怎么做的,怎么解决cornernet检测物体合并为一个框的问题
  • GoogLeNet中为什么采用小的卷积核?
  • 说一下UNet的结构
  • 熟悉deeplab吗,aspp是怎样的,与其他的state-of-art的模型对比,deeplab还可以做哪些改进?
  • retinanet的focal loss是解决的什么问题
  • 介绍deeplabv3,画出backbone(串联和并联),论文中认为这两种哪种方式更好?如何避免friding efect、deeplabv3的损失函数
-------------本文结束感谢您的阅读-------------