ML
- 介绍一下调参的经验
- Softmax的公式和伪代码
- 分类常见的指标有什么,如何理解AUC?
- 介绍决策树、RF、XGBoost、GBDT和 LightGBM
- XGboost的loss函数的推导(mse以及非mse形式),以及求解推导。
- 使用O(N)复杂度完成GBDT分裂
- 介绍 F1-score,AUC,交叉熵,ROC
- 介绍 Adboost,GBDT,XGBoost
- 介绍不同的聚类算法:K-Means、GMM、DBSCAN等
- CCA和PCA的区别
- 牛顿法能用于非凸函数吗?
- XGBoost里处理缺失值的方法
- 样本不平衡对 SVM 的影响
- KNN和Kmeans的算法中K的含义,K对算法的影响,怎么选择K
- LR的全过程,从train到inference,损失函数
- 介绍常见的集成方法
- LR + softmax做多分类和LR + multiLoss 做多分类区别在哪里
- LR为什么用交叉熵作为loss函数
- Kmeans的缺点?如何改善?
- 讲一下K-means算法的过程以及原理
- 为什么Bagging降方差,Boosting降偏差?
- 介绍XGBoost对GBDT的提升,LightGBM对XGBoost的提升
- 为什么要对连续型数值进行离散化,这样做有什么优势
- LR 为什么用sigmoid函数?
- 怎么解决样本不均衡(重点考核损失函数优化)
- HMM 和 CRF的区别
- XGBoost 如何处理缺失数据?
- 写一下 LR 和 SVM 的损失函数
- 正负样本不均衡时的解决方案
- 知道哪些降维的方法,具体讲讲
- 线性模型和非线性模型都有哪些?
- 手写AUC的计算(小矩形积分得到总面积即可)
- 决策树分支的原理
- offerpolicy 和 onpolicy 的区别
- 为什么随机森林的树比 GBDT 的深一点?
- 逻辑回归的目标函数(损失函数)是凸函数吗?
- 完全二叉树的概念
- 朴素贝叶斯与贝叶斯有什么区别?
- SVM 为什么变成对偶问题来求解?
- 缺失值如何处理,什么情况下均值、众数,什么情况下丢弃特征。
- 诸如ID类的特征如何处理,编码方式one-hot还是其他的,高维时?什么样才算高维,有没有界定?
- 聚类的算法有哪些?评价方法?优化算法?
- 解释几何间隔和函数间隔
- 描述决策树,如何选特征,怎么划分,怎么剪枝,介绍信息增益
- K-Means 聚类这种方法一定会收敛嘛?如果不收敛,怎么办?
- SVM 的目标函数,为什么能用拉格朗日乘子法讲原始最优化问题转化为极大极小问题,数学原理是什么
- 介绍SVM,其中的软间隔是什么意思?
- 使用线性回归的时候什么时候会需要用L2?
- 如果F1已经趋于平稳,如何在保持F1稳定的前提下提高precision,降低recall;
- LR 为什么不用 MSE,SVM 为什么用hinge不用logloss
- XGBoost 怎么解决过拟合?怎么剪枝?怎么选择特征?怎么处理缺失值?
- XGBoost 的默认深度
- 各种决策树模型的优劣(从最简单的ID3到最后的LGB)
- SVM 核函数哪些是高维空间维度已知,哪些是未知的?
- LR介绍、LR对特征需要做什么特殊处理吗?类别特征、连续特征
- 损失函数正则项的本质是什么?
- SVM 有哪些核函数?
- L1 正则化为什么能使特征稀疏?
- Stacking原理,还有怎么调优?
- XGBoost怎么调参?用了多少棵树?
- 各种决策树模型的优劣(从最简单的ID3到最后的LGB)
- ID3 C4.5 CART的区别
- 手推 SVM, GBDT, XGBoost
- CRF 怎么训练的(传统+深度学习)
- 得到AUC的两种计算方法
- 树的分裂方式(id3,gini,gdbt,xgboost)
- 监督学习的概念?什么是随机森林,随机森林的优点?
- LR和SVM区别(计算复杂度)
- Adam优化器的迭代公式
- SGD每步做什么,为什么能online learning
- L1 L2正则化区别
- PCA原理和执行步骤
- 特征工程知道吗?举几个特征归一化的例子
- SVM为什么可以处理非线性问题
- L1正则化的先验分布?
- L1的不知道,L2的先验分布知道吧?
- 多标签分类问题怎么解决,从损失函数角度考虑
NN
- 激活函数除了Sigmoid tanh ReLU 还有什么介绍一下
- BFE 和 Dropout的关系
- Dropout是失活神经元还是失活连接
- 手推梯度反向传播
- 分类网络样本不均衡怎么办?
- dropout层作用,如何实现有什么作用?
- Dropout 前向和反向的处理
- 神经网络如果没有激活函数还能解决线性不可分问题吗?
- Tensorflow的动态图和静态图有什么区别
- 分别介绍GN,BN,LN,IN
- 为什么BN有泛化能力的改善. 什么场景用什么normalization方法,效果如何.
- Dropout为什么能防止过拟合?具体实现
- dropout在训练和测试时不同,怎么保证测试结果稳定
- 如何计算神经网络的 FLOPS?
- 梯度下降陷入局部最优有什么解决办法
图像处理
- 手写灰度直方图代码
- 介绍一下开运算和闭运算
- 介绍双目相机识别目标深度的原理
- 单目视觉如何测量深度?
- 介绍常见的边缘检测算法
- SIFT 特征是如何保持旋转不变性的?
- 如何快速判断图中有环?
- 介绍常见的边缘检测算子
- Hough 变换原理(直线和圆检测)
- 为什么 Sobel 算子中间是2,两边是1
- 算法题:实现 OpenCV中的图像缩放,包括实现双线性插值
- 输入图像灰度值对模型的影响,为什么要把0-255转化成0-1?
- 介绍 RANSAC
- 介绍一阶二阶边缘检测算子一阶二阶边缘检测算子
- OpenCV里面findcontour函数的原理是什么?
- 相机里面的标定参数有哪些?是怎么计算这些参数的?
- 如何求边缘,45°边缘,高斯滤波和双边滤波
- 代码题:手撕实现图像的resize和rotate90度
- 手写中值滤波
- 介绍一下高斯滤波,均值滤波,中值滤波
- SIFT特征提取怎么做的,具备什么性质,为什么
- 讲一下CTC的原理
- 夜间拍照的多图对齐和融合
CV
- 介绍你读到的19年 Anchor-free 目标检测论文
- 简单介绍Fast RCNN -> Faster RCNN -> mask RCNN (这个真的好高频)
- 256×256×3 -> 128×128×64的卷积,stride,padding和待优化的参数有多少
- 手撕 SoftNMS代码
- CNN反向传播公式推导;参数共享指的是?
- 介绍熟悉的NAS网络
- 介绍目标检测中的多尺度训练/测试?
- 为什么 DenseNet 比 ResNet 更耗显存?
- 为什么深度学习中的图像分割要先编码再解码?
- 1×1 卷积有什么作用?
- 如何计算语义分割的 mIoU(写伪代码)
- 原始图片中的 RoI 如何映射到 feature map ?
- PyTorch 不用库函数如何实现多机多卡
- 哪些情况用 MaxPool比AveragePool效果好?原因
- 介绍Anchor based 和Anchor free目标检测网络的优缺点
- YOLOv3在小缺陷检测上也很好,RPN上和two-stage的有什么区别
- MobileNetV2 module的参数量和FLOPs计算
- CNN 的感受野受什么影响
- CNN 如何保持平移方向不变性
- 如果分类的数据图像每一类只有几张,你会用什么方法?
- RPN怎么计算 box 的实际坐标
- 介绍常见的 Anchor free 目标检测算法
- 算法题:编程实现目标检测中的 IoU 计算
- 公式及讲解soft attention,hard attention,multi head attention
- 卷积操作是线性的吗?CNN是线性的吗?为什么?(激活函数)常用的激活函数?
- 3×3 卷积核 与 5×5 卷积核相比的优点
- InceptionV1~V4系列介绍,以及每一版的改进,优缺点介绍
- CNN Maxpooling 怎么反向传播?
- 写出 YOLOv3 的损失函数
- YOLOV1~V3系列介绍,以及每一版的改进,优缺点介绍
- 介绍金字塔池化,ASPP,深度可分,带孔卷积
- VGG网络什么特点,用到了哪几种卷积核?
- 介绍 anchor-based和anchor-free两者的优缺点
- PyTorch 多gpu训练机制的原理,优化器以及网络参数保存机制
- 讲下faster-rcnn?Faster-rcnn里面的NMS的算法原理是什么?
- Mask R-CNN 如何提高mask的分辨率?
- 普通卷积、DW+PW卷积计算量推导
- MobileNet V2中的Residual结构最先是哪个网络提出来的
- CornerNet介绍,CornerPooling是怎么做的,怎么解决cornernet检测物体合并为一个框的问题
- GoogLeNet中为什么采用小的卷积核?
- 说一下UNet的结构
- 熟悉deeplab吗,aspp是怎样的,与其他的state-of-art的模型对比,deeplab还可以做哪些改进?
- retinanet的focal loss是解决的什么问题
- 介绍deeplabv3,画出backbone(串联和并联),论文中认为这两种哪种方式更好?如何避免friding efect、deeplabv3的损失函数