章节 | 题目 |
---|---|
人工智能面试总结-Python | 说说什么是解释性语言,什么是编译性语言? 说说Python程序运行过程? 说说Python的作用域? 说说Python的数据结构? 说说Python中可变与不可变类型? 说说进程与线程? 说说Python中的多线程? 说说Python中的多进程? 说说Python互斥锁与死锁? 说说Lambda? 说说Python的深拷贝与浅拷贝? 说说Python多线程是否能用多个CPU,为什么? 说说Python垃圾回收机制? 说说Python里的生成器? 说说迭代器与生成器的区别? 说说Python 列表的 del,remove和 pop 等用法和区别? 说说什么是闭包? 说说Python装饰器?(这个解释的很详细!) 说说Python中yeild和return的区别? 说说Python中set的底层实现? 说说Python中字典与set区别? 说说Python中__init__和__new__和__call__的区别? 说说Python内存管理? 说说Python中类方法和静态方法的区别? 说说点积和矩阵相乘的区别? 说说Python中错误和异常处理? 说说Python中try else 与finally区别? 说说什么是猴子补丁? 说说Python 中的is和==区别? 说说gbk和utf8的区别? 说说遍历字典的方法? 说说反转列表的方法? 说说元组转为字典的方法? 说说__init__.py 文件的作用以及意义? 说说函数调用参数的传递方式是值传递还是引用传递? 说说对缺省参数的理解? 说说你知道的列表去重的所有方式? 说说Python常见的列表推导式? 说说map与reduce函数? 说说hasattr() getattr() setattr() 函数使用详解? 说说except 的作用和用法? 在 except 中 return 后还会不会执行 finally 中的代码?怎么抛出自定义异常? 说说什么是断言? 说说如何理解Python中字符串中的\字符? 说说Python是如何进行类型转换的? 说说提高Python运行效率的方法? 说说Python中any()和all()方法? 说说Python中什么元素为假? |
人工智能面试总结-基础理论 | 说说你项目中怎么选择开发平台的? 说说你怎么进行超参数调优的? 说说为什么需要Batch Size? 说说归一化的目的? 说说局部最优与全局最优? 说说监督学习与非监督学习的区别? 说说监督学习有哪些步骤? 说说为什么神经网络越来越深? 说说神经网络变深的意义? 说说为什么深度神经网络较浅层网络难以训练? 说说超参数搜索过程? 说说什么是模型微调Fine tuning? 说说Fine tuning时是否会更新网络参数,为什么? 说说Fine tuning模型有哪些方法? 说说误差、噪声、偏差、方差的区别与联系? 说说熵是什么? 说说梯度消失、爆炸的解决方案? 说说深度学习为什么不用二阶优化? 说说什么是TOP5错误率? |
人工智能面试总结-分类与聚类 | 说说常用的分类算法,以及各自的优缺点? 说说为什么正确率有时不能有效评估分类算法? 说说什么样的分类器最好? 说说聚类算法有哪些衡量标准? (选看)各聚类算法性能比较汇总 说说什么是聚类,你知道哪些聚类算法? 具体展开介绍你知道的聚类算法? 说说K-Means聚类算法流程? 说说K-Means聚类算法如何调优? 说说K-Means聚类算法如何选择初始点? 说说K-Means聚类聚的是特征还是样本? 说说K-Means聚类的特征距离是如何计算的? 说说聚类与分类的区别? 手撕K-Means聚类 |
人工智能面试总结-降维 | 说说怎样避免维数灾难? 说说降维的必要性? 说说降维有什么意义? 说说PCA主成分分析? 说说PCA核心思想? 说说如何得到包含最大差异性的主成分方向? 说说特征值分解矩阵? 说说SVD分解矩阵? 说说PCA算法流程总结? 图解PCA核心思想 说说PCA降维之后的维度怎么确定? 说说PCA有什么优缺点? 推导PCA 说说线性判别分析LDA? 说说线性判别分析LDA核心思想? 图解LDA核心思想? 说说LDA算法流程? 说说LDA的优缺点? 说说PCA和LDA的区别? |
人工智能面试总结-支持向量机SVM | 介绍下SVM? 推导下SVM? 说说SVM能解决哪些问题? 说说SVM核函数特点与作用? 说说SVM有什么主要特点? 说说SVM优缺点? 说说SVM为什么引入对偶问题? 说说SVM中你知道的核函数有以及表达式? 说说如何理解SVM中的对偶问题? 说说逻辑回归与SVM有什么区别? 说说如果特征比较多,用LR还是SVM? 说说SVM是否可以用随机梯度下降? 说说为什么SVM对缺失数据敏感? 说说SVM怎么防止过拟合? |
人工智能面试总结-贝叶斯 | 说说先验概率与后验概率? 说说极大似然估计的原理? 图解极大似然估计 说说朴素贝叶斯? 说说朴素贝叶斯有什么优缺点? 说说贝叶斯公式? 说说贝叶斯公式的基本原理? 说说朴素贝叶斯分类器? 说说怎么理解朴素贝叶斯的“朴素”? 说说什么是拉普拉斯平滑法? 说说朴素贝叶斯中有没有超参数可以调? 说说朴素贝叶斯中有什么具体应用? 说说朴素贝叶斯是否对异常值敏感? 了解半朴素贝叶斯分类器吗? 举例理解朴素贝叶斯分类器(最浅显易懂的经典案例) |
人工智能面试总结-决策树 | 说说决策树? 说说决策树原理? 说说决策树的划分标准? 说说信息增益? 说说树模型怎么判断叶子节点是否要分裂? 说说ID3和C4.5的区别? 说说决策树有哪些要素? 说说决策树中剪枝的作用? 说说剪枝有哪些策略? 说说剪枝中的预剪枝与后剪枝? 说说预剪枝与后剪枝优缺点? 说说树模型怎么处理离散特征? 说说决策树需要进行归一化吗? 说说决策树优缺点? 说说决策树过拟合原因与解决办法? 说说决策树与逻辑回归的区别? 说说决策树中的损失函数? 说说决策树算法流程? |
人工智能面试总结-KNN | 说说KNN是什么? 说说KNN有哪些要素? 说说KNN的K值怎么选? 说说KNN数据是否需要归一化? 说说欧式距离与曼哈顿距离,KNN用什么? 说说K值设置过大有什么影响? 说说KNN的优缺点? |
人工智能面试总结-Boosting&Bagging | 说说集成学习方法有哪些? 说说Boosting算法? 说说Bagging算法? 介绍下AdaBoost、GBDT、XGboost、LightGBM、RF算法? 说说Adaboost的优缺点? 说说LightGBM与XGBoost的区别? 说说XGBoost、GBDT的区别? 说说XGBoost的block结构? 说说随机森林与GBDT区别? 说说GBDT是否适合于处理大规模的ID特征? 说说GBDT算法步骤? 说说GBDT为什么使用决策树作为基学习器? 说说GBDT的G梯度的向量长度为多少? 说说LightGBM的直方图排序后会比XGBoost的效果差吗? 说说XGBoost正则化项和什么有关? 说说XGBoost缺失值处理方法? 说说为什么XGBoost要二阶展开? 说说XGBoost如果损失函数没有二阶导怎么处理? 说说随机森林是什么随机? 说说Bootstrap? |
人工智能面试总结-回归 | 说说线性回归? 说说独立同分布? 推导线性回归? 说说线性回归优缺点? 说说逻辑回归? 推导逻辑回归? 说说逻辑回归的优缺点? 说说回归与分类的区别? 说说逻辑回归中是否需要特征归一化? 说说如何优化逻辑回归性能? 说说逻辑回归的特征离散化? 说说最小二乘法在什么条件下与极大似然估计等价? 说说逻辑回归可以将参数初始化为0吗? 说说逻辑回归为什么不用平方损失函数? 说说逻辑回归与线性回归关系? |
人工智能面试总结-代价函数与损失函数 | 说说代价函数的作用? 说说代价函数为什么要非负? 说说你知道的代价函数? 说说损失函数是什么? 说说损失函数作用? 说说你知道的损失函数? 说说用于回归的损失函数? 说说用于分类的损失函数? 说说检测与分割中的损失函数? 说说交叉熵函数与最大似然函数的联系和区别? 用公式说明下交叉熵函数与最大似然函数联系? 说说Sigmoid作为激活函数时为什么要用交叉熵损失函数而不用均方误差损失函数? 说说交叉熵损失函数(Cross-entropy)和 均方误差损失函数(MSE)的区别? 推导交叉熵损失函数? 说说交叉熵的思想? 说说交叉熵损失函数为什么有log项? 说说KL散度? 说说深度神经网络(DNN)的损失函数是什么? 手撕IoU? |
人工智能面试总结-激活函数 | 说说激活函数作用? 说说激活函数为什么需要非线性函数? 说说你知道的激活函数以及各自特点、适用场景? 说说ReLU6? 说说ELU指数线性单元特点? 说说Sigmoid的缺点,以及如何解决? 说说ReLU在零点可导吗,如何进行反向传播? Sigmoid求导推导一下? Softmax求导推导一下? 说说Softmax溢出怎么处理? 说说激活函数有哪些性质? 说说如何选择激活函数? 说说ReLU函数的特点? 说说什么时候用线性激活函数? 说说怎么理解ReLU负半区间也是非线性激活函数? 说说Softmax 函数如何应用于多分类? |
人工智能面试总结-优化函数 | 说说优化函数的作用? 说说梯度下降法的作用? 说说梯度下降法算法步骤? 说说你知道的优化函数? 展开说说梯度下降、批次梯度下降、随机梯度下降? 说说Batch的影响? 说说批量梯度下降与随机梯度下降区别? 说说哪些方法对梯度引入动量进行改进? 说说哪些方法对学习率引入动量进行改进? 说说各优化器在优化什么以及大致优化步骤? 说说SGD和Adam的对比? 说说Adam的二阶矩原理? |
人工智能面试总结-正则优化函数 | 说说过拟合与欠拟合? 说说什么是正则化? 说说正则化的作用? 说说有哪些解决过拟合问题的方法? 说说L1(lasso)与L2(ridge)正则的区别? 说说L1与L2为什么对于特征选择有着不同方式? 说说L1正则的缺点? 说说L1为什么可以让模型稀疏? 说说L1与L2符合什么分布? 说说BN(Batch Normolization)? BN训练与测试有什么不同? 说说BN/LN/IN/GN? 说说Dropout改进? 说说BN与Dropout联合使用? 说说方差偏移? 说说Dropout的补偿? 说说BN的γ与β ? 推导BN+卷积的公式? |
人工智能面试总结-初始化与归一化 | 说说什么是网络参数初始化? 说说为什么需要合理的参数初始化? 说说理想的参数初始化应该是什么? 说说你知道的初始化方法? 说说全0初始化? 说说等值初始化? 说说随机初始化? 说说随机初始化缺陷? 说说Xavier初始化? 说说He初始化? 用公式说明梯度消失与梯度爆炸(手推)? 说说为什么要归一化? 说说为什么归一化能提高最优解的求解速度? 说说归一化的类型? 说说局部响应归一化作用? 说说什么是批归一化? 说说批归一化(BN)算法流程? |
人工智能面试总结-卷积 | 说说什么是卷积? 说说图像卷积过程? 说说卷积层基本参数? 说说卷积操作后图像大小计算方式? 说说卷积神经网络中的权重共享? 说说上采样中的反卷积? 说说空洞卷积? 说说空洞卷积输出计算公式? 说说深度可分离卷积? 说说可分离卷积与常规卷积的计算量? 说说为什么可分离卷积中Depthwise卷积后还要进行pointwise卷积? 说说分组卷积? 说说三维卷积? 说说1x1卷积作用? 说说卷积的底层实现/加速技巧? 说说卷积神经网络的特点? 手推卷积实现原理? |
人工智能面试总结-池化 | 说说什么是池化? 说说池化层的作用? 说说平均池化? 说说最大池化? 说说Stochastic pooling(随机池化)? 说说重叠池化? 说说空间金字塔池化? 说说ROI Pooling 说说最大池化与平均池化是如何进行反向传播的? 说说卷积层与池化层的区别? 说说池化操作对输出特征图的计算方式? |
人工智能面试总结-传统图像算法 | 说说相机标定? 说说图像的边缘是什么? 说说边缘检测的任务以及基本原理 说说Canny边缘检测算子? 说说除Canny外还知道什么边缘检测算子? 说说霍夫变换步骤? 说说仿射变换? 说说透视变换? 说说最小二乘法? 说说SIFT算子以及有什么特点? 说说SIFT特征提取与匹配算法步骤? 说说SIFT和SURF区别? 说说图像腐蚀与膨胀? 说说图像开闭运算? 说说了解哪些插值算法? 说说双线性插值操作过程? |
人工智能面试总结-模型评价指标 | 说说分类模型评估有哪些常用方法? 说说回归模型评估有哪些常用方法? 说说混淆矩阵? 说说错误率与精度? 说说查准率、查全率、F1-Score? 说说如何计算TPR与FPR? 说说ROC与AUC? 说说ROC曲线如何画? 说说AUC的定义? 说说如何计算AUC? 说说AUC的两种计算方法? 说说AUC优缺点? 说说为什么ROC曲线对正负样本比例不敏感? 说说PR曲线图? 说说AP与mAP? |
人工智能面试总结-经典分类网络与发展 | 说说经典分类网络有哪些? 说说LeNet-5? 说说AlexNet? 说说Network in Network? 说说VGGNet? 说说GoogLeNet? 说说ResNet? 说说Inception系列? 说说DenseNet? 说说Xception? 简要说说MobileNet系列? 说说ShuffleNet? 说说SENet? |
人工智能面试总结-经典目标检测网络与发展 | 说说目标检测领域几大任务? 说说目标检测算法有哪些分类? 说说Single Shot MultiBox Detector(SSD)? 说说DSSD? 说说You Only Look Once v1(YOLOv1) 说说YOLOv2? 说说YOLOv3? 说说YOLOv4? 说说R-CNN? 说说Fast R-CNN? 说说Faster R-CNN? 说说Faster R-CNN 训练和测试的流程有什么不一样? 说说Fast R-CNN中的RoI Pooling? 说说非极大值抑制流程? 手推NMS? 说说Anchor锚框? 说说Anchor based优缺点? 说说Anchor free优缺点? 说说什么是类别不均衡,会带来什么问题? 说说为什么二阶段网络不会出现类别不均衡问题? 说说Focal Loss?(肥肠重要) |
人工智能面试总结-经典分割网络与发展 | 说说图像分割有哪几类? 说说为什么传统CNN的输入图片是固定大小? 说说FCN? 说说SegNet? 说说使用池化层进行上采样的优势? 说说U-Net? 说说PSPNet? 说说DeepLab v1? 说说DeepLab v2? 说说DeepLab v3? 说说Mask R-CNN? 说说RoIAlign? |
人工智能面试总结-Transformer专题 | 说说什么是Transformer? 说说Transformer中的Encoder? 说说Transformer中的Decoder? 说说Transformer在训练与测试阶段Decoder的输入、输出是什么? 说说Transformer Encoder和Decoder有哪些不同? 说说什么是Transformer中的Embedding? 说说Positional Embedding? 说说说说什么是Transformer中的Attention? 说说Transformer Attention中的Q、K、V? 说说什么是Transformer中 Attention的实现步骤? 说说什么是Transformer中的Multi head attention? 说说什么是Transformer中的Mask Multi head attention? 说说什么是Transformer中的Feed Forward Networks? |
人工智能面试总结-特征工程 | 说说你知道的特征工程? 说说遇到缺值的情况如何处理? 说说机器学习中解决样本不均衡问题的方法? 说说深度学习中解决样本不均衡问题的方法? 说说如何解决训练样本少的问题? 说说常见的特征筛选方法? 说说特征选择的目的? 说说训练时出现Nan的原因? 说说怎么找出相似性高的特征并去掉? |
人工智能面试总结-模型优化 | 说说你知道的模型压缩方法? 说说模型压缩的作用与意义? 说说低秩近似? 说说剪枝与稀疏约束? 说说参数量化方法? 说说二值网络? 说说知识蒸馏? 说说降低网络复杂度但不影响精度的方法? 说说模型优化加速方法? 说说TensorRT加速原理? |