2021 年 6 月底,明略科技算法岗 7 道面试题分享

star2017 1年前 ⋅ 2611 阅读

文末彩蛋:七月在线干货组最新升级的《2021 大厂最新 AI 面试题 [含答案和解析, 更新到前 121 题]》免费送!

问题 1:熵,交叉熵的概念

判断一个数是否是 7 的倍数可以直接用取余的方法,判断一个数中是否含有数字 7,这里提供两种方法:一种是将数字转换成字符串,用 in 进行判断;另一种是将数字转换成字符串,用 find 方法,如果不包含会返回 -1。

在信息论和概率统计中,嫡是表示随机变量不确定的度量,随机边量 ×的嫡定义如下:
在这里插入图片描述
嫡只依赖于 X 的分布,与 X 的取值无关。

条件嫡 H(YIX)表示在已知随机变量 ×的条件下随机变量 Y 的不确定性,H(Y|IX)定义为在给定条件 X 下,Y 的条件概率分布的嫡对 X 的数学期望:
在这里插入图片描述

问题 2:逻辑回归损失函数,并推导梯度下降公式

逻辑回归损失函数及梯度推导公式如下:
在这里插入图片描述
求导:
在这里插入图片描述

问题 3:归一化和标准化区别

归一化公式:
在这里插入图片描述
标准化公式:
在这里插入图片描述
归一化和标准化的区别:归一化是将样本的特征值转换到同一量纲下把数据映射到[0,1]或者[-1,1]区间内,仅由变量的极值决定,因区间放缩法是归一化的一种。标准化是依照特征矩阵的列处理数据,其通过求 z-score 的方法,转换为标准正态分布,和整体样本分布相关,每个样本点都能对标准化产生影响。它们的相同点在于都能取消由于量纲不同引起的误差﹔都是一种线性变换,都是对向量 X 按照比例压缩再进行平移。

问题 4:knn 算法的思想

在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前 K 个数据,则该测试数据对应的类别就是 K 个数据中出现次数最多的那个分类,其算法的描述为:

  1. 计算测试数据与各个训练数据之间的距离;
  2. 按照距离的递增关系进行排序;
  3. 选取距离最小的 K 个点;
  4. 确定前 K 个点所在类别的出现频率;
  5. 返回前 K 个点中出现频率最高的类别作为测试数据的预测分类。

问题 5:knn 的 k 设置的过大会有什么问题

KNN 中的 K 值选取对 K 近邻算法的结果会产生重大影响。如果选择较小的 K 值,就相当于用较小的领域中的训练实例进行预测,“学习”近似误差(近似误差:可以理解为对现有训练集的训练误差)会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学习”的估计误差会增大,换句话说,K 值的减小就意味着整体模型变得复杂,容易发生过拟合;



如果选择较大的 K 值,就相当于用较大领域中的训练实例进行预测,其优点是可以减少学习的估计误差,但缺点是学习的近似误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误,且 K 值的增大就意味着整体的模型变得简单。

在实际应用中,K 值一般取一个比较小的数值,例如采用交叉验证法来选择最优的 K 值。经验规则:k 一般低于训练样本数的平方根。

问题 6:gbdt 和 bagging 的区别,样本权重为什么会改变?

gbdt 是基于 Boosting 的算法。Bagging 和 Boosting 的区别:

  1. 样本选择上:Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。
  2. 样例权重:Bagging:使用均匀取样,每个样例的权重相等 Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。
  3. 预测函数:Bagging:所有预测函数的权重相等。Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。
  4. 并行计算:Bagging:各个预测函数可以并行生成 Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。Boosting 中样本权重发生改变的原因:通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样例的权值,来使得分类器对误分的数据有较好的效果。

问题 7:梯度下降的思想

梯度下降是一种非常通用的优化算法,能够为大范围的问题找到最优解。梯度下降的中心思想就是迭代地调整参数从而使损失函数最小化。

假设你迷失在山上的迷雾中,你能感觉到的只有你脚下路面的坡度。快速到达山脚的一个策略就是沿着最陡的方向下坡,这就是梯度下降的做法。即通过测量参数向量日相关的损失函数的局部梯度,并不断沿着降低梯度的方向调整,直到梯度降为 0,达到最小值。

梯度下降公式如下︰
在这里插入图片描述
对应到每个权重公式为:
在这里插入图片描述

评论区回复 “121”,七月在线干货组最新升级的《2021 大厂最新 AI 面试题 [含答案和解析, 更新到前 121 题]》,免费送!

持续无限期更新大厂最新面试题,AI 干货资料,目前干货组汇总了今年 3 月-6 月份,各大厂面试题。
在这里插入图片描述


本文地址:https://www.6aiq.com/article/1628014065354
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出

更多内容请访问:IT源点

相关文章推荐

全部评论: 0

    我有话说: