阿里 新零售(NLP 岗位)
一面
- 自我介绍
- 项目相关内容,xgboost 与 GBDT的区别,为什么选择 xgboost,以及 xgboost 的原理。
- 随机森林特征选取的用的是什么?(信息增益、信息增益比、基尼系数),基尼系数的公式推导,代表的含义。
- 样本不均衡怎么办?
- TextCNN 与 TextRNN 的区别,CNN 的卷积过程(一维与二维的区别)。
- 特征提取器的区别
- Attention 机制、与 Self-Attention 的区别。实现细节,Q,K,V的纬度不一致的时候,怎么处理?
- 特征输入都是 X,怎么去计算 Q,K,V。也就是走一层线性层,得到三个向量。
- 多头注意力机制的输入输出,残差网络层,如果 X 与 Attention 的通道数不一致,也就是问残差网络层,如果纬度不一致,怎么处理?
- 传统机器学习,逻辑回归、SVM
- 了解哪些排序?冒泡和快排的时间复杂度,最坏最优的情况,堆排序的复杂度。
- 算法:取 n 个数里面的前K个最大的值。
二面:(跪)
- 自我介绍
- 样本不均衡问题,样本增强?
- 项目模型上,怎么调优?特征层面,除了做过表征,还提取过如 bert 的隐藏层,去进行训练?
- 项目建模上,创新点是什么?怎么去缓解长文本的方式?
- NLG 自然语言生成的实践?
- GAN 对抗样本攻击?CV 方面有了解过?chatbot 闲聊机器人?
- bert 之间的微调过程?
- back_translation?
- self-attention 复杂度是 N*N,怎么去降低时间复杂度?
灵犀科技 (NLP 岗位)
一面
- 项目内容,为什么选取不同的模型,主要是 TextCNN、TextRNN、BERT 之间的区别。
- Attention 机制。
- 预训练模型怎么解决与当前任务不匹配的问题?微调的过程。
- 标注怎么标,怎么确保质量高一点,然后效率也高一点?
- python 怎么与后台前端连接?
- 算法:反转链表
联想 (NLP 岗位)
一面
- 自我介绍
- 项目内容,CNN模型的介绍,为什么要用残差网络。模型融合怎么做的。
- 样本不均衡问题。
- python 装饰器、生成器、map 函数、列表推导、python 特性
- 数据分析:pandas
- Linux 指令:kill 文件怎么操作,统计文本有多少行
京东(广告算法)(机器学习岗位)
一面
- 自我介绍
- 介绍一下认为比较好的项目
- word2vec 中CBOW和SG的区别,结果上有什么区别,怎么去选择这两种模型?谁快谁慢?那个更准确一点?
- word2vec 的两种优化方法,介绍一下?
- TextCNN 模型,卷积纬度是多少,(为什么卷积核要和词向量的纬度保持一致)
- RNN 中的每个节点不一致的情况,有什么不好?(实现长度可变,参数共享使得模型能够扩展到不同形式的样本(这里指不同长度的样本)并进行泛化。)
- Attention 机制,Q,K,V,手写 Attention 公式。
- 手写反向传播,手写 LR。
- 算法:数组中第 K 大的数。
京东(广告算法)二面
自我介绍
多标签问题如何处理。
word2vec ,两种方式的区别?word2cev 如何构造样本集?优化目标函数(两种优化方案)。
构造训练集,如何确定窗口滑动的大小?
window越大,训练越慢。还有一种说法是window越小,得到的结果越关注语法,window越大,得到的结果越关注语意。xgboost 如何计算特征重要性?特征信息增益是怎么做的?
Xgboost 与GBDT的区别?
SVM 里面的硬间隔与软间隔区别?
LR 如何实现非线性分类?在LR 怎么将低纬向量映射到高纬向量。
(1)利用特殊核函数,对特征进行变换:把低维空间转换到高维空间,而在低维空间不可分的数据,到高维空间中线性可分的几率会高一些。
(2)扩展LR算法,提出FM算法。评价指标的区别,如何去选择评价指标?
面向对象:继承跟多态的区别?
算法题: 2 sum
腾讯(应用研究)(机器学习岗)
一面
- 数据结构,栈和队列可以用什么数据结构实现?
- Linux 命令,查看 CPU 中有多少个核?
- 创建线程用什么命令,线程与进程的区别,进程间通信有哪些方式?
- 介绍下 Kmeans 和 DBSCAN 聚类算法,DBSCAN 最大的问题是什么?
- Xgboost 和 gbdt 的区别,xgboost 基于什么点优化(速度),lightGBM 与xgboost的区别。
- 数据挖掘一般用什么来做?特征重要度的实现方式,怎么通过特征区分正负样本?
- CNN 与 RNN 的实现原理,优化 CNN 和 RNN 耗时操作?
- 算法:两点确定一个矩形框,一共四个点,计算出两者最大的面积?(通用的方式,会有重合的部分)
平安科技 (机器学习岗)
一面
- 项目介绍,需要做PPT。
- 过拟合的解决方案。L1和L2正则化的区别,batchNorm,dropout,模型融合。
- TextCnn 的介绍。
- 算法:2 sum
- git 如何解决冲突。
- 模型优化?调参?
美团外卖 (机器学习岗)
一面
- 项目介绍
- TextCNN 分类通道数,卷积核数量?卷积的作用?
- 有哪些池化的方式,最大池化和平均池化的区别是什么?
- xgboost 模型如何对统计特征进行归一化?xgboost 如何选择分裂点?
- xgboost 与 GBDT 的区别?
- 算法题一:删除链表倒数第 N 个节点
- 算法题二:n 个数,把 n 个数分到 k 个桶,是每个桶的数值和尽可能最接近
二面
- 介绍下 TextCNN、TextRNN两种模型,区别?
- TextCNN、TextRNN与 Bert 差距非常大,为什么?
- 分类模型了解哪些?
- Bert 的原理?MASK 机制?
- Transformer 介绍,整个结构?编码层 self-Attention 怎么做的?
- Transformer 归一化层怎么实现的?batch Norm 与 layer Norm 的各自应用场景?
- 解决过拟合方法有哪些?
- 机器学习常用的损失函数?
- L1 与 L2 的正则化的理解?
- 算法1:链表反转
- 算法2:k 个一组翻转链表