当前位置:   article > 正文

算法面经寒武纪、商汤、搜狐篇

算法面经寒武纪、商汤、搜狐篇

寒武纪实习
1.pytorch 用hook 打印中间层输出 不用改forward
https://www.jb51.net/article/241887.htm
2.两个卡并行 希望保持效果:需要 loss/2
3.Linux统计文件数目?不知道
统计文件夹下文件个数,包括子文件
ls -lR | grep “^-”| wc -l
统计文件夹下目录个数,包括子目录
ls -lR | grep “^d”| wc -l
4.Linux管道 树
5.c++创建动态二维数组 int *a=new int[l];
6.batch size大小的影响
7.反向传播传播的是loss对各参数的链式求导

手撕:求一个数阶乘后面的0个数
思路 计算2 5个数 动态规划
优化 保存5个数即可,因为每2个就有个2,每5个有5,2肯定多

商汤实习
1.bert输入
2.transformer self-attention qkv
3.transformer encoder decoder区别qkv上的区别
4.lstm和transformer的 self-attention区别
5.Bert之外的预训练模型,双向lstm,Roberta,xlnet
6.transformer 除以一个dk是为了什么

搜狐实习
手撕:链表找倒数第几个
手撕:找和为七最小长度;应该用滑动窗口
li=[3,1,2,5,4]
tar=7

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/972062
推荐阅读
相关标签
  

闽ICP备14008679号