赞
踩
解决:网友的意思大概是:那样顶多孙是调通了编译环境,与复现代码还有很长的路,需要自己懂每一个模型是怎么应用,输入是什么,输出是什么等等。好吧,自己离这一步还有很长的路要走。
看了一下这个网友关于自己复现代码的感受,enmmm...,确实这样,很容易被很长的代码打败。
但是还是要给自己加油鼓气,不能遇到事情就退缩。
建议每一篇下载的文献,用其发表年份+论文题目命名,比如2018-News session based recommendation susing deep neural networks,
而每看完一篇,将看完的这篇论文前标序号,比如4.2018-News session based recommendation susing deep neural networks,代表我第四篇看完了这个。
这样的话,假设我们有一个Notes.md文件,那么我们就直接在最后加一个References Section,然后把已经看过的论文按照自己标的顺序列出来,在总结的时候相关的内容直接加引用,相当于根据目前自己看了的论文写一个Related Work。
如果想根据不同的论文写自己的看法,也可以直接用序号.md命名就成。
同样,在ipad中由于有手写笔,可以进行一些算法的记录、演算,为复现做准备,笔记本名称可以直接使用自己标的论文序号,这样就方便很多。
我也是自己摸索,从暑假到现在看了也不少文献了,但发现很多时候看了就像没看,啥也没学会啥也没搞懂,最近有更集中的在搞这个事,慢慢找到了一些方法:
即在上述(自己动态更新/总结一个Related Work,同时每一篇看过的论文对应一个独立的md文件记录自己的理解思考和收获)的基础上:
- ## 优缺点/总结
- - 【当前文献总结的以前工作的优缺点】
- - 【后来的文献总结的当前工作的优缺点】
-
- ## 解决的问题
- - 【相较于以前的工作,本篇论文解决了什么问题】
-
- ## 模型
- ### 结构
- - 【每一个module/层的功能、及其输入输出】
-
- ### Tricks
- - 【模型中使用的一些技巧】
-
- ### Prediction
- - 【如何生成预测的y值】
-
- ### Objective Function/Loss Function
- - 【损失函数,对应求解的方法】
-
- ### 参数
- - 【模型中哪些是需要学习的参数,哪些是超参数】
-
- ### Optimizer
- - 【使用什么优化方法/更新参数的方法】

- KDD
- WWW
- AAAI
- WASM
- SIGIR
- CIKM
- ICIR
- ACM的RecSys
这是我总结的一些顶会论文,可以直接搜这个 相关官网。
找论文的话,先新建两个文件夹,一个是有用的文件夹,一个是没用的文件夹。可以先看摘要,如果摘要是你们感兴趣的,下载下来,如果内容刚好是你们的方向,那就放在有用的文件夹下面,如果是没用的就放在没用的文件夹下面。
enmmm,所以先按这个方式试一下,首先是坚持下来!!!
也会及时记录自己看过的论文,提醒自己。要不然看了感觉相当于没看。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。