入门机器学习该如何阅读论文也是同学经常咨询我的一个问题,机器学习是一个非常火热的领域,发展的也非常迅速,新的模型、技术不断地在迭代和更新,这就要求我们在学习甚至是未来工作的过程中,不断的去阅读一些论文,来跟踪某个领域的最新动态。今天我就为大家分享一些我自己实践之后觉得非常有效的阅读方法,只要你想要进入机器学习的领域,都值得收藏一看。
话不多说,我们先来解决最首要的问题,如何找到“值得看”的论文?
人工智能领域每年都会有比较多的会议,机器学习的顶会主要有:
视觉方向:CVPR, ICCV,NLP方向:ACL,EMNLPGeneral的会议: NeurIPS,AAAI, IJCAI, ICML, KDD等等
这些顶会每年的paper就是我们阅读论文的主要来源。此外,如果我们的专业方向都是相对比较固定的,所以我们可以通过检索来找到和自己的专业方向相关的文章来阅读,我比较常用的搜索工具是arXiv、Google scholar和Reddit。每当开顶会的时候,大家也可以稍微去浏览一下被接受的文章的标题,看看有没有自己方向相关的文章可以大致了解下的。
还有就是各大机器学习或者AI相关的公众号,每次开顶会的时候,他们会推送一些文章来介绍各种最新的工作。如果自己没时间去追踪会议的话,那每天稍微阅读阅读各种技术博客或者公众号内容,也很好。
下面就是第二个问题,找到这些论文之后,我们“怎么读”才是有效的,才是不浪费时间的。
首先是文章中经常包含大量的公式、理论和证明的文章。
你要知道的是,即使是业界大牛,也很难快速的阅读和理解冗长复杂的计算公式,所以秘诀就是先粗读一遍文章,跳过代数的部分,默认它们是正确的,主要去理解公式之间的文字描述、实验结果和结论。当你大致的了解文章的主要内容,你可以再决定要不要花费时间来理解代数的部分,也就是开始细读。
接着是一些更加工程的文章,比如很多文章其实只是在介绍某种新的训练的trick,或者某种新的模型结构,或者某种新的loss。这类文章没有太多设计什么数学或推导的部分,他们往往只追求更好的Metric,追求模型效果是否是SOTA。 这类文章在当下已经占据了半壁江山。
我们在阅读这类文章的时候,第一,快速抓住它的核心想法是什么,这个往往看abstract或者introduction部分就差不多知道了; 第二,去看论文里的各种示意图,他们会更好的帮助你理解新的模型结果是什么样的,图往往比文字容易懂;第三,不要盲目相信论文的结果。就算是顶会的论文,很多结果可能只是通过大量调参调出来的好结果,或者特定数据集下的好结果,这种文章结果不一定有普适性。
最后我想说的是,阅读的深度最终还是取决于你的的研究方向和阅读目的,对于一些文章而言,拿出纸和笔,按照论文中的计算步骤一步步完成反而是更有效的方法。
以上就是我分享的所有内容,有任何问题都可以在评论区和我互动讨论,欢迎大家多多留言点赞收藏转发!
最新评论 1
:我还以为是用程序来辅助读论文