点击上方,选择星标或置顶,每天给你送干货!
阅读大概需要20分钟
跟随小博主,每天进步一丢丢
来源 |周志华教授报告PPT
编辑 | DeepRL-深度强化学习实验室
每个人从本科到硕士,再到博士、博士后,甚至工作以后,都会遇到做研究、写论文这个差事。论文通常是对现有工作的一个总结和展示,特别对于博士和做研究的人来说,论文则显得更加重要。
那么该如果做突出研究,并写出高水平的论文呢?
本文整理了著名人工智能学者周志华教授《做研究与写论文》的PPT(时间比较早,但方法永远不会过时)。其详细介绍了关于为什么要做研究?如何做研究,选择研究方向、选择研究课题(Topic),学习领域知识、选期刊投稿、稿件处理过程、写高水平论文的方法与技巧等方面的知识,是一份非常优秀的做研究和写论文指南,值得每个人细读!
周志华个人简介
他于2001年1月留校任教,2002年破格晋升副教授,获国家杰出青年科学基金,随后被聘任为教授,获博士生导师资格,入选教育部长江学者特聘教授。现任南京大学 校学术委员会委员、计算机科学与技术系主任、人工智能学院院长,主要从事人工智能、机器学习、数据挖掘等领域的研究工作。主持多项科研课题,出版《机器学习》()、《Ensemble Methods: Foundations and Algorithms》()、《Evolutionary Learning: Advances in Theories and Algorithms》()。
第一部分
第二部分
方便交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
记得备注呦
推荐阅读:
【ACL 】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI | Self-attentive Biaffine Dependency Parsing
【一分钟论文】 NAACL-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货|那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作
让更多的人知道你“在看”