今年还必须阅读文章的10篇人工智能化毕业论文
在本文中刷投票的网站,为你的阅读文章快乐,我列举了2020年阅读文章人工智能化毕业论文的十条提议(及其别的一些进一步的阅读文章提议)。
在这个目录中,我关键关心这些不在明确提出新构架的状况下促进全新技术性的文章内容,这种文章内容不包含全新的YOLO或ResNet组合;反过来刷投票的网站,关键包含了损害公式计算、基础理论提升、新优化器等层面的最新消息。
针对文章内容的上半部分,我将关键详细介绍人工智能算法和NLP,由于这种就是我最了解的主题风格,并从一两个經典技术性刚开始。针对每一篇毕业论文,我都是会汇总其关键奉献,并排出阅读文章原因。最终,我还在每一篇文章的末尾都得出了有关这一主题风格的实际阅读文章提议,并将其与别的最新消息或相近念头联络起來。
1.GloVe (2014)
Pennington, Jeffrey, Richard Socher, and Christopher D. Manning. “Glove: Global vectors for word representation.” 二零一四年自然语言理解解决方式大会(EMNLP)会议论文集。
毕业论文连接:
https://www.aclweb.org/anthology/D14-1162.pdf
尽管如今的小区关键关心神经元网络,但很多初期的結果是根据更简易的数学原理得到 的。GloVe是以经典算法考虑的,它是根据降低英语单词共现引流矩阵维数的英语单词置入实体模型。与之前的方式不一样,GloVe应用隐式表示法,使其能够拓展为规模性文字词库。
原因1:假如你从自然语言理解解决(NLP)下手,它是一本非常好的读本,能够协助你掌握英语单词置入的基础知识及其他们的必要性。
原因2:之前并并不一定的物品全是根据Transformers的,阅读文章初期的著作是一个非常好的方式去寻找一个“被遗弃的念头”,该念头能够使目前技术性进一步发展趋势。
Transformers:
http://papers.nips.cc/paper/7181-attention-is-all-you-need
原因3:很多创作者在之后拓展了文中中明确提出的很多定义。现如今,词嵌入已变成自然语言理解解决(NLP)中的具体内容。
进一步阅读文章:在同一阶段,Google公布了Word2Vec,另一个zhu名的词义空间向量生成模型。没多久以后刷投票的网站,这种念头被分子生物学界听取意见,做为表明大蛋白质和基因序列的方式。而如今BERT是语汇定性分析和词义了解的核心方式。
Word2Vec:
https://arxiv.org/abs/1301.3781
BERT:
https://arxiv.org/abs/1810.04805
2.AdaBoost (1997)
Freund, Yoav; Schapire, Robert E (1997). “A decision-theoretic generalization of on-line learning and an application to boosting”. #p#分页标题#e#