查看原文
其他

精选干货|近半年干货目录汇总

2017-08-01 忆臻 机器学习算法与自然语言处理

Hi,您好,首先感谢您关注我的公众号,此公众号建立已经半年,最初是源于自己在机器学习以及自然语言处理学习过程中的笔记心得。

公众号的每篇文章力争用简单的言语将一个原理或应用讲得易于理解,根据一部分同学的需求,现将这半年的文章做一个目录呈现,方便大家根据自己的需要定位到相关文章进行阅读,希望对大家有所帮助。

该公众号后续仍然会对机器学习以及自然语言处理领域知识进行总结,并会拓展到基础算法、数据结构以及高数、概率论、线性代数等基础知识方面的总结。

如果您对我的文章有什么想法,欢迎在文章底部留言或者直接在微信公众号处交流,我都会及时回复;我很乐意与您一起交流、探讨,共同进步!

        最后在此真诚的感谢所有转发、分享以及打赏的朋友们,虽然我们素未谋面,但因彼此怀着对知识的渴望而结识于网络,您们的每一次肯定,都是我维护公众号最大的动力!


历史精选文章链接

所有文章

1.《换个角度“聊”线性代数(一)

2.《形象的解释神经网络激活函数的作用是什么?

3.《通俗理解神经网络BP反向传播算法

4.《为什么梯度反方向是函数下降最快的方向?

5.《浅析神经网络为什么能够无限逼近任意连续函数?

6.《浅析感知机(一)--模型与学习策略

7.《浅析感知机(二)--学习算法及python代码剖析

8.《《浅析感知机(三)--收敛性证明与对偶形式以及python代码讲解》

9.《详解梯度下降法的三种形式BGD,SGD以及MBGD

10.《一文搞懂k近邻(k-NN)算法(一)

11.《完结篇|一文搞定k近邻算法(k-NN)算法(二)

12.《通俗详解softmax函数及其求导过程

13.《大白话解释模型产生过拟合的原因

14.《通俗讲解平方损失函数平方形式的数学解释?

15.《带你搞懂朴素贝叶斯分类算法

16.《理解朴素贝叶斯算法中的拉普拉斯平滑

17.《朴素贝叶斯分类实例-单词纠正问题

18.《谈谈准确率(P值)、召回率(R值)及F值

19.《浅析神经网络中一点优化知识

20.《可视图讲解神经元w,b参数的作用

21.《聊聊传统算法系统和机器学习系统的一点不同

22.《通俗理解信息熵

23.《通俗理解条件熵

24.《通俗理解决策树算法中信息增益的

25.《深入浅出理解决策树算法(一)-核心思想

26.《深入浅出理解决策树算法(二)-ID3算法与C4.5算法

27.《句法分析(syntactic parsing)在NLP领域的应用是怎样的?

28.《隐马尔科夫模型-基本模型与三个基本问题

29.《隐马尔科夫模型-前向算法

30.《机器学习中向量化编程总结记录

31.《目录传输命令scp

32.《干货|如何处理不均衡数据?

33.《10分钟入门pytorch(0)

34.《10分钟快速入门PyTorch(1)

35.《干货|10分钟入门PyTorch(2)~附源码

36.《强烈推荐|一个非常好的依存句法可视化工具

37.《深度学习的梯度消失问题

38.《干货|李宏毅ML课程[1]Learning Map

39.《logistic函数和softmax函数

40.《GAN的数学原理

41.《最优化问题的简介介绍是什么?

42.《为什么要对数据进行归一化处理?

43.《依存句法分析的任务以及形式化定义

44.《干货|PyTorch中如何使用tensorboard可视化

45.《花式解释AutoEncoder与VAE

46.《哈工大社会计算与信息检索研究中心(HIT-SCIR)招收2018年秋季入学研究生

47.《干货|最详尽的神经网络基础

48.《国内大陆部分NLP团队

49.《机器学习常见算法分类汇总

50.《梯度下降法的三种形式BGD、SGD以及MBGD

51.《评测时如何构造训练数据分布与测试数据分布保持一致

52.《为什么梯度的方向与等高线切线方向垂直?

53.《自然语言处理中的Attention Model:是什么以及为什么[一]

54.《自然语言处理中的Attention Model:是什么以及为什么[二]

55.《干货|SVM(一)·最全面的感知机总结

56.《干货|非常详细的神经网络入门解释

57.《干货|非常通俗的朴素贝叶斯算法(Naive Bayes)

58.《【西瓜书】周志华《机器学习》学习笔记与习题探讨(一)

59.《自然语言处理中CNN模型几种常见的Max Pooling操作

60.《重磅|手把手教你从零编写操作系统

61.《最大似然估计与最小二乘法的一点浅见

62.《seq2seq中的beam search算法过程

63.《深入浅出讲解语言模型

64.《干货|通俗讲解高斯过程回归

65.《干货笔记|NLP Coursera By Michael Collins - Week1

66.《干货笔记|Attentive Sequence to Sequence Networks




全是通俗易懂的硬货!只需置顶~欢迎关注交流~



分享是一种乐趣,

如果你觉得我的文章对你有帮助,

欢迎转发到朋友圈,
或分享给你的好友,
这是对我最大的支持与鼓励。




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存