月度归档:2017年05月

Machine Learning-支持向量机(SVM-Support Vector Machines)

好久没有更新文章了,距离上一篇文章已经快大半个月了。主要是最近这段时间太忙了,在两个项目之间来回切换,再加上好多同事要离职,组里有点动荡。其实在5月5号那天我就一口气提前把整个course都学完了,主要是每个周末都要空出来完成作业好烦(虽然不做作业我也没啥好干的),那还不如一下子全部做完吧。全部学下来感觉最难的两部分内容就是神经网络和支持向量机了,我这里说的难,指的是真正理解这两个算法,知道他们的工作原理,甚至是理解他们背后的数学原理。如果你仅仅为了完成课后的assignment,那这两部分的内容其实也是很easy的。课程中一涉及到算法背后的原理,感觉Andrew Ng讲得不够清楚,他只会告诉你用什么样的公式去计算,但不会告诉你为什么要用这个公式,以及这个公式是怎么来的。当然,我这么说并不是质疑Andrew Ng讲得不好,而是这门课设计的初衷就是为了让更多人的学会机器学习,而不管你有没有数学背景,所以Andrew Ng一直在说don’t worry about the math,don’t worry about the math…哈哈
本来这篇文章是要写Week6的内容的,但是我[……]

继续阅读

Machine Learning-神经网络(Neural Network)

本文覆盖Coursera Machine Learning Week 4&Week 5的内容。

什么是神经网络?
在机器学习和认知科学领域,人工神经网络(Artificial Neural Network,缩写ANN),简称神经网络(英文:Neural Network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。(摘自:维基百科-人工神经网络
神经网络并不是什么新鲜的玩意儿,早在1958年,美国心理学家Frank Rosenblatt就提出了一种具有单层计算单元的神经网络,称为感知器(Perceptron)。这个概念一经提出就被认为有着良好的发展潜能,因为他结构简单,也能解决一些复杂问题。但是感知器有一个天生不可解决的问题:只能解决线性可分问题,连最简单的异或(XOR)模型都无能为力。1969年Marvin Minsky写了一本叫做《Perceptrons》的书,他提出了著名的两个观点:1.单层感知机没用,我们需要多层感知机来解决复杂问题 2.没有有效的训练算法。大意就是这玩意儿[……]

继续阅读