10月29日,新东方AI研究院宣布成立“N-Brain”…

编者按:本文作者王川,投资人,中科大少年班校友,现居加州硅谷,个人微信号9935070,36氪经授权转载自其个人微信公众号investguru。一2016年一月底,人工智能的研究领域,发生了两件大事。先是一月二十四号,MIT的教授,人工智能研究的先驱者,MarvinMinsky去世,享年89岁。

三天之后,谷歌在自然杂志上正式公开发表论文,宣布其以深度学习技术为基础的电脑程序AlphaGo,在2015年十月,连续五局击败欧洲冠军、职业二段樊辉。 这是第一次机器击败职业围棋选手。距离97年IBM电脑击败国际象棋世界冠军,一晃近二十年了。极具讽刺意义的是,Minsky教授,一直不看好深度学习的概念。他曾在1969年出版了Perceptron(感知器)一书,指出了神经网络技术(就是深度学习的前身)的局限性。

这本书直接导致了神经网络研究的将近二十年的长期低潮。神经网络研究的历史,是怎样的?深度学习有多深?学了究竟有几分?二人工智能研究的方向之一,是以所谓"专家系统"为代表的,用大量"如果-就"(If-Then)规则定义的,自上而下的思路。人工神经网络(ArtificalNeuralNetwork),标志着另外一种自下而上的思路。神经网络没有一个严格的正式定义。它的基本特点,是试图模仿大脑的神经元之间传递,处理信息的模式。

一个计算模型,要划分为神经网络,通常需要大量彼此连接的节点(也称'神经元'),并且具备两个特性:每个神经元,通过某种特定的输出函数(也叫激励函数activationfunction),计算处理来自其它相邻神经元的加权输入值神经元之间的信息传递的强度,用所谓加权值来定义,算法会不断自我学习,调整这个加权值在此基础上,神经网络的计算模型,依靠大量的数据来训练,还需要:成本函数 (costfunction):用来定量评估根据特定输入值,计算出来的输出结果,离正确值有多远,结果有多靠谱学习的算法(learningalgorithm):这是根据成本函数的结果,自学,纠错,最快地找到神经元之间最优化的加权值用小明、小红和隔壁老王们都可以听懂的语言来解释,神经网络算法的核心就是:计算、连接、评估、纠错、疯狂培训。随着神经网络研究的不断变迁,其计算特点和传统的生物神经元的连接模型渐渐脱钩。但是它保留的精髓是:非线性、分布式、并行计算、自适应、自组织。三神经网络作为一个计算模型的理论,1943年最初由科学家WarrenMcCulloch和WalterPitts提出。康内尔大学教授FrankRosenblatt1957年提出的"感知器"(Perceptron),是第一个用算法来精确定义神经网络,第一个具有自组织自学习能力的数学模型,是日后许多新的神经网络模型的始祖。

Rosenblatt乐观地预测,感知器最终可以“学习、做决定、翻译语言”。感知器的技术,六十年代一度走红,美国海军曾出资支持这个技术的研究,期望它“以后可以自己走、说话、看、读、自我复制、甚至拥有自我意识”。