加入收藏 | 设为首页 | 交流中心 | 我要投稿 | RSS
您当前的位置:首页 > 技术中心 > 高谈阔论

当前人工智能特别是深度学习最前沿的研究方向是什么?

时间:2017-03-31 18:18:16  来源:  作者:

 Djm快充网络

 

深度学习显然是人工智能中最热门的研究方向,不过这里我想问的是更具体一点的研究方向。比如OpenAI的研究方向:Djm快充网络
1)Deep Generative Models 深度生成模型Djm快充网络
2)Neural Turing Machine 神经图灵机Djm快充网络
3)Deep Reinforcement Learning 深度增强学习Djm快充网络
但这也让我产生疑问:这三个方向是不是人工智能领域最前沿最重要的研究方向,还有什么研究方向的重要性和这三个方向相当?为什么DeepMind和OpenAI重点研究这三个方向呢?Djm快充网络
恳请知乎大牛们分享一下你们的看法。这个问题顺便可以回答 到底研究什么人工智能问题才是最有价值的,最值得去做的?Djm快充网络
另外,无论是计算机视觉,语音识别,机器人控制,都只能算是人工智能算法的应用出口。上面提及的方向都能够应用到不同垂直领域。
关注者
894
 
被浏览
16438
 

9 个回答

当前深度学习技术主要是data driven的,即对一个特定任务来说,只要增加训练数据的规模,深度学习模型的表现就可以得到提高。但是发展到今天,这种思路面临很多挑战。主要面临下面几个问题:Djm快充网络

  • 很多领域(如医疗,教育),很难获取大量的监督数据或者数据的标注成本过高。
  • 训练数据规模再大,也有难以覆盖的情况。例如聊天机器人,你不可能穷尽所有可能的答案。而且很多答案,也是随时间变化的(例如明星年龄,配偶)。因此仅仅依靠大规模的训练语料,并不能解决这些问题。
  • 通用深度学习模型,直接应用到具体问题,表现(效果,性能,占用资源等)可能不尽如人意。这就要求根据特定的问题和数据,来定制和优化深度学习网络结构。这个是当前研究最多最热的地方。
  • 训练的问题。包括网络层数增加带来的梯度衰减,如何更有效的进行大规模并行训练等等。

为了解决上面的问题,当前的研究前沿主要包括以下几个方向:Djm快充网络

  • 引入外部知识(如知识图谱,WordNet) Djm快充网络
    Knowledge-Based Semantic Embedding for Machine Translation Djm快充网络
    A Neural Knowledge Language ModelDjm快充网络

  • 深度学习与传统方法的结合。Djm快充网络

    • 人工规则与神经网络的结合 Djm快充网络
      Harnessing Deep Neural Networks with Logic Rules
    • 贝叶斯与神经网络的结合 Djm快充网络
      Human-level concept learning through probabilistic program induction(论文讲的是用贝叶斯让机器模仿人写字的,但是对深度学习有非常大的启发价值)
    • 迁移学习与神经网络的结合
    • 强化学习与神经网络的结合 Djm快充网络
      Mastering the game of Go with deep neural networks and tree search
    • 图模型与神经网络的结合 Djm快充网络
      Bidirectional LSTM-CRF Models for Sequence Tagging Djm快充网络
      A Hierarchical Latent Variable Encoder-Decoder Model for Generating Dialogues
  • 无监督的深度生成模型。 Djm快充网络
    Generative Adversarial NetworksDjm快充网络

  • 新的网络结构 Djm快充网络
    Highway Networks Djm快充网络
    Neural Turing Machines Djm快充网络
    End-To-End Memory Networks Djm快充网络
    Deep Residual Learning for Image Recognition Djm快充网络
    Mollifying Networks
  • 新的训练方法 Djm快充网络
    Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift
从具体研究方向上来说,我觉得深度学习在图像和语音上已经非常成熟,因为图像信号和语音信号,都是比较原始的信号,从原始信号中抽取特征对人比较困难,但对深度学习模型比较容易,因此深度学习技术率先在这两个领域取得巨大成功。而NLP领域,因为文字是一种high level的信息,而且从文字到语义,存在一个比较大的语义鸿沟,因此深度学习技术在NLP上存在很大的挑战,但是挑战也意味着机会,因此除了传统NLP领域的研究人大量开始发力深度学习,许多其他领域的人(如机器学习,统计),也开始向NLP进军(Bengio组的人开始搞机器翻译,语言模型,对话系统等等)。Djm快充网络
Djm快充网络
上面是我一些不太成熟的看法,欢迎大家指正交流。

更新Djm快充网络
谷歌DeepMind最新论文:用记忆增强神经网络改善One-shot LearningDjm快充网络
一些具有增强记忆功能的架构,比如说神经图灵机(Neural Turing Machines, NTMs),提供了快速编码和读取新信息的能力,因此能够有可能避免常规模型的下降趋势。在这篇论文中,我们证明了记忆增强神经网络(MNNNs)可以快速吸收新数据,并且仅利用少数几个例子就可以从从数据中做出准确预测。我们同时介绍了一种新的方法,来获取一种关注存储内容的外部存储,这区别于之前的模型,它们需要额外使用基于位置的存储来关注机制。Djm快充网络

~~~~~~~~~~~Djm快充网络
摘录一些杨强教授在“2016全球人工技术大会(GAITC)暨人工智能60年纪念活动启动仪式上发表的演讲,我们可以看到他对人工智能未来发展的认识。Djm快充网络
杨强教授指出,搜索和学习的结合才是人工智能的发展方向。我们不能完全依靠机器去全部自动化自我学习,机器学习的弊端是自我偏差,目前仍需要人为干预。未来,迁移学习会是这个问题的解决途径。迁移学习还能让人工智能得以摆脱对大数据的严重依赖Djm快充网络
深度神经网络的成功就使得我们能够在不同的层次来观察同一个数据,同样就可以获得我们所谓的大局观。Djm快充网络
强化学习应该说是用来做人工智能规划的有力工具,但不是唯一的工具。这个领域相对深度学习应该说更古老,研究的力度也很多。但在很长时间处于静默状态,这个原因是因为它在计算上有很大的瓶颈,不能有很大的数据量。一个例子就是强化学习在很长时间以来只能解决一些玩具型的问题,非常小的数据。Djm快充网络
最近的Google的DeepMind,把深度学习和强化学习合在一起,这样的一个议题使得很多强化学习所需要突破的瓶颈,就是状态的个数能隐藏起来。这种隐藏就使得强化学习能够大规模应对数据。它突出的一点叫做端到端的学习,所以强化学习也是下一个突破。Djm快充网络
AlphaGo对我们的启示,就是我们把[搜索和学习]两者结合起来,才是一个完整的智能机器。这个我们可以叫做人工智能的通用性,也就是说我们对于这两个技术的某种结合,比方说多一点搜索,少一点机器学习。Djm快充网络
目前我们不能完全依靠机器去全部自动化自我学习,至少到现在我们还没有摸索出这样一个路径。是因为机器学习有一个很严重的现象,就是自我偏差,这种偏差可以体现在统计学的一个重要概念中,就是我们获得的数据也许是一个有偏数据,我们可能建了一个模型,对大部分的数据都有用,但其中有一些特例。我们如何来处理这些特例,如何来处理我们训练数据和应用数据之间的偏差,这是我们下一步要研究的内容。Djm快充网络
一个非常有希望的技术叫做迁移学习,, 深度模型可以把它反转,成为一种生成模型。它不仅可以去对数据做一个决策,它还可以自己产生新的数据的那些图像给描述出来Djm快充网络
如果我们达到了迁移学习的要点,我们想问下一步是不是可以把所有人类经历过的这些学习任务给沿着时间轴串起来,能够让机器像人一样,学习能力和智能随时间在不断增长。那么它所需要学习的努力程度,样本数也是逐渐减少的。这也是我们在努力的一个方向Djm快充网络
最近发表的一篇文章也说明了迁移学习的重要性。这篇文章叫做 bayesian program learning(单个例学习),这是从一个例子就能学会,我们知道深度学习是有千万个例子的。实际上它用了我们过去没有涉及到的概念,就叫做结构,如果我们了解了一个问题的结构,那么这个结构的一个具体形式只用一个例子就可以学会了。其他的部分,需要很多例子的那一部分可能是参数、统计,这一部分我们实际上可以通过迁移学习来学习。也就是说这个圆就圆满了,就是一个闭环了。看到这么多人工智能的,有失败的时候,有成功的时候,我们到现在能总结出什么经验呢?我觉得现在的人工智能的成功离不开高质量的大数据,但是并不是未来人工智能的成功一定需要大数据。那么我们下面要问是不是在未来有小数据也可以让人工智能成功?大数据开疆拓土、更多的应用和更多的计算能力确实来自于工业。人才培养、小数据研究则依靠学界。这两者结合是我们今后发展的一个方向。Djm快充网络
强化学习比大家想象的要更有用,它不仅仅是在围棋或者是在计算机游戏上有用。在金融、在我们日常生活当中,甚至在教育上,机器人的规划都离不开强化学习。Djm快充网络
我们明天要看到的应该是迁移学习,因为迁移学习能够让我们把大数据得到的模型迁移到小数据上面,使得千千万万的人都能够受益,人人都能享受人工智能带来的红利

这是个很好的问题,自荐来回答一下,顺便也帮自己理了一下思路。Djm快充网络

个人背景,我自己是从走计算机视觉产业应用,再回到人工智能学术研究的,所以我的个人经历导致我考虑研究问题时会更偏向应用。Djm快充网络

1. 产业和学术研究的“互惠”作用Djm快充网络
在产业界,我们更多的关注的是价值最大化,就是说怎么样才可以用最少的数据,甚至没数据的情况下做出产品,怎么样才可以在最少的计算资源和最短的时间内获得训练结果,所以,只要在产业,我们可以理解深度生成模型(DCGAN)和深度增强学习(Deep Reinforcement Learning ),甚至是有知友提到的杨老师的迁移学习,其实本质上都在做一件事情,就是用最少的数据去实现模型优化,也就是目标是做无监督或者半监督,减少人工标记的成本,在模型中建立自我监督的能力,这个本身就非常有价值了,题主应该是没有挖掘出来研究方向本质是为了什么而做的。所以不理解他们为什么在做这些。而且这些方向都是经过了研究人员很多的假设、实验后,觉得最有可能能做出成果和效果的方向。当然,我自己是觉得还有很多方向可以继续探索,也不必硬要笃定在这些方向上。Djm快充网络
而在学术界,研究的问题很深很细,但稍微容易缺乏大局观,但好处是,解决和提出了很多产业界的人无法解决的问题,不是说产业的人没有这个能力,而是人力、精力、时间和效益都不一定那么允许的情况下,我们看到学界给出了很多很好的突破思维和思路,以及对一个方向fine-turn的能力。一些突破性的思路和思维,就例如题主提到的那三个方向,从提出到能够优化,到能应用是一条很漫长的道路,而每一步都在推动着一个方向的进步。Djm快充网络
正是因为产业和学界的“互惠”作用,所以很多著名的企业都会建立自己的实验室,这些大家都很了解了。Djm快充网络

2. DeepMind和OpenAI的宗旨Djm快充网络
还有一点题主没有注意到的是,只看他们的研究方向其实看不出来太多的意义,但是要注意的是他们都有自己的愿景和目标,像OpenAI,他的目标就是打造Safe AI,举个例子,人眼看东西的时候,即使看不清楚一个东西,但是总不会出现很离谱的错误,例如不过把一个白色的车厢看作是一片天空,但是对于深度学习来说,这个是很可能会发生的,而且一旦发生,后果非常严重,就例如特斯拉的车祸,就是我上面提到的原因。OpenAI自称是不以盈利为目标的,他们更希望把自己定位成为一个科研团队,但是明眼人一眼就看得出来,他们做的事情商业前景是非常乐观的,支持和赞助他们做这件事情的企业多的去了。个人赞助者更是包括了Elon Musk,这个已经体现了这项研究方向的价值性。Djm快充网络

3. 人工智能到底研究什么才有价值Djm快充网络
一方面,DeepMind和OpenAI的研究的东西都很有价值,这些都是偏向基础研究,而从研究都应用的过度会有很多企业愿意去实现。Djm快充网络
另一方面,人工智能在新领域的应用也很有价值,例如Stanford就有PhD在研究计算机视觉在能源的应用,帮助特斯拉做能源预测,个人觉得都非常有趣和有价值。Djm快充网络

希望答题对提主有帮助,不过可能有些观点扯远了,不过人工智能有价值的点还是很多的,但是难度也很大,需要所有产学研的人才一起去推动。Djm快充网络

最后,私人顺一则广播:组织了一个计算机视觉的开发者交流微信群,目标是汇集【计算机视觉,图像处理,3D图像,视频处理,深度学习,机器学习】的开发者,一起分享开发经验,共同探讨技术,有兴趣入群的可以加我微信(微信号LaurenLuoYun, 二维码如下),请注明“姓名-公司/学校-技术方向”,谢谢。Djm快充网络

-------------更新,大家说二维码太小,于是,,,,放个大一点的,希望不要影响美观-----------Djm快充网络
  1. 神经网络是 error-driven 学习,例如 back-prop,但强化学习可以根据「奖励」来学习。 有奖励时,答案正确,那么 error = 0; 有惩罚(负奖励)时,答案不正确但却不知道正确答案,所以 error 也是不知道的。 简言之,就是没法用 error-driven 学习。Djm快充网络
    Djm快充网络
    我想出了一个解决办法,就是有(负)奖励时,加大(或减小)输入空间中的「邻域」。 方法是调较 Jacobian 行列式,因为 Jacobian 代表某函数将单位体积元变换的比例。 Djm快充网络
    Djm快充网络
    我在 Stack-Exchange 网站提出了这个问题:Djm快充网络
    differential geometry 问题Djm快充网络
    (我的多元微积分根底不好,可能计算有错)但算出来的结果很复杂,实际上不可行,我估计要用数值微分的方法。Djm快充网络
    Djm快充网络
    2. 深层的神经网络似乎有能力学习到一些复杂的「结构」,似乎应该发展一套理论去解释深度学习的这种能力。 这里所谓「深结构」是指,例如一组有变量的一阶逻辑式子,它们可以描述很复杂的程式、关系、或数学上的物体。Djm快充网络
    Djm快充网络
    3. Neural Turing Machine 里面,「记忆 (memory)」是最关键的概念; 基本上,有限自动机(finite state machines)和 Turing machine 的分别,就是那条「读写带 (tape)」。 所以问题就是如何让一个神经网络有 "working memory" 可以作暂时储存之用; 我觉得 Neural Turing Machine 只是其中一种做法,它未必是最好的,还有很多其他可能。 Djm快充网络
    Djm快充网络
    例如,「记忆」可以是时间上的一个序列。 Djm快充网络
    Djm快充网络
    还有,记忆的「写入」会删除现有的记忆,但在向量空间可以用向量的「加法」加在旧记忆上; 「叠加」和「over-write(抹掉重写)」可以是连续变化的。

4. 如何将深层神经网络和强化学习两个模组合并起来,这个 architecture 可以怎样设计? 在强化学习那边,我们有控制 u(或者叫 action a),似乎需要用这个 u 来控制神经网络。Djm快充网络

我前几天想到一个解决办法: 令神经网络的输出是 \mathbb{R}^n \times \mathbb{R}^k,其中 \mathbb{R}^n 是神经网络的输入空间(它基本上是一个 automorphism,输入和输出空间相同),而 \mathbb{R}^ku
的空间。 这样就可以用 u
的方向来「选择」输出空间的一个「截面」,其大小是 \mathbb{R}^n。 我会尽快将详细的理论发表在论文上。
人类语言是人工智能的核心,如果神经网络能理解人类自然语言,那将是人工智能大功告成的一天。
人类语言作为自身发明的最复杂工具,在接下来肯定会成为研究热点问题。
没人提降维和流形学习么?

生成模型重要的原因是因为生成模型能学习到完整的特征,能学习到结构,像GAN VAE等算法,非常重要!Djm快充网络
神经图灵机重要因为个人推测将来神经图灵机可以像人的意识一样对自我学习的概念进行操作推理等等!Djm快充网络

强化学习则为机器提供了通往自我目标的途径!Djm快充网络
当前深度学习还需要跨越的一大障碍是长时间段的事件抽象能力!也就是生成模型应用到视频-生成视频的应用;Djm快充网络

生成模型学习到的特征为什么值得关注:因为生成模型学到的特征是真正了理解了事物,是语义层级的特征,所以生成模型的特征是可以关联到语言的,这时候机器表达的语言才是有源之水,是基于认知的语言表达,而不只是符号转换。最后广告一下我的公众号 createamind;
有本创业书说的挺好 我们要的是会飞的汽车 结果只给了我们一百四十个字(暗指推特)。Djm快充网络
想想科学发展是不是就在探索自然,我们给一个输入变量X,大自然会给我们一个输出Y,我们想知道这个过程。Djm快充网络
诚然在一些领域深度学习取得了不错的”成绩”,但真正拓宽人类认知的成果似乎很少,其中一个原因是上面提到的人具有少量数据归纳能力,这是人的思维伟大之处。Djm快充网络
所以 如何让深度学习真的帮助我们认识世界应该是广大理工科同胞一起奋斗的目标吧.。
来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
推荐资讯
相关文章
    无相关信息
栏目更新
栏目热门