专栏名称: AI科技评论
「AI科技评论」是国内顶尖人工智能媒体和产业服务平台,专注全球 AI 业界、学术和开发三大方向的深度报道。
目录
相关文章推荐
爱可可-爱生活  ·  【[2.5k星]n8n-workflows: ... ·  23 小时前  
新智元  ·  爆火AI编程Windsurf突遭Claude ... ·  23 小时前  
爱可可-爱生活  ·  今日推介(第1790期):大块推理时训练框架 ... ·  2 天前  
51好读  ›  专栏  ›  AI科技评论

自监督学习,如何从数据困境中拯救深度学习?

AI科技评论  · 公众号  · AI  · 2020-02-02 19:16

正文

请到「今天看啥」查看全文


来源:《 Rainbow: Combining Improvements in Deep Reinforcement Learning》

  • 论文地址:https://arxiv.org/pdf/1710.02298.pdf

有关 AlphaStar 的更多信息,可以查看这篇文章:

  • 文章地址:https://blog.deeplearning.ai/blog/the-batch-google-achieves-quantum-supremacy-amazon-aims-to-sway-lawmakers-ai-predicts-basketball-plays-face-detector-preserves-privacy-1-0-0-0-0

虽然我可以给大家再举几个例子,但我想这两句话足以说明我的意思:

目前深度学习基于大规模数据,当满足所需环境和约束条件时,这些系统就会产出给人惊喜的结果。但在一些特殊情况下,它们也会完全失效。

让我们回到 ImageNet 分类问题:ImageNet 数据库的人类识别错误率约为5.1%,而目前最先进的深度学习 top-5 准确性约为1.8%。

  • 论文地址:https://paperswithcode.com/sota/image-classification-on-imagenet

因此我们可以完美地证明:深度学习在  ImageNet  这项任务上已经比人类做的更好。但是真的是这样吗?

如果是这样的话,我们怎么解释如下的问题呢?

来源: 《 Attacking Machine Learning with Adversarial Examples》

  • 论文地址:https://openai.com/blog/adversarial-example-research/

我们可以将这些在互联网上非常流行的对抗样本(adversarial examples)看作是设计用于误导机器学习模型的优化任务。相关阅读可以查看下面这篇文章:

  • 文章地址:https://openai.com/blog/adversarial-example-research/

这个想法很简单:

我们如何让分类器将以前归类为“熊猫”的图像归类为“长臂猿”?

我们可以简单地认为被精心设计的输入样本导致了 ML 模型分类错误。

来源: 《One Pixel Attack for Fooling Deep Neural Networks》

  • 论文地址:https://arxiv.org/pdf/1710.08864.pdf

正如我们所见,优化效果好到我们(用肉眼)无法察觉到真实图像(左)和对抗图像(右)之间的差异。实际上,造成分类错误的噪声不是任何类型的已知信号。相反它是经过精心设计用于发现模型中的隐藏误差。并且最近的研究表明:在某些情况我们只需要改变1个像素,就可以成功误导最好的深度学习分类器,详细讨论可以查看这篇论文:

  • 论文地址:https://arxiv.org/pdf/1710.08864.pdf

在这一点上,我们可以看到问题开始相互叠加。我们不仅需要大量样本来学习新任务,还需要确保我们的模型学习正确的表征。

油管视频:https://www.youtube.com/watch?v=piYnd_wYlT8







请到「今天看啥」查看全文