专栏名称: DeepTech深科技
“DeepTech深科技”是与麻省理工科技评论官方独家合作的一个新科技内容品牌。我们专注于关注三个方面:1、基于科学的发现;2、真正的科技创新;3、深科技应用的创新。
目录
相关文章推荐
新浪科技  ·  【#消费赛道迎来利好政策# ... ·  昨天  
新浪科技  ·  【#AI大模型写高考作文哪家强# ... ·  昨天  
新浪科技  ·  【#南银转债或触及强赎# ... ·  昨天  
51好读  ›  专栏  ›  DeepTech深科技

摩尔定律后,人工智能怎样保持继续加速?

DeepTech深科技  · 公众号  · 科技媒体  · 2017-06-02 09:21

正文

请到「今天看啥」查看全文


一篇研究文章表明,在此次项目中,谷歌的开发者同时使用了多达800个图形处理器(GPU)。这些GPU极其昂贵、功能强大,并且对机器学习能力的提升至关重要。他们告诉《麻省理工科技评论》,该项目已经持续进行了好几周时间,运行了成百上千个GPU。


机器学习相当耗费资源成本,仅仅是一个研究项目, 即使像谷歌这样的大公司也难以承受其中巨大的资源成本。


对于那些无法访问大型GPU集群的编码器而言,重复该实验意味着大量财力的耗费。如果从亚马逊的云计算服务租用800个GPU,仅一周时间就要花费12万美金,而这还只是保守估计。


与使用深度学习软件相比, 训练深度学习软件的资源密集属性更为明显 。斯坦福大学的兼职教授、Matroid的创始人兼首席执行官Reza Zadeh认为,计算能力是机器学习的一个瓶颈。








请到「今天看啥」查看全文