028成都网蓉城论坛

标题: “大流行前有所准备”“硅谷教父”谷歌母公司董事长解析下一代神经网络计算 ... [打印本页]

作者: 抱人    时间: 2020-10-31 09:58
标题: “大流行前有所准备”“硅谷教父”谷歌母公司董事长解析下一代神经网络计算 ...
[attach]52485[/attach]

10 月 30 日,2020 第三届世界顶尖科学家论坛在沪开幕," 科技,为了人类共同命运 " 主题会议在开幕式后举行。作为 2017 年图灵奖得主、谷歌母公司——美国阿尔法特公司的董事长、美国斯坦福大学前校长,约翰 · 轩尼诗就人工智能(AI)发表视频演说。
约翰 · 轩尼诗认为过去 10 到 15 年人工智能为人类带来了赋能性突破。比如,自动驾驶从模糊概念成为现实,一经普及可每年拯救成千上万条生命,以及相关车祸导致的数亿美元损失。而在生命健康领域同样如此,如果 AI 发展到成熟阶段," 人们就可以在疫病大流行发生之前就有所准备。"
约翰 · 轩尼诗当然提到了 " 阿尔法狗 ",以及其后一系列超重量级的 AI 系统,从自主学习棋谱到战胜世界围棋冠军。它们的计算能力在 10 年间增长了 30 万倍,比早期的 " 推理机 " 拥有 1 亿倍以上的算力。
[attach]52486[/attach]

然而,事实证明," 每 18 个月芯片上的晶体管数目就翻倍 " 的摩尔定律已经进入终结阶段,增长曲线越来越慢。约翰 · 轩尼诗展示的曲线图表明,摩尔定律的高峰出现在 1986 到 2003 年,大约在 20 年间提高了 1000 倍,但过去几年每年仅有百分之几的提高。因此,他认为," 我们不能再依赖半导体技术的突破,也不能仅仅靠晶体管数量增加。"
" 我们熟悉的方式将不再正确。" 这位 " 硅谷教父 " 表示,解决方案在于做出特定领域的专业处理器," 那不属于过去普遍使用的通用型计算机,也不需要它来运行所有代码。" 为此,他们正在建立 " 神经网络 " 计算架构,训练下一代神经网络。
据悉,基于这样的超级密集型算法,其处理器 TPU 每秒可执行 92 万亿次运算。与英特尔等传统芯片相比,TPU 用于通用型计算的硅区面积只占总体的 2%,绝大部分硅区得以 " 解放 "。为了深层神经网络计算,构建起相适应的软件架构,并兼顾硬件匹配," 乐观者估计 10 年内可以实现,至晚在 30、40 年左右。"
" 大脑为什么在那么多方面做得比机器更好?" 在约翰 · 轩尼诗眼中,这样的神经网络更像人的大脑。通过 AI 训练,比如识别和认知,需要给 AI 看千万张图片," 看猫的照片,看狗的照片,但婴儿可不是这样学习的…… " 他认为,大脑无疑是有史以来最好的学习机器,不像现有的 AI 那样虽然知道猫和狗的区别,但不知道是为什么。
此外能耗效率方面,大脑的功率只需要 20 瓦,而神经网络消耗功率可达 1000 倍,因此下一代神经网络计算与人脑相比还差距很大。
栏目主编:黄海华 本文作者:徐瑞哲 文字编辑:徐瑞哲 图片编辑:曹立媛
图片来源:海沙尔 摄




欢迎光临 028成都网蓉城论坛 (http://www.028.sh.cn/) Powered by Discuz! X3.2