028成都网蓉城论坛

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 735|回复: 0
打印 上一主题 下一主题

“大流行前有所准备”“硅谷教父”谷歌母公司董事长解析下一代神经网络计算 ...

[复制链接]

357

主题

357

帖子

791

积分

高级会员

Rank: 4

积分
791
跳转到指定楼层
楼主
发表于 2020-10-31 09:58:31 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式


10 月 30 日,2020 第三届世界顶尖科学家论坛在沪开幕," 科技,为了人类共同命运 " 主题会议在开幕式后举行。作为 2017 年图灵奖得主、谷歌母公司——美国阿尔法特公司的董事长、美国斯坦福大学前校长,约翰 · 轩尼诗就人工智能(AI)发表视频演说。
约翰 · 轩尼诗认为过去 10 到 15 年人工智能为人类带来了赋能性突破。比如,自动驾驶从模糊概念成为现实,一经普及可每年拯救成千上万条生命,以及相关车祸导致的数亿美元损失。而在生命健康领域同样如此,如果 AI 发展到成熟阶段," 人们就可以在疫病大流行发生之前就有所准备。"
约翰 · 轩尼诗当然提到了 " 阿尔法狗 ",以及其后一系列超重量级的 AI 系统,从自主学习棋谱到战胜世界围棋冠军。它们的计算能力在 10 年间增长了 30 万倍,比早期的 " 推理机 " 拥有 1 亿倍以上的算力。


然而,事实证明," 每 18 个月芯片上的晶体管数目就翻倍 " 的摩尔定律已经进入终结阶段,增长曲线越来越慢。约翰 · 轩尼诗展示的曲线图表明,摩尔定律的高峰出现在 1986 到 2003 年,大约在 20 年间提高了 1000 倍,但过去几年每年仅有百分之几的提高。因此,他认为," 我们不能再依赖半导体技术的突破,也不能仅仅靠晶体管数量增加。"
" 我们熟悉的方式将不再正确。" 这位 " 硅谷教父 " 表示,解决方案在于做出特定领域的专业处理器," 那不属于过去普遍使用的通用型计算机,也不需要它来运行所有代码。" 为此,他们正在建立 " 神经网络 " 计算架构,训练下一代神经网络。
据悉,基于这样的超级密集型算法,其处理器 TPU 每秒可执行 92 万亿次运算。与英特尔等传统芯片相比,TPU 用于通用型计算的硅区面积只占总体的 2%,绝大部分硅区得以 " 解放 "。为了深层神经网络计算,构建起相适应的软件架构,并兼顾硬件匹配," 乐观者估计 10 年内可以实现,至晚在 30、40 年左右。"
" 大脑为什么在那么多方面做得比机器更好?" 在约翰 · 轩尼诗眼中,这样的神经网络更像人的大脑。通过 AI 训练,比如识别和认知,需要给 AI 看千万张图片," 看猫的照片,看狗的照片,但婴儿可不是这样学习的…… " 他认为,大脑无疑是有史以来最好的学习机器,不像现有的 AI 那样虽然知道猫和狗的区别,但不知道是为什么。
此外能耗效率方面,大脑的功率只需要 20 瓦,而神经网络消耗功率可达 1000 倍,因此下一代神经网络计算与人脑相比还差距很大。
栏目主编:黄海华 本文作者:徐瑞哲 文字编辑:徐瑞哲 图片编辑:曹立媛
图片来源:海沙尔 摄

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
收藏收藏

这是一种鼓励!你懂的~

×

打赏支付方式:

打赏

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则





亲,赶快加入我们吧!
X

028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|028|手机版|小黑屋|028成都网蓉城论坛 ( 苏ICP备18022364号-4

GMT+8, 2024-5-5 10:18 , Processed in 0.413139 second(s), 25 queries .

Powered by 028 X3.2

© 2001-2018 028

快速回复 返回顶部 返回列表