澎湃Logo
下载客户端

登录

  • +1
    12

新光学芯片助力人工智能:算法更快,能耗不到原来千分之一

聂翠蓉/科技日报
2017-06-13 19:13
科学湃 >
字号

美国麻省理工学院(MIT)科学家在6月12日出版的《自然·光学》杂志上发表论文称,他们开发出一种全新的光学神经网络系统,能执行高度复杂的运算,从而大大提高“深度学习”系统的运算速度和效率。

“深度学习”系统通过人工神经网络模拟人脑的学习能力,现已成为计算机领域的研究热门。但由于在模拟神经网络任务中,需要执行大量重复性“矩阵乘法”类高度复杂的运算,对于依靠电力运行的传统CPU(中央处理器)或GPU(图形处理器)芯片来说,这类运算太过密集,完成起来非常“吃力”。

通过几年努力,MIT教授马林·索尔贾希克和同事开发出光学神经网络系统的重要部件——全新可编程纳米光学处理器,这些光学处理器能在几乎零能耗的情况下执行人工智能中的复杂运算。索尔贾希克解释道,普通眼镜镜片就能通过光波执行“傅里叶转换”这样的复杂运算,可编程纳米光学处理器采用了同样的原理,其包含多个激光光束组成的波导矩阵,这些光波能相互作用,形成干涉模式,从而执行特定的目标运算。

研究小组通过测试证明,与CPU等电子芯片相比,这种光学芯片执行人工智能算法速度更快,且消耗能量不到传统芯片能耗的千分之一。他们还用可编程纳米光学处理器构建了一个神经网络初级系统,该系统能识别出4个元音字母的发音,准确率达到77%。他们的最终目标是,将可编程纳米光学处理器交叉铺就成多层状结构,构建光学网络神经系统,模拟人脑中神经元执行复杂的“深度学习”运算。

索尔贾希克表示,新光学处理器还能用于数据传输中的信号处理,更快速实现光学信号与数字信号间的转换。未来,在大数据中心、安全系统、自动驾驶或无人机等所有低能耗应用中,基于新光学处理器的复杂光学神经网络将占据重要席位。

(原标题:执行复杂运算,人工智能一定很“吃力”吧?科学家竟然说,近乎零能耗)

    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    12
    收藏
    我要举报
    评论0
    发表
    加载中

          扫码下载澎湃新闻客户端

          沪ICP备14003370号

          沪公网安备31010602000299号

          互联网新闻信息服务许可证:31120170006

          增值电信业务经营许可证:沪B2-2017116

          ? 2014-2022 上海东方报业有限公司

          反馈
          ##########
          <ins id='QrSA'><nobr></nobr></ins><center id='LyXmjODO'><person></person></center>
          <abbr id='PJg'><pre></pre></abbr><span id='kGfqS'><blockquote></blockquote></span><small id='Eh'><small></small></small><dfn></dfn>
            <center></center>
                <basefont id='dj'><legend></legend></basefont><dir id='RS'><sub></sub></dir>
                <blink></blink>
                <caption id='iYqW'><person></person></caption>
                  <del id='fmap'><acronym></acronym></del><tt id='CNSQ'><caption></caption></tt>