科技猎
立即注册,自主定制私人频道
神经计算
本页是关于频道"神经计算"的所有博文,按照时间倒序展现。实时更新。
总数
73
第
1/8
页
微美全息基于深度学习和神经网络开发高效的计算机生成全息技术
砍柴网
•
1年前
数字全息技术是一种基于干涉和衍射的物体波的记录和回放技术。然而,由于光学干扰容易受到环境的影响,记录过程总是受到许多因素的影响。计算机生成全息(CGH)技术是一种通过编码相干光波前的强度或相位来获得自定义光场分布的光场调制技术。对于仅相位计算全息,可以实现显示的图像,而不受孪生图像的干扰。空间光调制器(SLM)技术及超
Michael Bronstein从代数拓扑学取经,提出了一种新的图神经网络计算结构!
雷锋网
•
2年前
图形神经网络(GNNs)通常将其计算图与输入图的结构相一致。但是,图是 GNN 的正确计算结构吗?最近的一系列论文挑战了这一假设,用来自代数拓扑学领域的更普遍的对象取代了图,这提供了多种理论和计算优势。作者 | Michael Bronstein等人编译 | 黄楠 、bingo编辑 | 陈彩娴本文由Cristian B
NTT相干量子计算最新研究成果:基于物理直接演算的深度学习神经网络(PNN)
砍柴网
•
2年前
(图片来源:网络) 近日,日本NTT的子公司NTT Research和康奈尔大学联合宣布,双方科学家在相干量子计算(CIM)的基础上,联合研发出了一种算法, 该算法将深度神经网络训练应用于可控物理系统,并在三种非常规硬件上进行了展示。 该团队在期刊Nature(自然)上发表了一篇题为《Deep
计算机科学家证明,为什么更大的神经网络可以做得更好
IT思维
•
2年前
公众号/ ScienceAI(ID:Philosophyai) 编辑 | 萝卜皮我们的物种很大程度上归功于对生的拇指。但如果进化给了我们额外的拇指,事情可能不会有太大改善。每只手一个拇指就足够了。神经网络并非如此,这是执行类人任务的领先人工智能系统。随着他们变得更大,他们已经掌握
奇客 计算机科学家证明为什么更大的神经网络表现更好
奇客资讯
•
2年前
人类多亏有对生拇指。但就算演化给了我们更多的拇指,情况也不会有太大的改善。每只手有一个拇指就足够了。神经网络不是这样,神经网络是执行类人任务的先进人工智能系统。随着它们变得更大,它们就能掌握更多。这会让旁观者大吃一惊。基本的数学结果表明,网络应该只需要这么大,但是现代神经网络的规模通常会远超出预测的需求—
将储层计算与统计预测和深度神经网络连接起来
IT思维
•
2年前
公众号/ ScienceAI(ID:Philosophyai) 编辑/绿萝 在现有的机器学习框架中,储层计算(Reservoir Computing)展示了快速、低成本的训练,并适用于各种物理系统。该评论报告了如何将储层计算的各个方面应用于经典预测方法,以加速学习过程,并
采用Intel 4制程,Loihi 2神经拟态计算芯片神经元最多达100万个
雷锋网
•
3年前
雷锋网(公众号:雷锋网) 消息,英特尔今天推出第二代神经拟态研究芯片Loihi 2,每个芯片最多有100万个神经元。 Loihi2采用了预生产版本的Intel 4制程节点,Loihi则采用英特尔14nm工艺,与以往的制程技术相比,Intel 4制程节点采用的极紫外光刻(EUV)技术简化了布局设计规则,使L
奇客 神经元的计算复杂度有多高
奇客资讯
•
3年前
与精巧犀利的计算机芯片相比,人类大脑确实是字面意义上的“一团浆糊”。但科学家一直在二者之间进行比较。正如图灵在 1952 年所言,“我们对大脑呈现出「浆糊」态这样的事实并不感兴趣。”换句话说,媒介如何不重要,计算能力才是重点。如今最强大的 AI 系统采用一种名为深度学习的机器学习算法,能通过互
一个大脑神经元相当于5到8层人工神经网络?生物神经元计算复杂度可能远远不止于此
雷锋网
•
3年前
虽然我们糊状的大脑似乎与计算机处理器中的芯片大相径庭,但科学家对两者的比较已经有很长的历史。正如阿兰·图灵在1952年所说:“我们对大脑像冷粥一样的稠度不感兴趣。”也就是说,媒介并不重要,重要的是计算能力。如今,最强大的人工智能系统使用基于深度学习的机器学习方法,该算法通过调整大量的数据隐藏层相互连接的节点来拟合数据,
华为公开“一种神经网络计算芯片”专利
砍柴网
•
3年前
据企查查APP显示,近日,华为技术有限公司公开“一种神经网络计算芯片及计算方法”专利,公开号为CN112686364A,企查查专利摘要显示,本专利涉一种神经网络计算芯片及计算方法,该计算芯片包括平移电路和计算电路,通过平移电路对输入数据进行处理后,使得输入到计算电路中的数据的每个元素的取值都不是负数,满足计算电路中对输
提交建议
微信扫一扫,分享给好友吧。