科技猎
立即注册,自主定制私人频道
神经语言
本页是关于频道"神经语言"的所有博文,按照时间倒序展现。实时更新。
总数
21
第
1/3
页
用C语言从头开始实现一个神经网络
雷锋网
•
4年前
字幕组双语原文: 用C从头实现神经网络 英语原文: Building Neural Network Framework in C using Backpropagation 翻译:雷锋字幕组( Mr.水方子 ) 在本文中,我们将用
戴上这种神经刺激耳塞,学习第二语言 so easy
钛媒体
•
4年前
戴上这种神经刺激耳塞,学习第二语言 so easy学术头条 · 刚刚微信扫码1科学家开发出一种类似耳塞的电极,能不知不觉地刺激通向大脑的关键神经,显著提高佩戴者学习新语言语音的能力。文 | 学术头条用于癫痫等疾病的迷走神经刺激治疗方法已有 20 多年的时间,但它通常是以植入电极的手术方式出现,以便电极直接与颈部神经接
Google翻译应用程序的离线神经机器翻译已支持59种语言
移动新媒体
•
6年前
IDC评述网(idcps.com) 06 月 13 日报道:据外媒Techcrunch报道,目前,当iOS和Android版Google翻译应用联网后,其翻译质量远远优于离线时的翻译质量。这是因为离线翻译是基于短语的,这意味着它们使用的是旧版机器翻译技术,而不是联网时可以访问的机器学习驱动的系统。但这种况正在改变。Go
如何加速神经语言模型训练?东北大学小牛翻译团队有妙招
雷锋网
•
7年前
雷锋网(公众号:雷锋网) AI科技评论按:本文为东北大学自然语言处理实验室(小牛翻译团队)成员肖桐、李垠桥为雷锋网AI科技评论撰写的独家稿件,得到了其指点和审核,雷锋网在此表示感谢。 团队简介:东北大学自然语言处理实验室(小牛翻译团队)由姚天顺教授于1980年创立,长期从事机器翻译及语言分析方面的研究。小
使用TENSORFLOW训练循环神经网络语言模型-36大数据
36大数据
•
7年前
读了将近一个下午的 TensorFlow Recurrent Neural Network 教程,翻看其在 PTB 上的实现,感觉晦涩难懂,因此参考了部分代码,自己写了一个简化版的Language Model,思路借鉴了Keras的 LSTM text generati
苹果机器学习期刊「Siri 三部曲」之一:通过跨带宽和跨语言初始化提升神经网络声学模型-36大数据
36大数据
•
7年前
近日,苹果 Siri 团队在苹果机器学习期刊上连发三文:《Improving Neural Network Acoustic Models by Cross-bandwidth and Cross-lingual Initialization》、《Inverse Text Normalization as a Labe
微软RobustFill:无需编程语言,让神经网络自动生成程序
36大数据
•
7年前
在过去几十年中,计算机科学有了长足的发展,但人们编写计算机软件的过程却没有发生根本的改变——程序员必须使用特定的程序语言一步步手工编写程序的精确算法逻辑。尽管编程语言近年来正在变得越来越友好,但这项工作仍然是绝大多数计算机用户未曾接触的事物。在最近的一项研究中,微软发布了自己的深度学习程序生成研究。在该研究中,深度神经
谷歌是在炒作么?大牛详解神经网络算法为什么不适合自然语言处理
IT思维
•
8年前
文/恒亮谷歌在2016年发布了全新的神经机器翻译系统(GNMT),并表示由于神经网络算法的介入,该系统相比传统机器翻译降低了80%的错误率,已接近人工翻译的水平。但对于谷歌的这项发布,以及神经网络(或者深度学习)算法是否真的适合自然语言处理,业内存在着不同的看法。日前美国AI公司exClone创始人,超导材料公司Epo
Facebook提出门控卷积神经网络的语言建模
网易科技
•
8年前
目前语言建模的主要方法都是基于循环神经网络的。在本研究中,我们提出了一种使用卷积方式处理的语言建模方式。我们引入了一种新的门控机制,可以缓和梯度传播,它的表现比LSTM方式的门控(Oord等人,2016)更加优秀。我们的方法在WikiText-103上创造了新的最高纪录,同时我们也在Google Billion Wor
学界 | 并行运算,Facebook提出门控卷积神经网络的语言建模
搜狐科技
•
8年前
选自arxiv.org机器之心编译参与:李泽南 摘要 目前语言建模的主要方法都是基于循环神经网络的。在本研究中,我们提出了一种使用卷积方式处理的语言建模方式。我们引入了一种新的门控机制,可以缓和梯度传播,它的表现比 LSTM 方式的门控(Oord 等人
提交建议
微信扫一扫,分享给好友吧。