科技猎
立即注册,自主定制私人频道
nlp训练
本页是关于频道"nlp训练"的所有博文,按照时间倒序展现。实时更新。
总数
8
第
1/1
页
在预训练NLP模型上测量性别相关性
雷锋网
•
4年前
译者:AI研习社( 季一帆 ) 双语原文链接: https://www.yanxishe.com/TextTranslation/2944 作者:谷歌研究院软件工程师Kellie Webster 在过去的几年中,
【重磅AI课程】京东NLP企业项目实战训练营
砍柴网
•
4年前
基于先进的AI技术和强大项目实战能力,为培养更多专业人工智能人才,京东经过长时间打磨面向大众学员推出“真企业级项目实战训练营”,让每一位学员切切实实接触到企业级的AI项目资源,从实战中提升自己。京东NLP企业项目实战训练营首期班正式定档啦,6月1日不见不散!一门专注于培养行业TOP10%NLP工程师的高级课程,已收录:
完胜 BERT,谷歌最佳 NLP 预训练模型开源
雷锋网
•
4年前
雷锋网(公众号:雷锋网) AI 源创评论按: 近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow 之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时,训练双向模型。 并且,在同等计算资源的情况
华为开源预训练语言模型「哪吒」:编码、掩码升级,提升多项中文 NLP 任务性能!
雷锋网
•
5年前
雷锋网 AI 开发者按: 一个月前,在「AICon 全球人工智能与机器学习技术大会」上,华为诺亚方舟实验首席科学家刘群刚分享了新发布的中文预训练语言模型 NEZHA(哪吒);就在这两天,NEZHA 已在 Github 上开源,同时开源的还有压缩 BERT 模型「TinyBERT」,它在推理时大小可缩小 7.5
NLP领域预训练模型的现状及分析
雷锋网
•
5年前
作者 | 王泽洋单位 | 小牛翻译王泽洋 东北大学自然语言处理实验室研究生,研究方向为机器翻译。小牛翻译,核心成员来自东北大学自然语言处理实验室,由姚天顺教授创建于1980年,现由朱靖波教授、肖桐博士领导,长期从事计算语言学的相关研究工作,主要包括机器翻译、语言分析、文本挖掘等。团队研发的支持140种语言互译的小牛翻
百度发布 NLP 预训练模型 ERNIE,多项中文 NLP 任务超越谷歌 BERT
雷锋网
•
5年前
雷锋网(公众号:雷锋网) AI 科技评论按,NLP(自然语言处理)被誉为人工智能「皇冠上的明珠」,其发展备受学术和产业界关注,而今 NLP 领域再次迎来重大突破。2019 年 3 月,百度提出知识增强的语义表示模型 ERNIE(Enhanced Representation from kNowledge Int
谷歌官宣:全面超越人类的最强NLP预训练模型BERT开源了!
IT思维
•
6年前
公众号/AI前线来源 | Google Research GitHub编译 | 无明、Natalie编辑 | NatalieAI 前线导读: 近日,谷歌 AI 的一篇 NLP 论文引起了社区极大的关注与讨论,被认为是 NLP 领域的极大突破。谷歌大脑研究科学家 Thang Luong Twitter 表示,这
ImageNet 带来的预训练模型之风,马上要吹进 NLP 领域了
雷锋网
•
6年前
雷锋网 AI 科技评论按:对于计算机视觉领域的研究人员、产品开发人员来说,在 ImageNet 上预训练模型然后再用自己的任务专用数据训练模型已经成了惯例。但是自然语言处理领域的研究人员和开发人员们似乎并不是这样做的 —— 等等,也许 NLP 领域的「ImageNet 时代」马上就要带来了。 本文的作者是 Se
提交建议
微信扫一扫,分享给好友吧。