科技猎
立即注册,自主定制私人频道
bert模型
本页是关于频道"bert模型"的所有博文,按照时间倒序展现。实时更新。
总数
19
第
1/2
页
基于bert预训练模型的大规模不均衡样本文本分类问题的解决方案
产品壹佰
•
3年前
第五届“达观杯”自然语言处理算法竞赛——基于大规模预训练模型的风险事件标签识别已于10月中旬在第十届CCF自然语言处理与中文计算国际会议现场落下帷幕。 本届大赛达观数据提供了72G、上亿条通用领域经过脱敏的资讯信息用来支持预训练模型。训练集有14009条样本,数据来自于金融、政务、军事等多个领域,不均匀分布在3
NLP之文本分类:「Tf-Idf、Word2Vec和BERT」三种模型比较
雷锋网
•
4年前
字幕组双语原文: NLP之文本分类:「Tf-Idf、Word2Vec和BERT」三种模型比较 英语原文: Text Classification with NLP: Tf-Idf vs Word2Vec vs BERT 翻译:雷锋字幕组(
ELECTRA中文预训练模型开源,仅1/10参数量,性能依旧媲美BERT
雷锋网
•
4年前
在去年11月份,NLP大神Manning联合谷歌做的ELECTRA一经发布,迅速火爆整个NLP圈,其中ELECTRA-small模型参数量仅为 BERT-base模型的1/10,性能却依然能与BERT、RoBERTa等模型相媲美。 在前不久,谷歌终于开源了ELECTRA,并发布了预训练模型,这对于缺大算力的高校
完胜 BERT,谷歌最佳 NLP 预训练模型开源
雷锋网
•
4年前
雷锋网(公众号:雷锋网) AI 源创评论按: 近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow 之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时,训练双向模型。 并且,在同等计算资源的情况
所有你要知道的 BERT 模型压缩方法,都在这里!
雷锋网
•
4年前
模型压缩可减少受训神经网络的冗余,由于几乎没有 BERT 或者 BERT-Large 模型可直接在 GPU 及智能手机上应用,因此模型压缩方法对于 BERT 的未来的应用前景而言,非常有价值。软件工程师 Mitchell A. Gordon 在本文中总结了所有的 BERT 压缩模型的方法,并对该领域的论文进行罗列及分类
加速BERT模型有多少种方法?从架构优化、模型压缩到模型蒸馏,最新进展详解!
雷锋网
•
5年前
原文作者:Grigory Sapunov翻译:Camel原文标题:Speeding up BERT 原文链接: https://blog.inten.to/speeding-up-bert-5528e18bb4ea 雷锋网AI科技评论按:BERT 在 NLP 领域的地位正如 ResNet 在 C
谷歌发布含 7 种语言的全新数据集:有效提升 BERT 等多语言模型任务精度高达 3 倍!
雷锋网
•
5年前
雷锋网(公众号:雷锋网) AI 开发者按: 近日,谷歌发布了包含 7 种语言释义对的全新数据集,即:PAWS 与 PAWS-X。BERT 通过该数据集的训练,在释义对问题上的精度实现了约为 3 倍的提升;其它先进的模型也能够利用该数据集将精度提高到 85-90%。谷歌希望这些数据集将有助
BERT+Transformer或可成为NLP领域的大一统模型?
IT思维
•
5年前
公众号/AI前线作者 | Clara Deng采访嘉宾 | 张俊林编辑 | NatalieAI 前线导读:NLP 是人工智能中最难的问题之一,对它的研究与落地充满了挑战性。预训练模型 BERT 的出现给自然语言处理领域带来了里程碑式的改变。我们采访了新浪微博机器学习团队 AI Lab 负责人张俊林老师,他推测,BERT
百度开源自然语言理解模型 ERNIE 2.0,16 个 NLP 任务中碾压 BERT 和 XLNet!
雷锋网
•
5年前
雷锋网(公众号:雷锋网) AI 科技评论按: 7 月 30 日,百度发布了 ERNIE(Enhanced Representation through kNowledge IntEgration)的优化版本——ERNIE 2.0 自然语言理解框架。这个中英文对话的 AI 框架不仅获得了最
超越 BERT 和 GPT,微软亚洲研究院开源新模型 MASS!
雷锋网
•
5年前
雷锋网 AI 科技评论按: 自 2018 年以来,预训练无疑是自然语言处理(NLP)领域中最热门的研究课题之一。通过利用 BERT、GPT 和 XLNet 等通用语言模型,该领域的研究者们在自然语言理解方面已经取得了许多重大的突破。然而,对于序列到序列的自然语言生成任务,这些主流的预训练方法并没有带来显著的改进
提交建议
微信扫一扫,分享给好友吧。