-
【多轮对话】多轮对话状态追踪技术综述
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:任务型多轮对话数据集和采集方法
百川NLP 2023-01-02461 0 0 -
Bert不完全手册2. Bert不能做NLG?MASS/UNILM/BART
Bert通过双向LM处理语言理解问题,GPT则通过单向LM解决生成问题,那如果既想拥有BERT的双向理解能力,又想做生成嘞?成年人才不要做选择!这类需求,主要包...
风雨中的小七 2023-01-02478 0 0 -
Bert不完全手册3. Bert训练策略优化!RoBERTa & SpanBERT
之前看过一条评论说Bert提出了很好的双向语言模型的预训练以及下游迁移的框架,但是它提出的各种训练方式槽点较多,或多或少都有优化的空间。这一章就训练方案的改良,...
风雨中的小七 2023-01-02467 0 0 -
Bert不完全手册1. Bert推理太慢?模型蒸馏
模型蒸馏的目标主要用于模型的线上部署,解决Bert太大,推理太慢的问题。因此用一个小模型去逼近大模型的效果,实现的方式一般是Teacher-Stuent框架,先...
风雨中的小七 2023-01-02466 0 0 -
Bert不完全手册5. 推理提速?训练提速!内存压缩!Albert
Albert是A Lite Bert的缩写,确实Albert通过词向量矩阵分解,以及transformer block的参数共享,大大降低了Bert的参数量级。...
风雨中的小七 2023-01-02468 0 0 -
Fine-tuning过时啦,NLG生成任务如何Tuning?
Fine-tuning范式大家肯定都再熟悉不过,微调所有语言模型参数,而从gpt3出现之后提出的in-context learning,还是越来越火的promp...
百川NLP 2023-01-02450 0 0 -
【评论生成】AI生成评论,如何既相关又多样?
当前开放域的评论生成常常产生重复且无趣的回复。作者认为原因是直接使用真实用户评论会带入大量的噪音,比如同一篇文章会有多个、且可能相互矛盾的评论,并且由于检索方法...
百川NLP 2023-01-02447 0 0 -
收好61个前端热词清单,成为跟上潮流的前端仔
不,我们不是在谈论世界上所有美好的、巧克力的和含糖的东西的来源...。 它是由互联网服务器发送至浏览器的数据。每次浏览器访问同一台服务器时,它都会将数据发送回来...
智影Yodonicc 2023-01-02460 0 0 -
小样本利器1.半监督一致性正则 Temporal Ensemble & Mean Teacher代码实现
这个系列我们用现实中经常碰到的小样本问题来串联半监督,文本对抗,文本增强等模型优化方案。小样本的核心在于如何在有限的标注样本上,最大化模型的泛化能力,让模型对u...
风雨中的小七 2023-01-02457 0 0 -
论文领读|缺少有标注的数据集怎么训练文本检索模型?来看看 LaPraDoR怎么做的吧
欢迎来到「澜舟NLP论文领读」专栏!快乐研究,当然从研读 paper 开始——澜舟科技团队注重欢乐的前沿技术探索,希望通过全新专栏和大家共同探索人工智能奥秘、交...
澜舟科技 2023-01-02459 0 0