该仓库主要记录 NLP 算法工程师相关的顶会论文研读笔记
作者:杨夕
介绍:研读顶会论文,复现论文相关代码
NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
搜索引擎 百面百搭 地址:https://github.com/km1994/search-engine-Interview-Notes 【编写ing】
NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
推荐系统论文学习笔记:https://github.com/km1994/RS_paper_study
GCN 论文学习笔记:https://github.com/km1994/GCN_study
推广搜 军火库:https://github.com/km1994/recommendation_advertisement_search
手机版笔记,可以关注公众号 【关于NLP那些你不知道的事】 获取,并加入 【NLP && 推荐学习群】一起学习!!!
注:github 网页版 看起来不舒服,可以加入 知识星球【关于AiGC那些你不知道的事】
所有文章已经搬到 【关于AiGC那些你不知道的事】,方便大家利用手机学习
【关于 Performer 】 那些你不知道的事 【推荐阅读】
A Survey on Long Text Modeling with Transformers
【关于Bert】 那些的你不知道的事:Bert论文研读
【关于 Perturbed Masking】那些你不知道的事
不同的输出结构使得很难对所有信息抽取任务统一化建模,这样就产生了三个问题:
【关于 PURE】 那些你不知道的事 【强烈推荐】
Incremental Joint Extraction of Entity Mentions and Relations
【关于 Label Semantics for Few Shot NER】 那些你不知道的事 【推荐理由:ACL2022 SOTA】
【关于 Few-Shot Named Entity Recognition】 那些你不知道的事
【关于 Continual Learning for NER】那些你不知道的事
【关于 LEX-BERT】 那些你不知道的事【强烈推荐】
【关于 嵌套命名实体识别(Nested NER)】那些你不知道的事
【关于DynamicArchitecture】 那些你不知道的事
其中 $G_k$ 为第k个图的GAN表示,因为是基于字符级的序列标注,所以解码时只关注字符,因此从矩阵中取出前n行作为最终的图编码层的输出。
【关于 基于逻辑规则的图谱推理 RNNLogic 】 那些你不知道的事
【关于 Robust Industry-scale Question Answering System】 那些你不知道的事
LSTM-based Deep Learning Models for Non-factoid Answer Selection
【关于 Denoising Distantly Supervised ODQA】那些你不知道的事
FAQ retrieval using query-question similarity and BERT-based query-answer relevance
例如:对于$[sent_1,sent_2,sent_3,sent_4,sent_5]$,我们将分配[E_A,E_B,E_A,E_B,E_A] $sent_i$ 由向量 $T_i$ 表示,$T_i$是来自顶部BERT层的第$i$个[CLS]符号的向量。
【关于 Knowledge in TextCNN】那些你不知道的事
【关于 PLM for Web-scale Retrieval in Baidu Search 】 那些你不知道的事
GCN 介绍篇
GCN 三剑客
经典篇
预训练篇
实战篇
Top 3 Sponsors
Time | Sponsor | Amount |
---|---|---|
2021/3/25 | 林* | 500 |
2022/6/24 | 李* | 200 |
这原本是个人的一个学习项目,我们原本计划编写到1.0为止。但是由于 这个项目 帮助到了 社区里面很多 nlper 超过了我们的想象。如果您愿意赞助我们的项目,可以
扫描这个二维码
并且加这个支付宝账号,留下您的姓名
项目的资金流向将被公开,所有的资金将被用于该学习项目的开支。我们会总结在sponsorship的表格中。备用链接 二维码 , 支付宝账号