bert作为当代NLP的基石型模型,熟练掌握是至关重要的。笔者阅读了很多大牛的代码,发现很多内容过于反锁,考虑的范畴与功能也非常的复杂,本着让更多小伙伴能通过代码直击bert精髓因此自己一行行纯手工敲出这个项目,尽可能做到的是纯粹。
因为roberta和bert极其相似,因此这里顺便给出了两种训练模式,其主要区别就是预训练数据的区别。此外,考虑到应用场景,此处bert也放弃了NSP任务,大家阅读时可注意。
欢迎star,目前本功能支持"错别字的检测"和"NER"的功能。
如果不加载预训练模型:
如果不加载预训练模型:
如果加载预训练模型:
本项目有两点值得一提:
欢迎大家留言了。