找出文章中的生词(配合anki使用)
pyinstaller
目前并不完善,对NLTK的支持有些问题(见stackoverflow、#2159), logger也无法正常地读取配置文件。总之对我来说打包体验极差,我已经在这上面浪费了较多的时间,所以打包exe无限期搁置,请尝试安装python
来使用这个工具。如果需要帮助可以加群询问。寒假期间我尽量出一个详尽的安装教程。
考研,忙,目前对它的升级都是为我自己服务的,所以很多东西不是通用的,也没有仔细地测试,所以,如果你并不会Python,暂时不推荐使用。
config
和new.txt
相关的命令行参数暂不可用before us:that from
会被分成before
、usthat
、from
。new.txt
放入article
文件夹中,运行find模式代码[Improve]
pytest
并连接CodeCov
[Features]
[Bug]
中途手动退出后,本次学习保存的新单词内容错误
的bug说明:中断恢复、过多生词自动切割这两个功能其实都是为了解决中途退出保存进度的问题,因此准备中途手动退出保存来解决这些问题
说明:有一些新的想法,为了节约时间,多config选择
不做开发了,可以通过每一个文件夹里面都放一份程序来实现。自定义config路径
功能暂时保留,用来实现多个文件夹共用一个config。
英语单词制卡工具
)./article
文件夹中old.txt
,同时也可以将新单词列出来,建议建立的时候挑选较短的文章,一篇一篇来find
模式批量查找生词[Improve]
中途手动退出后,本次学习保存的新单词内容错误
的bugq
只能退出一个文件的buggetch
无法跨平台问题pytest
并连接CodeCov
FAIDN
为FAIDK
:Ddecode
的问题linux
平台下getch
返回值为str
,因此没有decode
)new.txt
反复覆盖的bugnew.txt
是否保留的选择articles
中的文件没有自动移动到old_articles
的buglogging
替代print
/log/FAIDN.log
文件FAIDN.config
中的LEMMATIZATION_MODE
来修改模式,目前支持四种模式。这里需要感谢@ninja33
None
不做处理list
使用字典映射来词形还原。字典来自这里,里面共有条41760词条,如果文章中的单词不在此字典中,保持原样NLTK
both
先使用字典,后使用NLTK
old.txt
,其他应该不会造成什么损失old.txt
覆盖了的bug,它把我的词库弄没了。我希望没有给你们带来什么损失,毕竟并没有人来报bug。FAIDN.config
, 支持自定义目录