-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
大噶好啊! #1
Comments
找到这么一个组织,好像是(前)学生网的人 :D |
阔以啊hhh |
@FengZiYjun 你好,请问这个中文分词算法对应的论文实验结果你还原出来了么,=。= 我测得PKU和MSR的和标准分割对比得出的F1值分别是79和75,跟作者的差好多 |
@xiaozhewen 你好,是可以重现的,否则我也不会用来做其他实验。我没有记录当时的结果,但不会差很远。 |
@FengZiYjun 你好,谢谢回复。目前我发现的问题是这样的:
1、但是,test(cws,dev_file,'../result/dev_result%d'%(eidx+1)),测试文件dev_file是../data/pku_test文件,这个pku_test是已经分词的,test函数输出分词结果保存为../result/dev_result%d'%(eidx+1),然后运行score评分脚本,=== F MEASURE: 0.951 是分词结果和pku_test对比得出。 2、分词结果和标准分割icwb2-data/gold/pku_test_gold.utf8 对比=== F MEASURE: 0.843 3、运行test模式,load最好的模型,测试文件为未分词的icwb2-data/testing/pku_test.utf8,得出的分词结果和标准分割icwb2-data/gold/pku_test_gold.utf8对比是F值是79。 这是我疑惑的地方,是不是1中得出的评分结果有失偏颇,因为一是使用已分词的文本pku_test做测试,二是使用这个已分词文本作为标准分割。 很想和你详聊,不介意的话加下我QQ可好:928371104 |
在github上造个fudan组织是挺不错的,感谢发起者。为了方便大家互相了解,我们不如就用issue系统当作论坛好了,所以就建立了这么一个repo。
我先自我介绍一下,我是16级计算机本科生,我叫胡志峰,请大家多多指教!
The text was updated successfully, but these errors were encountered: