Skip to content

AngryDisk/QQGroupStatisitic

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 

Repository files navigation

这是一个对QQ群聊记录进行统计的小东西

起因是群友在讨论,谁说过最多的词汇,后来我想,用程序实现一下,顺便练习下分词相关内容。

分词使用的是NLPChina提供的开源Jar包,在此表示感谢。

使用方式

  1. 以txt格式导出群聊记录,把群聊记录配置到程序上
  2. 把认识的人,添加到初始化map中。
  3. 跑程序,需要改什么直接改,结果控制台输出。

其实是一个很简单的小东西,但是我做了很久,一方面是正则不熟,一方面是看分词如何使用,还有一方面是新ide不会用

正则倒是没什么,会了之后,接下来都很快了。

分词一时半会也处理不了。一方面是数学水平不行,另一方面是没有字典。

坦诚将,跟了下分词的断点,效果不算是奇差,但是没想象的好了。

基本无法准确分词,错误率有多少不清楚,但是在实际使用上,基本就没办法靠这个做统计了。

分出来的效果就相当于,英语中最常用的那几千个词,基本没法用。

本来还想整理下代码再放出来的,现在心灰意冷,把敏感信息删掉就放出来了。。。

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages