分词,是按照特定的规范将汉语中连续的字序列切分为合理的词序列的过程;换句话说,它能够自动识别出文本的词,在词库中进行搜索匹配,根据匹配的结果在词间加入边界标记符(如“/ ”等),分隔出各个词组。
我们为什么需要用分词?
从左侧资源树的 文本分析 中拖拽 分词 节点到画布中,选择数据输入,配置分词的参数(词典、算法等),最后再按需输出数据,具体操作步骤请浏览以下内容。
本文采用示例数据源“深圳企业信息”作为输入。若是想使用其他数据来源,操作详情可参考输入数据
字段选择,支持用户选择需要分词的字段(仅限文本类型的数据)。
词典,用来满足用户根据不同专业领域制定不同的分词规范的需求,从而提高分词准确率。
名称 | 功能说明 | 生效范围 | 配置方式 |
---|---|---|---|
自定义词典 | 用户可以添加业务用词、新词(未被系统自带词典收录的),作为重新组合词序列的规范。 | 只为当前的分词节点使用。 | 用户可通过两种方式输入自定义词:
|
全局词典 | 在系统中所有实验中使用。 | 配置全局词典请参考引擎设置。 |
由于不同分词算法各有优劣,产品提供的分词算法可以满足用户根据不同的需求选用不同的算法。
算法名称 | 算法说明 | 应用场景 |
---|---|---|
Ansj | 可直接根据系统词库分出人名、机构等信息。但是多单词英文姓名无法分出。 | 适用于不使用自定义词典的场景。 |
Hanlp | 可分出多单词的英文名称。 | 词典数据可包含空格。 |
Jieba | 自定义分词方便。 |
如下图所示,分词是将 企业名称 进行分词,企业名称_seg为分词后的字符串型结果,企业名称_seg_words为分词后的WrappedArray类型结果。
注意事项
通过分词会输出array数据类型的字段列 "***seg_words" ,考虑到目前大部分目标数据库没有与之匹配的数据类型,因此,建议先通过 列选择 过滤掉array类型字段,或者先通过 元数据编辑 更改array数据类型为字符串,再导出到目标源。
请参考产品内置案例:“某政府单位疫情期间网民情绪识别” 和 “垃圾短信识别”。