💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
## python 文档相似度验证 ```python # coding=UTF-8 import time import os import sys import re import json import hashlib from Db import * import jieba from gensim import corpora,models,similarities reload(sys) sys.setdefaultencoding('utf-8') # 1. 名词与概念: # 文档: 字符串 # 词: 一个词语 # 集(合): 集合中的每个元素都是唯一的 # 分词列表: 结巴分词库返回的词列表(非集合,而是可能会有重复的词,这点很重要!!!) # 词袋: 可以看做是分词的集合 (不重复) # 语料库: 一个向量, 表示了词袋中的每个词 在 某个分词列表 中出现的频率(频率为0, 即没在分词列表中出现的词不计入向量) # 向量: [(a, b), ...] a:词, b:频率 (纯数学的概念是一组坐标值,这里是一个列表,每一项为一个元组,元组里面两个元素) # tip: 测试语料库 用来匹配的, 语料库 用来被匹配的, 相当于 搜索词 和 搜索源数据库 (d0 ~ d7 相当于表中的记录) # 要解决的问题: 得到 一个字符串 与 其它多条字符串 之间的相关性值 # 解决方式: 一个 分词列表 与 其它 多个分词列表 之间的相关性值(中间有计算 文档中每个词的TF-IDF值 等过程), 即最终得到与每个目标文档的相似度 # 分词列表 = jieba.cut(待分词的字符串 即文档) # 词袋 = corpora.Dictionary(分词列表的列表) # 语料库 = 词袋.doc2bow(分词列表) # ----- # 2. 参考: # 用Python进行简单的文本相似度分析_xiexf189的博客-CSDN博客_python 文本相似度 # https://blog.csdn.net/xiexf189/article/details/79092629 # 结巴分词 # https://github.com/fxsjy/jieba # 一文看懂 TF-IDF (概念图解+4大变种+发展历史) # https://easyai.tech/ai-definition/tf-idf/ # TF (Term Frequency)—— “单词频率” # IDF(Inverse Document Frequency)—— “逆文档频率” # ---- # 3. 流程总结: # 1. 对 d0 ~ d7 文档进行分词,得到 分词列表, 再组合成 "分词列表的列表" [['', ...], ...] # 2. 使用 "分词列表的列表" 生成 词袋, 即 词集合(每个词唯一了) # 3. 用 词袋 依次 和 每个 分词列表 来生成一个个 语料库 ,d0语料库, ... # 4. 将 生成的8个 语料库 组成一个 语料库列表 # 5. 对 语料库列表进行建模 tfidf模型 = model(语料库列表) # 6. ____^_^____第一阶段到这里可以告一段落,可以先休息一下,我们一会再继续 # 7. # 8. 对 t_doc 文档进行分词,得到 分词列表 # 9. 使用上面的 词袋 和 t_doc 的 分词列表 生成一个 t_doc语料库 (重点: 基于同一 词袋 生成的 语料库 之间才能进行相似性分析) # 10. 获取测试文档中,每个词的TF-IDF值, t_doc 的 TF-IDF值 = tfidf模型[t_doc语料库] (一个向量,表示了每个词的 TF-IDF值) # 11. 同理: d0 的 TF-IDF值 = tfidf模型[d0语料库] # 12. 语料库转化对象 = tfidf模型[语料库列表] (<gensim.interfaces.TransformedCorpus object at 0x0000000016715F60>) # 13. ____^_^____再休息一会,消化一下上面的东西 # 14. # 15. 回顾一下,现在我们有了: 词袋, 语料库列表[d0语料库, ...], tfidf模型 和 t_doc语料库, 每个文档 的 TF-IDF值, 语料库转化对象 # 16. 下面我们将利用这些已得到的东西, 来实现我们一开始的目标: 分析 t_doc 文档 与 每个目标文档 d0 ~ d7 之间的相似度 # 17. 得到 相似性对象 = similarities.SparseMatrixSimilarity(语料库转化对象, 词袋长度) (<gensim.similarities.docsim.SparseMatrixSimilarity object at 0x0000000016787FD0>) # 18. 答案 = 相似性对象[t_doc 的 TF-IDF值] <type 'numpy.ndarray'> 矩阵: (t_doc 与 d0 的相似度, ..., t_doc 与 d7 的相似度) # 19. 对 numpy.ndarray 结果进行排序: [(a, b), ...] a: 第几个文档, b: 相似度 # 20. 同理, d0 与 d0 ~ d7 的相似度 = 相似性对象[d0 的 TF-IDF值] # 21. 相似性对象[语料库转化对象] 得到 d0 与 d0 ~ d7, ..., d7 与 d0 ~ d7 的 相似度列表 [[...],...] # 22. 完, 建议多看几遍 # ========================================================== # 待进行分词的文档 doc0 = "我不喜欢上海" doc1 = "上海是一个好地方" doc2 = "北京是一个好地方" doc3 = "上海好吃的在哪里" doc4 = "上海好玩的在哪里" doc5 = "上海是好地方" doc6 = "上海路和上海人上海上海上海" doc7 = "喜欢小吃" # 将 d1 改成 '我喜欢上海,不喜欢吃' d0 和 d1 的相关性就达到了 0.65295446 (原来 0.011466), # 但其实二者表达的是完全相反的意思,所以这个相似性,仅仅只是文本的词频率比较, 而没有任何的语义解析处理 # 测试文档(判断这个文档与其它文档的相关性) # 用少文档 去匹配 多文档合成的分词库 doc_test = "我喜欢上海的小吃" # [(7, 0.70477605), (0, 0.54680777), (3, 0.17724207), (4, 0.17724207), (6, 0.030088982), (5, 0.013545224), (1, 0.010553493), (2, 0.0)] # doc_test = "可以看做是集合" # [(5, 0.5692461), (1, 0.4435168), (2, 0.32457215), (0, 0.0), (3, 0.0), (4, 0.0), (6, 0.0), (7, 0.0)] # doc_test = "可以看做集合" # [(0, 0.0), (1, 0.0), (2, 0.0), (3, 0.0), (4, 0.0), (5, 0.0), (6, 0.0), (7, 0.0)] all_doc = [] all_doc.append(doc0) all_doc.append(doc1) all_doc.append(doc2) all_doc.append(doc3) all_doc.append(doc4) all_doc.append(doc5) all_doc.append(doc6) all_doc.append(doc7) # 全部分词列表的列表 all_doc_list = [] for doc in all_doc: # 对每一个文档进行分词 # 默认使用了,精确分词模式 # 精确模式: 试图将句子最精确地切开,适合文本分析 # 只是将词切开,并不做词集合,这点很重要 doc_list = [word for word in jieba.cut(doc)] all_doc_list.append(doc_list) print all_doc_list # exit() # 制作语料库 # 使用全部分词列表的列表 制作词袋,每个词都是唯一的 dictionary = corpora.Dictionary(all_doc_list) for i,item in dictionary.items(): print i, item # exit() # print dictionary.keys() print dictionary.token2id # 使用 上一步生成的词袋 和 全部分词列表的列表 制作语料库列表(唯一的词袋 再与 文档的分词列表 生成语料库,即一组向量 ) # 语料库是一个向量,向量中的每个元素是一个二元组(编号、频次数),对应分词后的文档中的每一个词 # 语料库列表 corpus = [dictionary.doc2bow(doc) for doc in all_doc_list] # 向量列表 print corpus # exit() # tip: 将这些向量列表合并(词频累加),就能得出 之前的 分词文档列表集 中的词频 # 同理,现在也对 测试文档进行处理 # 现在对测试文档也进行分词 doc_test_list = [word for word in jieba.cut(doc_test)] print doc_test_list # 用 上面生成的词袋 和 测试文档分词列表 制作一个语料库 # 这里的关键是,制作语料库 使用的是 上面的词袋(搜索词集),这为后面计算相关性埋下伏笔 doc_test_vec = dictionary.doc2bow(doc_test_list) print doc_test_vec # doc_test_vec = dictionary.doc2bow(['上海1', '上海1', '湖北']) # print doc_test_vec # 相当于现在得到了 测试的分词列表 与 搜索词集 的 向量,即词频 # 但 也只是知道了 词频关系,还是无法得知 测试的分词列表 究竟与 哪个 文档 相关性最高 # exit() # 下面开始计算相关性 # 使用TF-IDF模型对语料库建模 (使用语料库列表进行建模) tfidf = models.TfidfModel(corpus) # 语料库模型 = models.TfidfModel(语料库列表) # TfidfModel(num_docs=8, num_nnz=34) <class 'gensim.models.tfidfmodel.TfidfModel'> print tfidf, type(tfidf) # 上面埋下的伏笔开始显现作用了:只有使用了相同的词袋生成的语料库之间才能够计算相似性 # 获取测试文档中,每个词的TF-IDF值 (使用测试语料库) # 值是一个向量: [(a, b), ...] a:词, b: TF-IDF值 doc_test_tfidf = tfidf[doc_test_vec] print doc_test_tfidf # 第一个文档中,每个词的TF-IDF值 (使用第一个文档的语料库) print tfidf[corpus[0]] # <gensim.interfaces.TransformedCorpus object at 0x0000000016715F60> print tfidf[corpus] # 对每个目标文档,分析测试文档的相似度 index = similarities.SparseMatrixSimilarity(tfidf[corpus], num_features=len(dictionary.keys())) # <gensim.similarities.docsim.SparseMatrixSimilarity object at 0x0000000016787FD0> print index # 测试语料库 与 每个 语料库 的相似度 sim = index[doc_test_tfidf] # <type 'numpy.ndarray'> print 'sim', sim, type(sim) # 第一个语料库 与 每个 语料库的相似度 print index[tfidf[corpus[0]]] # 全部语料库 与 语料库列表本身 的相似度列表 # 相当于 d0 与 d0 ~ d7, ..., d7 与 d0 ~ d7 的 相似度列表 [[...],...] print index[tfidf[corpus]] # 根据相似度排序 print sorted(enumerate(sim), key=lambda item: -item[1]) ``` last update: 2020-11-20 21:32:02