- 文中代码见 GitHub Gist 或者使用 nbviewer 查看
- 本文同步发表在sklearn 如何计算 TFIDF · Lee’s Space Station
什么是 TFIDF
简单来说,在一个文档集中,TFIDF 反映了一个词在一篇文档中的重要程度,或者说这个词在这篇文档中具有多大的「标志性」。我们可以用其作为每个词的权重进而通过计算余弦相似度来比较两篇文档的相似性。
TFIDF 是由 TF 和 IDF 的乘积得到的:
其中, 表示词项, 表示文档, 表示所有 组成的文档集。这其中 和 各自都有多种不同的计算方式,下面分别来说下。
tf 指的是 term frequency,即一个词在一篇文档中出现的次数,最原始的计算方式就是直接统计词项 在文档 中出现的次数,我们将其记为 。除此之外,还有其他计算方式:
- 二值:如果词项 在文档 中出现,则为 1,否则为 0。此时 的取值范围为
- 词项频率:即词项 的频数(次数)除以文档 的总词数,此时 的取值范围为
- 对数化(log normalization):此时 的取值范围为
- 双重标准化 0.5(double normalization 0.5):就是让原本的 除以文档 中词频最高的词项的频数,这样做是为了避免偏向长文档。此时 的取值范围为
- 双重标准化 K(double normalization K):就是将上面方法中的 换成更为一般的 。此时 的取值范围为
idf 指的是 inverse document frequency,即逆文档频率,衡量一个词项能提供多少信息,如它在文档集 中比较普遍还是比较少见。一般来说,是由文档集 中的文档数 ,除以包含词项 的文档数 ,然后再取对数得到:
其中 。此时取值范围为
除此之外,还有其他计算方式:
- 一元化(unary):即恒为 1,这也就意味着所有词项都不能提供有效信息
- 平滑的逆文档频率(inverse document frequency smooth):这是为了避免由于词项 没有出现在文档集中而发生的除零错误。此时 的取值范围为
- inverse document frequency max(这个中文不太好翻 ?):对于文档 中的词项 ,逐个计算他们的 ,并选其中的最大值来替换
- 概率逆文档频率(probabilistic inverse document frequency):还是对 替换,这次是替换为
sklearn 中如何计算
sklearn 中计算 tfidf 的函数是 TfidfTransformer
和 TfidfVectorizer
,严格来说后者 = CountVectorizer
+ TfidfTransformer
。TfidfTransformer
和 TfidfVectorizer
有一些共同的参数,这些参数的不同影响了 tfidf 的计算方式:
norm
:归一化,l1
、l2
(默认值)或者None
。l1
是向量中每个值除以所有值的绝对值的和()1-范数,l2
是向量中每个值除以所有值的平方开根号(2-范数),即对于l1
:
对于l2
:
use_idf
:bool
,默认True
,是否使用 idfsmooth_idf
:bool
,默认True
,是否平滑 idf,默认分子和分母 都+1,和上述任何一种都不一样,防止除零错误sublinear_tf
:bool
,默认False
,是否对 tf 使用 sublinear,即使用1 + log(tf)
来替换原始的 tf
所以,默认参数下(norm='l2', use_idf=True, smooth_idf=True, sublinear_tf=False
),sklearn 是这么计算 tfidf 的:
例子
手算
我们以如下文档集 为例,列表中每个元素是一篇文档,共有 篇文档,使用 jieba 分好词:
documents = [
"低头亲吻我的左手", # 文档 1
"换取被宽恕的承诺", # 文档 2
"老旧管风琴在角落", # 文档 3
"一直一直一直伴奏", # 文档 4
]
documents = [" ".join(jieba.cut(item)) for item in documents]
# ['低头 亲吻 我 的 左手',
# '换取 被 宽恕 的 承诺',
# '老旧 管风琴 在 角落',
# '一直 一直 一直 伴奏']
我们的词汇表如下,顺序无关:
一直 亲吻 伴奏 低头 在 宽恕 左手 我 承诺 换取 的 管风琴 老旧 被 角落
现在我们可以首先计算所有词的 idf,以第一个词 一直
为例:
这里的 为自然对数, 为底。
其实除了 的
,其他所有词的 idf 都是
,因为都只出现在一篇文档里。
以第一个词 一直
为例,来计算其 tfidf 值,按照上述 sklearn 的默认参数。其在前三篇文档中都未出现,即
,那么
。
最后一篇文档中,其出现了 3 次,则
,
。最后一篇剩下的词为 伴奏
,同理可计算其 tfidf 值为
,那么该文档的 tfidf 向量为
再经过2-范数归一化,得到
这就是文档 4 最终的 tfidf 向量了。
使用 sklearn 计算
代码如下:
默认情况下 sklearn 会莫名其妙地去除掉一些停用词,即使
stop_words=None
,详细讨论参见 CountVectorizer can’t remain stop words in Chinese · Issue #10756 · scikit-learn/scikit-learn
import jieba
from sklearn.feature_extraction.text import TfidfTransformer, TfidfVectorizer, CountVectorizer
documents = [
"低头亲吻我的左手",
"换取被宽恕的承诺",
"老旧管风琴在角落",
"一直一直一直伴奏",
]
documents = [" ".join(jieba.cut(item)) for item in documents]
# 默认情况下 sklearn 会莫名其妙地去除掉一些停用词,即使 stop_words=None
# 详细讨论参见 https://github.com/scikit-learn/scikit-learn/issues/10756
vectorizer = TfidfVectorizer(token_pattern=r'(?u)\b\w+\b')
X = vectorizer.fit_transform(documents)
# 词汇表
print(' '.join(vectorizer.get_feature_names()))
# '一直 亲吻 伴奏 低头 在 宽恕 左手 我 承诺 换取 的 管风琴 老旧 被 角落'
# idf
print(vectorizer.idf_)
# array([1.91629073, 1.91629073, 1.91629073, 1.91629073, 1.91629073,
# 1.91629073, 1.91629073, 1.91629073, 1.91629073, 1.91629073,
# 1.51082562, 1.91629073, 1.91629073, 1.91629073, 1.91629073])
# tfidf
print(X.toarray())
# array([[0. , 0.46516193, 0. , 0.46516193, 0. ,
# 0. , 0.46516193, 0.46516193, 0. , 0. ,
# 0.36673901, 0. , 0. , 0. , 0. ],
# [0. , 0. , 0. , 0. , 0. ,
# 0.46516193, 0. , 0. , 0.46516193, 0.46516193,
# 0.36673901, 0. , 0. , 0.46516193, 0. ],
# [0. , 0. , 0. , 0. , 0.5 ,
# 0. , 0. , 0. , 0. , 0. ,
# 0. , 0.5 , 0.5 , 0. , 0.5 ],
# [0.9486833 , 0. , 0.31622777, 0. , 0. ,
# 0. , 0. , 0. , 0. , 0. ,
# 0. , 0. , 0. , 0. , 0. ]])
可以看到和我们手算的一样。
Reference
- tf–idf - Wikipedia
- Tf-idf :: A Single-Page Tutorial - Information Retrieval and Text Mining
- 5.2. Feature extraction — scikit-learn 0.21.3 documentation
- CountVectorizer can’t remain stop words in Chinese · Issue #10756 · scikit-learn/scikit-learn