fuzzywuzzy库是Python中的模糊匹配库,它依据 Levenshtein Distance 算法 计算两个序列之间的差异。
Levenshtein Distance算法,又叫Edit Distance算法,是指两个字符串之间,由一个转成另一个所需的最少编辑操作次数。许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。一般来说,编辑距离越小,两个串的相似度越大。
项目地址:https://github.com/seatgeek/fuzzywuzzy
安装
使用 PIP 通过 PyPI 安装
pip install fuzzywuzzy
用法
>>> from fuzzywuzzy import fuzz >>> from fuzzywuzzy import process
简单匹配(Simple Ratio)
>>> fuzz.ratio("this is a test", "this is a test!") 97
非完全匹配(Partial Ratio)
>>> fuzz.partial_ratio("this is a test", "this is a test!") 100
忽略顺序匹配(Token Sort Ratio)
>>> fuzz.ratio("fuzzy wuzzy was a bear", "wuzzy fuzzy was a bear") 91
>>> fuzz.token_sort_ratio("fuzzy wuzzy was a bear", "wuzzy fuzzy was a bear") 100
去重子集匹配(Token Set Ratio)
>>> fuzz.token_sort_ratio("fuzzy was a bear", "fuzzy fuzzy was a bear") 84
>>> fuzz.token_set_ratio("fuzzy was a bear", "fuzzy fuzzy was a bear") 100
Process
用来返回模糊匹配的字符串和相似度,以下的例子就返回了分数最高的两个和一个字符串。
>>> choices = ["Atlanta Falcons", "New York Jets", "New York Giants", "Dallas Cowboys"]
>>> process.extract("new york jets", choices, limit=2) [('New York Jets', 100), ('New York Giants', 78)]
>>> process.extractOne("cowboys", choices) ("Dallas Cowboys", 90)
你可以传入附加参数到extractOne方法来设置使用特定的匹配模式并返回和目标匹配的字符串相似度最高的字符串。
>>> process.extractOne("System of a down - Hypnotize - Heroin", songs)
('/music/library/good/System of a Down/2005 - Hypnotize/01 - Attack.mp3', 86)
>>> process.extractOne("System of a down - Hypnotize - Heroin", songs, scorer=fuzz.token_sort_ratio)
("/music/library/good/System of a Down/2005 - Hypnotize/10 - She's Like Heroin.mp3", 61
以下为实例部分:
需要将rawdata sheet中的信息与addcode中的信息进行匹配,其中caname为大类,只有大类相同才可以进行匹配。

sp_code为rawdata 表中的主键,因此我们直接将主键匹配到结果中
代码如下:
from
fuzzywuzzy
import
fuzz
from
fuzzywuzzy
import
process
import
pandas
as
pd
#将需要匹配的列表放入dataframe中并将需要匹配的信息拼起来
file_path=
r
"fuzzywuzzy test data
.
xlsx"
sp_rawdata=
pd.
read_excel(
file_path,
sheet_name=
'rawdata',
index_col=
'sp_code')
sp_rawdata[
'text']=
sp_rawdata[
'sp_webiste']+
sp_rawdata[
'sp_channel']+
sp_rawdata[
'sp_position']+
sp_rawdata[
'sp_format']
tr_rawdata=
pd.
read_excel(
file_path,
sheet_name=
'addcode')
tr_rawdata[
'text']=
tr_rawdata[
'tr_Website']+
tr_rawdata[
'tr_Position_Channel']+
tr_rawdata[
'tr_Format']
#获取dataframe中cacode所有的去重后的值,并以列表的形式返回,即去重操作
sp_listtype=
sp_rawdata[
'cacode'].unique()
tr_listtype=
tr_rawdata[
'cacode'].
unique()
scorelist=[]
rawlist=[]
#df = pd.DataFrame(columns = ["cacode", "tr_campaign_name", "tr_Website", "tr_Position_Channel", "tr_Format"])
for
i
in
sp_listtype:
# isin()接受一个列表,判断该列中元素是否在列表中,再根据dataframe中的布尔索引进行筛选,类似的筛选函数还有 str.contains()
#在本例中,这个语句将cacode中属于1,2,3的dataframe拆分成三个列表,从而匹配两个dataframe时只会匹配cacode相同的信息
sp_data =
sp_rawdata[
sp_rawdata[
'cacode'].isin([
i])]
tr_data =
tr_rawdata[
tr_rawdata[
'cacode'].
isin([
i])]
#按行取dataframe中的值
for
row
in
tr_data.
itertuples():
rawlist.
append(
row)
for
text
in
tr_data[
'text']:
#忽略顺序匹配并取出匹配分数最高的值
score =
process.
extractOne(
str(
text),
sp_data[
'text'].astype(
str),
scorer=
fuzz.
token_sort_ratio)
scorelist.
append(
score)
#转换list为dataframe类型
scorecode=
pd.
DataFrame(
scorelist)
df=
pd.
DataFrame(
rawlist)
#修改转变后的dataframe的字段名称,注意这里0和1都不是字符串
scorecode=
scorecode.
rename(
columns={
0:
'sp-text',
1:
'score',
2:
"add_sp_code"})
#两个dataframe相连,axis: 需要合并链接的轴,0是行,1是列,这里按照列拼接
result=
pd.
concat([
df,
scorecode],
axis=
1)
result.
to_excel(
r
" fuzzy mapping result
.
xlsx",
index=
False)
源代码及数据文件,结果文件可点击https://github.com/smilecoc/smilecoc-fuzzywuzzy_test