Skip to content

Instantly share code, notes, and snippets.

@2efPer
Created November 20, 2017 03:28
Show Gist options
  • Save 2efPer/8135d046a1c99dd3cd7d779745b30e89 to your computer and use it in GitHub Desktop.
Save 2efPer/8135d046a1c99dd3cd7d779745b30e89 to your computer and use it in GitHub Desktop.
convert sogou scel file to normal text file
# -*- coding: utf-8 -*-
import struct
import sys
import binascii
import pdb
#搜狗的scel词库就是保存的文本的unicode编码,每两个字节一个字符(中文汉字或者英文字母)
#找出其每部分的偏移位置即可
#主要两部分
#1.全局拼音表,貌似是所有的拼音组合,字典序
# 格式为(index,len,pinyin)的列表
# index: 两个字节的整数 代表这个拼音的索引
# len: 两个字节的整数 拼音的字节长度
# pinyin: 当前的拼音,每个字符两个字节,总长len
#
#2.汉语词组表
# 格式为(same,py_table_len,py_table,{word_len,word,ext_len,ext})的一个列表
# same: 两个字节 整数 同音词数量
# py_table_len: 两个字节 整数
# py_table: 整数列表,每个整数两个字节,每个整数代表一个拼音的索引
#
# word_len:两个字节 整数 代表中文词组字节数长度
# word: 中文词组,每个中文汉字两个字节,总长度word_len
# ext_len: 两个字节 整数 代表扩展信息的长度,好像都是10
# ext: 扩展信息 前两个字节是一个整数(不知道是不是词频) 后八个字节全是0
#
# {word_len,word,ext_len,ext} 一共重复same次 同音词 相同拼音表
#拼音表偏移,
startPy = 0x1540;
#汉语词组表偏移
startChinese = 0x2628;
#全局拼音表
GPy_Table ={}
#解析结果
#元组(词频,拼音,中文词组)的列表
GTable = []
def byte2str(data):
'''''将原始字节码转为字符串'''
i = 0;
length = len(data)
ret = u''
while i < length:
x = data[i] + data[i+1]
t = unichr(struct.unpack('H',x)[0])
if t == u'\r':
ret += u'\n'
elif t != u' ':
ret += t
i += 2
return ret
#获取拼音表
def getPyTable(data):
if data[0:4] != "\x9D\x01\x00\x00":
return None
data = data[4:]
pos = 0
length = len(data)
while pos < length:
index = struct.unpack('H',data[pos]+data[pos+1])[0]
#print index,
pos += 2
l = struct.unpack('H',data[pos]+data[pos+1])[0]
#print l,
pos += 2
py = byte2str(data[pos:pos+l])
#print py
GPy_Table[index]=py
pos += l
#获取一个词组的拼音
def getWordPy(data):
pos = 0
length = len(data)
ret = u''
while pos < length:
index = struct.unpack('H',data[pos]+data[pos+1])[0]
ret += GPy_Table[index]
pos += 2
return ret
#获取一个词组
def getWord(data):
pos = 0
length = len(data)
ret = u''
while pos < length:
index = struct.unpack('H',data[pos]+data[pos+1])[0]
ret += GPy_Table[index]
pos += 2
return ret
#读取中文表
def getChinese(data):
#import pdb
#pdb.set_trace()
pos = 0
length = len(data)
while pos < length:
#同音词数量
same = struct.unpack('H',data[pos]+data[pos+1])[0]
#print '[same]:',same,
#拼音索引表长度
pos += 2
py_table_len = struct.unpack('H',data[pos]+data[pos+1])[0]
#拼音索引表
pos += 2
py = getWordPy(data[pos: pos+py_table_len])
#中文词组
pos += py_table_len
for i in xrange(same):
#中文词组长度
c_len = struct.unpack('H',data[pos]+data[pos+1])[0]
#中文词组
pos += 2
word = byte2str(data[pos: pos + c_len])
#扩展数据长度
pos += c_len
ext_len = struct.unpack('H',data[pos]+data[pos+1])[0]
#词频
pos += 2
count = struct.unpack('H',data[pos]+data[pos+1])[0]
#保存
GTable.append((count,py,word))
#到下个词的偏移位置
pos += ext_len
def deal(file_name):
print '-'*60
f = open(file_name,'rb')
data = f.read()
f.close()
if data[0:12] !="\x40\x15\x00\x00\x44\x43\x53\x01\x01\x00\x00\x00":
print "确认你选择的是搜狗(.scel)词库?"
sys.exit(0)
#pdb.set_trace()
print "词库名:" ,byte2str(data[0x130:0x338]).encode('GB18030')
print "词库类型:" ,byte2str(data[0x338:0x540]).encode('GB18030')
print "描述信息:" ,byte2str(data[0x540:0xd40]).encode('GB18030')
print "词库示例:",byte2str(data[0xd40:startPy]).encode('GB18030')
getPyTable(data[startPy:startChinese])
getChinese(data[startChinese:])
if __name__ == '__main__':
#将要转换的词库添加在这里就可以了
o = [u"89个节日.scel",
u"常用的成语大全.scel",
u"常用汉语人名大全.scel",
u"地理地质词汇大全【官方推荐】.scel",
u"地名词库.scel",
u"动物词汇大全【官方推荐】.scel",
u"法律词汇大全【官方推荐】.scel",
u"股票词汇大全.scel",
u"股票基金.scel",
u"机关科室常用.scel",
u"经济生活词汇.scel",
u"旅游词汇大全.scel",
u"生物词汇大全【官方推荐】.scel",
u"四级行政区划地名词库.scel",
u"银行大全.scel",
u"政府机关团体机构大全【官方推荐】.scel",
u"中国传统节日大全【官方推荐】.scel",
u"中国高等院校(大学)大全【官方推荐】.scel",
u"中国医院大全【官方推荐】.scel",
u"最详细的全国地名大全.scel"]
for f in o:
deal(f)
#保存结果
f = open('ext_self.dic','w')
for count,py,word in GTable:
#GTable保存着结果,是一个列表,每个元素是一个元组(词频,拼音,中文词组),有需要的话可以保存成自己需要个格式
#我没排序,所以结果是按照上面输入文件的顺序
f.write( unicode('{%(count)s}' %{'count':count}+py+' '+ word).encode('utf-8') )#最终保存文件的编码,可以自给改
f.write('\n')
f.close()
@CHN-STUDENT
Copy link

# Python3 版本,仅提取分词,读取当前目录下 *.scel 输出 word.txt
import struct
import os
from collections import OrderedDict

def byte2str(data):
    '''将原始字节码转为字符串'''
    i = 0
    length = len(data)
    ret = ''
    while i < length:
        x = data[i:i+2]
        t = chr(struct.unpack('H',x)[0])
        if t == '\r':
            ret += '\n'
        elif t != ' ':
            ret += t
        i += 2
    return ret

def extract_words(file_name):
    words = set()
    try:
        with open(file_name,'rb') as f:
            data = f.read()

        if data[0:12] != b'\x40\x15\x00\x00\x44\x43\x53\x01\x01\x00\x00\x00':
            print(f"跳过非搜狗词库文件: {file_name}")
            return words

        startChinese = 0x2628
        pos = startChinese
        length = len(data)
        
        while pos < length:
            same = struct.unpack('H',data[pos:pos+2])[0]
            pos += 2
            py_table_len = struct.unpack('H',data[pos:pos+2])[0]
            pos += 2 + py_table_len

            for i in range(same):
                c_len = struct.unpack('H',data[pos:pos+2])[0]
                pos += 2    
                word = byte2str(data[pos:pos + c_len])
                words.add(word)
                pos += c_len          
                ext_len = struct.unpack('H',data[pos:pos+2])[0]
                pos += ext_len + 2

    except Exception as e:
        print(f"处理文件出错: {file_name}, {str(e)}")
        
    return words

def main():
    # 获取当前目录下所有的scel文件
    scel_files = [f for f in os.listdir('.') if f.endswith('.scel')]
    
    # 用于去重的集合
    all_words = set()
    
    # 处理每个文件
    for f in scel_files:
        print(f"正在处理: {f}")
        words = extract_words(f)
        all_words.update(words)
    
    # 将结果写入文件
    with open('words.txt', 'w', encoding='utf-8') as f:
        for word in sorted(all_words):
            f.write(word + '\n')
            
    print(f"完成! 共提取了 {len(all_words)} 个不重复词组")

if __name__ == '__main__':
    main()

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment