banner

帮助中心 > 新闻资讯 >爬虫url去重——Berkeley DB 性能测试

爬虫url去重——Berkeley DB 性能测试

发布时间:2018-07-04

2017年3月7日更新
berkley db 还是不适合应用在生产环境中。今天我ctrl+c强制关程序,berkley db 一直报错:

(-30973, 'BDB0087 DB_RUNRECOVERY: Fatal error, run database recovery -- BDB0060 PANIC: fatal region error detected; run recovery')

这太不健壮了,而且网上资料太少了。
决定放弃这个。。。


爬虫中需要用到大规模url去重,在网上搜索到Berkeley DB,发现非常适合。优点如下:

1、嵌入式数据库,插入和查询非常快,比redis要快(主要是没有网络开销)
2、python中使用非常简单方便

测试流程:

1、生成1000w数字,插入db
2、随机生成一个数字,进行查询
3、生成1000w数字,然后算出md5
4、随机生成一个数字的md5,进行查询

我的测试代码:
代码地址:

https://github.com/xsren/python_test_demo

#coding:utf8

import bsddb3
import time
import random
import hashlib

test_num = 10000000

def md5(s):
    return hashlib.md5(s).hexdigest()

def insert(db):
    t0 = time.time()
    for i in xrange(test_num):
        db[str(i)] = None
    print time.time() - t0

def insert_md5(db):
    t0 = time.time()
    for i in xrange(test_num):
        db[md5(str(i))] = None
    print time.time() - t0

def query(db):
    i = random.randint(0,test_num)
    t0 = time.time()
    print db.has_key(str(i))
    print time.time() - t0

def query_md5(db):
    i = random.randint(0,test_num)
    t0 = time.time()
    print db.has_key(md5(str(i)))
    print time.time() - t0

def main():
    db1 = bsddb3.hashopen('test1.db', 'c')
    #插入1000w整数
    insert(db1)
    query(db1)
    #插入1000w整数得到的md5
    db2 = bsddb3.hashopen('test2.db', 'c')
    insert_md5(db2)
    query_md5(db2)


if __name__ == '__main__':
    main()

测试结果:

测试结果.png
文件大小.png

结论:

1、插入1000w数字只要112s
2、1000w的md5数据大小为640M
3、一次查询的时间为10us

相关推荐