搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理。

用Python实现一个大数据搜索引擎 用Python实现一个大数据搜索引擎(python怎么搜索大数据)  Python 大数据 搜索引擎 第1张

搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的***。本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理。

布隆过滤器 (Bloom Filter)

***步我们先要实现一个布隆过滤器。

布隆过滤器是大数据领域的一个常见算法,它的目的是过滤掉那些不是目标的元素。也就是说如果一个要搜索的词并不存在与我的数据中,那么它可以以很快的速度返回目标不存在。

让我们看看以下布隆过滤器的代码:

  1. classBloomfilter(object):
  2. """
  3. ABloomfilterisaprobabilisticdata-structurethattradesspaceforaccuracy
  4. whendeterminingifavalueisinaset.Itcantellyouifavaluewaspossibly
  5. added,orifitwasdefinitelynotadded,butitcan'ttellyouforcertainthat
  6. itwasadded.
  7. """
  8. def__init__(self,size):
  9. """SetuptheBFwiththeappropriatesize"""
  10. self.values=[False]*size
  11. self.size=size
  12. defhash_value(self,value):
  13. """HashthevalueprovidedandscaleittofittheBFsize"""
  14. returnhash(value)%self.size
  15. defadd_value(self,value):
  16. """AddavaluetotheBF"""
  17. h=self.hash_value(value)
  18. self.values[h]=True
  19. defmight_contain(self,value):
  20. """CheckifthevaluemightbeintheBF"""
  21. h=self.hash_value(value)
  22. returnself.values[h]
  23. defprint_contents(self):
  24. """DumpthecontentsoftheBFfordebuggingpurposes"""
  25. printself.values
  • 基本的数据结构是个数组(实际上是个位图,用1/0来记录数据是否存在),初始化是没有任何内容,所以全部置False。实际的使用当中,该数组的长度是非常大的,以保证效率。
  • 利用哈希算法来决定数据应该存在哪一位,也就是数组的索引
  • 当一个数据被加入到布隆过滤器的时候,计算它的哈希值然后把相应的位置为True
  • 当检查一个数据是否已经存在或者说被索引过的时候,只要检查对应的哈希值所在的位的True/Fasle

看到这里,大家应该可以看出,如果布隆过滤器返回False,那么数据一定是没有索引过的,然而如果返回True,那也不能说数据一定就已经被索引过。在搜索过程中使用布隆过滤器可以使得很多没有***的搜索提前返回来提高效率。

我们看看这段 code是如何运行的:

  1. bf=Bloomfilter(10)
  2. bf.add_value('dog')
  3. bf.add_value('fish')
  4. bf.add_value('cat')
  5. bf.print_contents()
  6. bf.add_value('bird')
  7. bf.print_contents()
  8. #Note:contentsareunchangedafteraddingbird-itcollides
  9. fortermin['dog','fish','cat','bird','duck','emu']:
  10. print'{}:{}{}'.format(term,bf.hash_value(term),bf.might_contain(term))

结果:

  1. [False,False,False,False,True,True,False,False,False,True]
  2. [False,False,False,False,True,True,False,False,False,True]
  3. dog:5True
  4. fish:4True
  5. cat:9True
  6. bird:9True
  7. duck:5True
  8. emu:8False

首先创建了一个容量为10的的布隆过滤器

 用Python实现一个大数据搜索引擎(python怎么搜索大数据) Python 大数据 搜索引擎 第2张

然后分别加入 ‘dog’,‘fish’,‘cat’三个对象,这时的布隆过滤器的内容如下:

 用Python实现一个大数据搜索引擎(python怎么搜索大数据) Python 大数据 搜索引擎 第3张

然后加入‘bird’对象,布隆过滤器的内容并没有改变,因为‘bird’和‘fish’恰好拥有相同的哈希。

 用Python实现一个大数据搜索引擎(python怎么搜索大数据) Python 大数据 搜索引擎 第4张

***我们检查一堆对象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已经被索引了。结果发现‘duck’返回True,2而‘emu’返回False。因为‘duck’的哈希恰好和‘dog’是一样的。

 用Python实现一个大数据搜索引擎(python怎么搜索大数据) Python 大数据 搜索引擎 第5张

分词

下面一步我们要实现分词。 分词的目的是要把我们的文本数据分割成可搜索的最小单元,也就是词。这里我们主要针对英语,因为中文的分词涉及到自然语言处理,比较复杂,而英文基本只要用标点符号就好了。

下面我们看看分词的代码:

  1. defmajor_segments(s):
  2. """
  3. Performmajorsegmentingonastring.Splitthestringbyallofthemajor
  4. breaks,andreturnthesetofeverythingfound.Thebreaksinthisimplementation
  5. aresinglecharacters,butinSplunkpropertheycanbemultiplecharacters.
  6. Asetisusedbecauseorderingdoesn'tmatter,andduplicatesarebad.
  7. """
  8. major_breaks=''
  9. last=-1
  10. results=set()
  11. #enumerate()willgiveus(0,s[0]),(1,s[1]),...
  12. foridx,chinenumerate(s):
  13. ifchinmajor_breaks:
  14. segment=s[last+1:idx]
  15. results.add(segment)
  16. last=idx
  17. #Thelastcharactermaynotbeabreaksoalwayscapture
  18. #thelastsegment(whichmayendupbeing"",butyolo)
  19. segment=s[last+1:]
  20. results.add(segment)
  21. returnresults

主要分割

主要分割使用空格来分词,实际的分词逻辑中,还会有其它的分隔符。例如Splunk的缺省分割符包括以下这些,用户也可以定义自己的分割符。

] < >( ) { } | ! ; , ‘ ” * \n \r \s \t & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

  1. defminor_segments(s):
  2. """
  3. Performminorsegmentingonastring.Thisislikemajor
  4. segmenting,exceptitalsocapturesfromthestartofthe
  5. inputtoeachbreak.
  6. """
  7. minor_breaks='_.'
  8. last=-1
  9. results=set()
  10. foridx,chinenumerate(s):
  11. ifchinminor_breaks:
  12. segment=s[last+1:idx]
  13. results.add(segment)
  14. segment=s[:idx]
  15. results.add(segment)
  16. last=idx
  17. segment=s[last+1:]
  18. results.add(segment)
  19. results.add(s)
  20. returnresults

次要分割

次要分割和主要分割的逻辑类似,只是还会把从开始部分到当前分割的结果加入。例如“1.2.3.4”的次要分割会有1,2,3,4,1.2,1.2.3

  1. defsegments(event):
  2. """Simplewrapperaroundmajor_segments/minor_segments"""
  3. results=set()
  4. formajorinmajor_segments(event):
  5. forminorinminor_segments(major):
  6. results.add(minor)
  7. returnresults

分词的逻辑就是对文本先进行主要分割,对每一个主要分割在进行次要分割。然后把所有分出来的词返回。

我们看看这段 code是如何运行的:

  1. forterminsegments('src_ip=1.2.3.4'):
  2. printterm

  1. src
  2. 1.2
  3. 1.2.3.4
  4. src_ip
  5. 3
  6. 1
  7. 1.2.3
  8. ip
  9. 2
  10. =
  11. 4

搜索

好了,有个分词和布隆过滤器这两个利器的支撑后,我们就可以来实现搜索的功能了。

上代码:

  1. classSplunk(object):
  2. def__init__(self):
  3. self.bf=Bloomfilter(64)
  4. self.terms={}#Dictionaryoftermtosetofevents
  5. self.events=[]
  6. defadd_event(self,event):
  7. """Addsaneventtothisobject"""
  8. #GenerateauniqueIDfortheevent,andsaveit
  9. event_id=len(self.events)
  10. self.events.append(event)
  11. #Addeachtermtothebloomfilter,andtracktheeventbyeachterm
  12. forterminsegments(event):
  13. self.bf.add_value(term)
  14. iftermnotinself.terms:
  15. self.terms[term]=set()
  16. self.terms[term].add(event_id)
  17. defsearch(self,term):
  18. """Searchforasingleterm,andyieldalltheeventsthatcontainit"""
  19. #InSplunkthisrunsinO(1),andislikelytobeinfilesystemcache(memory)
  20. ifnotself.bf.might_contain(term):
  21. return
  22. #InSplunkthisprobablyrunsinO(logN)whereNisthenumberoftermsinthetsidx
  23. iftermnotinself.terms:
  24. return
  25. forevent_idinsorted(self.terms[term]):
  26. yieldself.events[event_id]
  • Splunk代表一个拥有搜索功能的索引集合
  • 每一个集合中包含一个布隆过滤器,一个倒排词表(字典),和一个存储所有事件的数组
  • 当一个事件被加入到索引的时候,会做以下的逻辑
    • 为每一个事件生成一个unqie id,这里就是序号
    • 对事件进行分词,把每一个词加入到倒排词表,也就是每一个词对应的事件的id的映射结构,注意,一个词可能对应多个事件,所以倒排表的的值是一个Set。倒排表是绝大部分搜索引擎的核心功能。
  • 当一个词被搜索的时候,会做以下的逻辑
    • 检查布隆过滤器,如果为假,直接返回
    • 检查词表,如果被搜索单词不在词表中,直接返回
    • 在倒排表中找到所有对应的事件id,然后返回事件的内容

我们运行下看看把:

  1. s=Splunk()
  2. s.add_event('src_ip=1.2.3.4')
  3. s.add_event('src_ip=5.6.7.8')
  4. s.add_event('dst_ip=1.2.3.4')
  5. foreventins.search('1.2.3.4'):
  6. printevent
  7. print'-'
  8. foreventins.search('src_ip'):
  9. printevent
  10. print'-'
  11. foreventins.search('ip'):
  12. printevent
  13. src_ip=1.2.3.4
  14. dst_ip=1.2.3.4
  15. -
  16. src_ip=1.2.3.4
  17. src_ip=5.6.7.8
  18. -
  19. src_ip=1.2.3.4
  20. src_ip=5.6.7.8
  21. dst_ip=1.2.3.4

是不是很赞!

更复杂的搜索

更进一步,在搜索过程中,我们想用And和Or来实现更复杂的搜索逻辑。

上代码:

  1. bf=Bloomfilter(10)
  2. bf.add_value('dog')
  3. bf.add_value('fish')
  4. bf.add_value('cat')
  5. bf.print_contents()
  6. bf.add_value('bird')
  7. bf.print_contents()
  8. #Note:contentsareunchangedafteraddingbird-itcollides
  9. fortermin['dog','fish','cat','bird','duck','emu']:
  10. print'{}:{}{}'.format(term,bf.hash_value(term),bf.might_contain(term))
0

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

运行结果如下:

  1. bf=Bloomfilter(10)
  2. bf.add_value('dog')
  3. bf.add_value('fish')
  4. bf.add_value('cat')
  5. bf.print_contents()
  6. bf.add_value('bird')
  7. bf.print_contents()
  8. #Note:contentsareunchangedafteraddingbird-itcollides
  9. fortermin['dog','fish','cat','bird','duck','emu']:
  10. print'{}:{}{}'.format(term,bf.hash_value(term),bf.might_contain(term))
1

转载请说明出处
知优网 » 用Python实现一个大数据搜索引擎(python怎么搜索大数据)

发表评论

您需要后才能发表评论