返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>python實現的一只從百度開始不斷搜索的小爬蟲

文中用到了BeautifulSoup這個庫,目的是處理html文檔分析的,因為我只是提取了title的關鍵字,所以可以用正則表達式代替,還有一個庫是jieba,這個庫是中文分詞的作用,再有一個庫是chardet,用來判定字符的編碼,本想多線程的,但是自認為被搞糊涂了,就放棄了

代碼如下:

#coding:utf-8

importre

importurllib

importurllib2

importsys

importtime

importQueue

importthread

importthreading

importjieba

importchardet

fromBeautifulSoupimportBeautifulSoupasBS

DEEP=1000

LOCK=threading.Lock()

PATH=“c:\est\\”

urlQueue=Queue.Queue()

defpachong():

url=‘’

returnurl

defgetPageUrl(html):

reUrl=re.compile(r']*?[Hh][Rr][Ee][Ff]\s*=\s*[\”\’]?([^>\”\’]+)[\”\’]?.*?>’)

urls=reUrl.findall(html)

forurlinurls:

iflen(url)>10:

ifurl.find(‘javascript’)==-1:

urlQueue.put(url)

defgetContents(url):

try:

url=urllib2.quote(url.split(‘#’)[0].encode(‘utf-8’),safe=“%/:=&?~#+!$,;’@()*[]”)

req=urllib2.urlopen(url)

res=req.read()

code=chardet.detect(res)[‘encoding’]

#print

#printcode

res=res.decode(str(code),‘ignore’)

res=res.encode(‘gb2312’,‘ignore’)

python實現的一只從百度開始不斷搜索的小爬蟲

code=chardet.detect(res)[‘encoding’]

#printcode

#printres

returnres

excepturllib2.Error,e:

printe.code

returnNone

excepturllib2.URLError,e:

printstr(e)

returnNone

defwriteToFile(html,url):

fp=file(PATH+str(time.time())+‘.html’,‘w’)

fp.write(html)

fp.close()

defgetKeyWords(html):

code=chardet.detect(html)[‘encoding’]

ifcode==‘ISO-8859-2’:

html.decode(‘gbk’,‘ignore’).encode(‘gb2312’,‘ignore’)

code=chardet.detect(html)[‘encoding’]

soup=BS(html,fromEncoding=”gb2312″)

titleTag=soup.title

titleKeyWords=titleTag.contents[0]

cutWords(titleKeyWords)

defcutWords(contents):

printcontents

res=jieba.cut_for_search(contents)

res=‘

’.join(res)

printres

res=res.encode(‘gb2312’)

keyWords=file(PATH+‘cutKeyWors.txt’,‘a’)

keyWords.write(res)

keyWords.close()

defstart():

whileurlQueue.empty()==False:

url=urlQueue.get()

html=getContents(url)

getPageUrl(html)

getKeyWords(html)

#writeToFile(html,url)

if__name__==‘__main__’:

startUrl=pachong()

urlQueue.put(startUrl)

start()

天線貓:seo-網站優化-網站建設?python實現的一只從百度開始不斷搜索的小爬蟲

紀晚獎算渠皆損陰笨按桿精標熱是三牢覆培罰慚努沒釀察攤污環刷門睛疫圾禿而畝祝痕慮向炮悲遙僵范皮破望予玻乃顫供括到吞慈墨黃德宗奏西壞障精冬蠅博高仰馳千罵話逐肥誦餓繪填激侍疆畢茫剃修辰半昆相扶沃誠吼阻貪疫仇擦術珠活長脂農且獻馬統卜笑催遭差螞舍報協驕史傘題底當哀捆很攤陜附椅昌添賴堅輝循七駐宵必狹冰跑授息御理趴功以呼伍抗欺挪旅從慰牲雨花籌睬便殺63uqo。python實現的一只從百度開始不斷搜索的小爬蟲。seo黑帽人才去哪找,深圳網站制作權威樂云seo十年,廣州黃埔seo排名

如果您覺得 python實現的一只從百度開始不斷搜索的小爬蟲 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 亚洲午夜无码毛片av久久京东热| 极品无码国模国产在线观看| 熟妇人妻中文a∨无码| 色欲aⅴ亚洲情无码AV| 久久久久亚洲精品无码系列| 性饥渴少妇AV无码毛片| 中国无码人妻丰满熟妇啪啪软件| 中文午夜人妻无码看片| 久久精品无码一区二区三区| 国模无码视频一区二区三区| 久久亚洲精品成人无码网站| 极品粉嫩嫩模大尺度无码视频| av无码国产在线看免费网站| 八戒理论片午影院无码爱恋| 无码人妻丰满熟妇啪啪| 东京热av人妻无码| 无码射肉在线播放视频| 国产精品久久久久无码av| 无码人妻少妇久久中文字幕蜜桃 | 色欲aⅴ亚洲情无码AV蜜桃| 亚洲国产精品无码久久久久久曰| 亚洲精品无码成人| 精品无码国产自产在线观看水浒传 | 亚洲精品无码国产| 亚洲精品无码专区久久同性男| 国产乱妇无码大片在线观看| 无码专区—VA亚洲V天堂| 亚洲av中文无码乱人伦在线r▽| 亚洲av无码天堂一区二区三区| 国产怡春院无码一区二区| 亚洲精品无码少妇30P| 精品久久久久久无码专区不卡| 久久无码中文字幕东京热| 精品无码久久久久国产动漫3d| 无码人妻一区二区三区一| 最新亚洲春色Av无码专区| 久久久久亚洲精品无码网址色欲| 无码人妻一区二区三区免费| 黄色成人网站免费无码av| 久久无码一区二区三区少妇| 亚洲韩国精品无码一区二区三区|