精易论坛

标题: Python自学记录--多线程糗事百科爬虫 [打印本页]

作者: 菠萝儿    时间: 2021-9-26 22:36
标题: Python自学记录--多线程糗事百科爬虫
  1. #线程库
  2. import threading
  3. #队列
  4. import queue
  5. import requests
  6. import time
  7. from lxml import etree

  8. #采集网页线程--爬取段子列表所在的网页,放进队列
  9. class Thread1(threading.Thread):
  10.    
  11.     def __init__(self, threadName,pageQueue,dataQueue):
  12.         threading.Thread.__init__(self)
  13.         self.threadName = threadName #线程名
  14.         self.pageQueue = pageQueue #页码队列
  15.         self.dataQueue = dataQueue #数据队列
  16.         self.headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}

  17.     def run(self):
  18.         print("启动线程"+self.threadName)
  19.         while not flag1:
  20.             try:
  21.                 page=self.pageQueue.get()
  22.                 url="https://www.qiushibaike.com/8hr/page/"+str(page)+"/"
  23.                 content=requests.get(url,headers=self.headers).text
  24.                 time.sleep(0.5)
  25.                 self.dataQueue.put(content) #将数据放入队列中
  26.             except Exception as e:
  27.                 pass

  28.         print("结束线程"+self.threadName)



  29. #解析网页线程--从队列中拿到列表网页,进行解析,并储存到本地
  30. class Thread2(threading.Thread):
  31.    
  32.     def __init__(self, threadName,dataQueue,filename):
  33.         threading.Thread.__init__(self)
  34.         self.threadName = threadName
  35.         self.dataQueue = dataQueue
  36.         self.filename = filename

  37.     def run(self):
  38.         print("启动线程"+self.threadName)
  39.         while not flag2:
  40.             try:
  41.                 data1=self.dataQueue.get()
  42.                 html=etree.HTML(data1)
  43.                 node_list=html.xpath('//div//a[@class="recmd-content"]')
  44.                 for node in node_list:
  45.                     data=node.text
  46.                     self.filename.write(data+"\n")
  47.             except Exception as e:
  48.                 pass

  49.         print("结束线程"+self.threadName)

  50. flag1=False #判断页码队列中是否为空
  51. flag2=False #判断数据队列中是否为空

  52. def main():
  53.     #页码队列
  54.     pageQueue=queue.Queue(2)  #页码最大为10

  55.     for i in range(1,11):
  56.         pageQueue.put(i)

  57.     #存放采集结果的数据队列
  58.     dataQueue=queue.Queue()

  59.     #保存到本地的文件
  60.     filename=open(r"D:\代码保存\duanzi.txt","a")

  61.     #启动线程
  62.     t1=Thread1("采集线程",pageQueue,dataQueue)
  63.     t1.start()
  64.     t2=Thread2("解析线程",dataQueue,filename)
  65.     t2.start()

  66.     #当padeQueue为空时,结束采集线程
  67.     while not pageQueue.empty():
  68.         pass

  69.     global flag1
  70.     flag1=True

  71.     #当padeQueue为空时,结束采集线程
  72.     while not pageQueue.empty():
  73.         pass

  74.     global flag2
  75.     flag2=True

  76.     t1.join()
  77.     t2.join()

  78.     filename.close()

  79.     print("结束!")

  80. if __name__ == '__main__':
  81.     main()
复制代码



作者: 汉族    时间: 2021-9-26 23:16
那个 问问 python  访问 快吗?  现在很多访问需要 CURL 才能获取数据
作者: 菠萝儿    时间: 2021-9-27 12:39
汉族 发表于 2021-9-26 23:16
那个 问问 python  访问 快吗?  现在很多访问需要 CURL 才能获取数据

师兄,这个不懂,我刚开始学习,没了解到太深




欢迎光临 精易论坛 (https://125.confly.eu.org/) Powered by Discuz! X3.4