python如何实现网络爬虫

互联网 20-10-21

python实现网络爬虫的方法:1、使用request库中的get方法,请求url的网页内容;2、【find()】和【find_all()】方法可以遍历这个html文件,提取指定信息。

python实现网络爬虫的方法:

第一步:爬取

使用request库中的get方法,请求url的网页内容

编写代码

[root@localhost demo]# touch demo.py [root@localhost demo]# vim demo.py
#web爬虫学习 -- 分析 #获取页面信息   #输入:url #处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式 #输出:爬取到的内容   import requests   def getHTMLText(url):     try:         r = requests.get( url, timeout=30 )         r.raise_for_status()    #如果状态码不是200,产生异常         r.encoding = 'utf-8'    #字符编码格式改成 utf-8         return r.text     except:         #异常处理         return " error "   url = "http://www.baidu.com" print( getHTMLText(url) )
[root@localhost demo]# python3 demo.py

第二步:分析

使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个html文件,提取指定信息。

编写代码

[root@localhost demo]# touch demo1.py [root@localhost demo]# vim demo1.py #web爬虫学习 -- 分析 #获取页面信息   #输入:url #处理:request库获取页面信息,并从爬取到的内容中提取关键信息 #输出:打印输出提取到的关键信息   import requests from bs4 import BeautifulSoup import re   def getHTMLText(url):     try:         r = requests.get( url, timeout=30 )         r.raise_for_status()    #如果状态码不是200,产生异常         r.encoding = 'utf-8'    #字符编码格式改成 utf-8         return r.text     except:         #异常处理         return " error "   def findHTMLText(text):     soup = BeautifulSoup( text, "html.parser" )    #返回BeautifulSoup对象     return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配   url = "http://www.baidu.com" text = getHTMLText(url)        #获取html文本内容 res = findHTMLText(text)    #匹配结果   print(res)        #打印输出
[root@localhost demo]# python3 demo1.py

相关免费学习推荐:python视频教程

以上就是python如何实现网络爬虫的详细内容,更多内容请关注技术你好其它相关文章!

来源链接:
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代表本站的观点或立场
标签: 网络爬虫
上一篇:php获取远程图片并下载保存到本地的方法分析 下一篇:python如何对指定字符串逆序

相关资讯