python爬虫容易学吗
silencement 人气:0随着大数据时代的到来,数据将如同煤电气油一样,成为我们最重要的能源之一,然而这种能源是可以源源不断产生、可再生的。而Python爬虫作为获取数据的关键一环,在大数据时代有着极为重要的作用。于是许多同学就前来咨询:Python爬虫好学吗?
什么是爬虫?
网络爬虫,又被称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。
数据从何而来?
要想学Python首先请问:我们所爬的数据,是从哪里来的呢?
企业产生的用户数据:百度指数、阿里指数、TBI腾讯浏览指数、新浪微博指数;
数据平台购买数据:数据堂、国云数据市场、贵阳大数据交易所;
政府/机构公开的数据:中华人民共和国国家统计局数据、世界银行公开数据、联合国数据、纳斯达克;
数据管理咨询公司:麦肯锡、埃森哲、艾瑞咨询;
爬取网络数据:如果需要的数据市场上没有,或者不愿意购买,那么可以选择招/做一名爬虫工程师,自己动手丰衣足食。
怎么抓取页面数据?
网页三大特征:
网页都有自己唯一的URL(统一资源定位符)来进行定位;
网页都使用HTML (超文本标记语言)来描述页面信息;
网页都使用HTTP/HTTPS(超文本传输协议)协议来传输HTML数据;
爬虫的设计思路:
首先确定需要爬取的网页URL地址。
通过HTTP/HTTP协议来获取对应的HTML页面。
提取HTML页面里有用的数据:
a. 如果是需要的数据,就保存起来。
b. 如果是页面里的其他URL,那就继续执行第二步。
结语:Python爬虫的学习实际上在Python学习过程中是一个基础入门级的部分,学起来没啥难的,但它确实是职业能力中不可或缺的技能之一。、
内容扩展:
一个简单的爬虫实例:
import urllib,urllib2 import re def geturllist(): # 不访问网站,而是实例一个对象,为了模拟浏览器访问服务器 req = urllib2.Request("http://www.budejie.com/video/") # 添加申请访问的header,让对方服务器误以为是浏览器申请访问(参数是通过浏览器复制过来的) req.add_header('User-Agent',' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36') # 打开我刚才创建的实例对象 res =urllib2.urlopen(req) html = res.read() print html # 访问到了资源代码 # 定义一个正则化表达式为了获取我要的视频网址 reg = r'data-mp4="(.*?)">' # 将网页源码中的视频网址找出来 urllist = re.findall(reg,html) # print urllist # 有20个视频网址,用for循环一个一个下载出来 n = 1 for url in urllist: # url 视频网址,'%s.mp4'下载后的名字,url.split('/')[-1] 将字符串按照‘/'分开 urllib.urlretrieve(url,'%s.mp4' %url.split('/')[-1]) # 下载视频 n = n+1 geturllist()
加载全部内容