微博热搜的爬取需要用到lxml和requests两个库
url=https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6
1.分析网页的源代码:右键--查看网页源代码,从网页代码中可以获取到信息有:
(1)热搜的名字都在<td>的子节点<a>里
(2)热搜的排名都在<td class=td-01 ranktop>的里(注意置顶微博是没有排名的!)
(3)热搜的访问量都在<td>的子节点<span>里
2.requests获取网页
(1)先设置url地址,然后模拟浏览器(这一步可以不用)防止被认出是爬虫程序。
###网址
url="https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6"
###模拟浏览器,这个请求头windows下都能用
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
(2)利用requests库的get()和lxml的etree()来获取网页代码
###获取html页面
html=etree.HTML(requests.get(url,headers=header).text)
3.构造xpath路径
上面第一步中三个xath路径分别是:
affair=html.xpath('//td[@]/a/text()')
rank=html.xpath('//td[@]/text()')
view=html.xpath('//td[@]/span/text()')
xpath的返回结果是列表,所以affair、rank、view都是字符串列表
4.格式化输出
需要注意的是affair中多了一个置顶热搜,我们先将他分离出来。
top=affair[0]
affair=affair[1:]
这里利用了python的切片。
print('{0:<10}\t{1:<40}'.format("top",top))
for i in range(0, len(affair)):
print("{0:<10}\t{1:{3}<30}\t{2:{3}>20}".format(rank[i],affair[i],view[i],chr(12288)))
5.全部代码
###导入模块
import requests
from lxml import etree
###网址
url="https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6"
###模拟浏览器
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
###主函数
def main():
###获取html页面
html=etree.HTML(requests.get(url,headers=header).text)
rank=html.xpath('//td[@]/text()')
affair=html.xpath('//td[@]/a/text()')
view = html.xpath('//td[@]/span/text()')
top=affair[0]
affair=affair[1:]
print('{0:<10}\t{1:<40}'.format("top",top))
for i in range(0, len(affair)):
print("{0:<10}\t{1:{3}<30}\t{2:{3}>20}".format(rank[i],affair[i],view[i],chr(12288)))
main()
倘若需要使用优质代理IP,可以试用神龙HTTP代理,可用率高,安全稳定,操作简单,也有专业技术人员在线指导,是代理IP软件的不二之选。
相关文章
- 爬虫代理IP连接失败
- 爬虫代理的实现方式和防封策略
- SpringBoot爬虫代理
- 企业爬虫ip代理可用来做什么
- 分布式爬虫如何使用代理ip
- 爬虫代理ip怎么使用微信投票
- 代理IP如何使用大数据分析
- 盘点爬虫IP代理使用的常见问题及解决思路
- 浅析爬虫代理报错的原因
- 爬虫离开代理IP后还能否顺畅工作
- 网站如何判断有爬虫在采集数据
- 高速HTTP代理如何辨别寻找?-神龙HTTP
- 具体了解HTTP代理可用于哪些业务?-神龙HTTP
- 代理服务器有几种类型呢?-神龙HTTP
- 新手是用免费代理ip还是付费代理ip-神龙HTTP
- 盘点代理IP比较突出的优点-神龙HTTP
- 盘点代理ip池的作用是什么-神龙HTTP
- 动态ip和静态ip的使用场景分析-神龙HTTP
- 影响代理IP访问速度的关键因素-神龙HTTP
- 代理ip池对爬虫有多重要-神龙HTTP
- 如何使用PHP检测代理匿名级别-神龙HTTP
- 代理IP技术-神龙HTTP
- 动态ip和拨号上网哪个好-神龙HTTP
- 怎么把动态ip改成静态ip?-神龙HTTP
- SEO业务如何选择代理IP?-神龙HTTP
- 怎么维护爬虫代理IP池?-神龙HTTP
- 短效优质代理、一手私密代理和独享IP池如何选择-神龙HTTP
- HTTP代理IP使用的问题-神龙HTTP
- python爬虫爬微信好友信息代码(下)-神龙HTTP
- 用代理ip连接网络速度反而变慢了-神龙HTTP
- 盘点电商提高网站流量的方法-神龙HTTP
- 抢购用IP代理更容易-神龙HTTP
- HTTP代理跟SOCKS代理的不同-神龙HTTP
- 数字化需要隐藏IP和更换IP-神龙HTTP
- ip受到限制怎么办?-神龙HTTP
- 爬虫Python用ip代理代码-神龙HTTP
- 动态ip代理在邮件营销的运用-神龙HTTP
- 深度解析代理IP的认知误区-神龙HTTP
- 爬虫选代理IP软件要考虑的因素-神龙HTTP
- 代理服务器你了解多少?-神龙HTTP
- 玩网络爬虫要选ip代理么-神龙HTTP
- 盘点网络爬虫有几种分类?-神龙HTTP
- ip代理解决爬虫问题-神龙HTTP
- 网络爬虫使用代理ip大展拳脚-神龙HTTP
- Mitmproxy抓包工具介绍-神龙HTTP
- ip代理让网络爬虫更快更好-神龙HTTP
- 什么是动态ip代理-神龙HTTP
- Python爬虫对HTTP代理的需求大吗?-神龙HTTP
- 论Python与爬虫关系有多紧密-神龙HTTP
- 代理IP的衡量标准-神龙HTTP
- 爬虫工作,代理IP的并发请求越大越好?
- 爬虫一定要使用代理IP吗
- 优质爬虫HTTP代理有哪些_神龙IP
- 使用爬虫代理时需要注意些什么_神龙IP
- 代理IP在网页抓取中有什么作用_神龙IP
- 常见的有效的网站反爬虫方法有哪些
- 匿名代理有什么区别?代理IP该如何选择
- 国内优质代理IP怎么去选
- 爬虫的抓取效率如何提升
- 爬虫程序为什么需要使用代理IP
- 网站的反爬虫策略该如何应对
- python爬虫代理IP该怎么选
- 影响代理IP稳定性的原因有哪些
- 数据采集用自建代理效果怎么样?
- 如何批量获取代理IP 代理IP池搭建
- 数据采集时IP不够该怎么办?
- IP代理可应用于哪些行业?
- 数据采集常见的抓取策略
- Python微博抓取有哪些技巧?
- 优化爬虫程序时要注意什么?-神龙HTTP
- 使用代理IP爬虫时超时怎么办?-神龙HTTP
- 代理IP池的特点-神龙HTTP