在进行爬虫项目时,如果没有针对特定网站制定相应的爬虫策略,那么会很容易造成自己的IP被网站封锁。
下面使用Requests库进行代理IP的配置何使用,同时也包括了新建IP池列表的操作
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import requests
# 随机选择一个代理
import random
# 生成代理IP池
proxy_list = [
'xxx.xxx.x.xx:3128',
'xx.xx.x.xx:8888',
'xxx.xxx.xxx.xxx:3128'
]
# 随机从ip池中选出一个ip
proxy = random.choice(proxy_list)
# 打印出随机选择的代理ip
print(proxy)
proxies = {
'http': 'http://' + proxy,
'https': 'https://' + proxy,
}
# -----------------------------------------------------------------------------------
# 返回一个随机的请求头 headers
def getheaders():
user_agent_list = [ \
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1" \
"Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11", \
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6", \
"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6", \
"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1", \
"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5", \
"Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5", \
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
"Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3", \
"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24", \
"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
]
UserAgent=random.choice(user_agent_list)
headers = {'User-Agent': UserAgent}
return headers
# ---------------------------------------------------------------------------------------
try:
headers = getheaders() # 定制请求头
print(headers)
response = requests.get(
'http://httpbin.org/get',
proxies=proxies,
headers=headers,
timeout = 5
)
print(response.text)
except requests.exceptions.ConnectionError as e:
print('Error', e.args)
若其运行结果的 origin 也是代理的 IP,证明代理已经设置成功。
倘若需要使用优质代理IP,可以试用神龙HTTP代理,可用率高,安全稳定,操作简单,也有专业技术人员在线指导,是代理IP软件的不二之选。
相关文章
- 利用爬虫代理进行数据爬取(详解爬虫代理的运用技巧)
- 爬虫代理的实现方式和防封策略
- 为什么使用代理爬虫还是失败?
- 自己搭建亿级爬虫ip代理池的具体方法
- 代理IP池对爬虫有什么好处
- 爬虫怎么设置代理服务器
- 分布式爬虫如何使用代理ip
- 爬虫使用IP代理还是会封IP吗
- 爬虫代理服务器怎么用
- python爬虫如何代理服务器
- 代理IP如何使用大数据分析
- 盘点爬虫IP代理使用的常见问题及解决思路
- ADSL和代理IP有什么区别?
- 浅析爬虫代理报错的原因
- 爬虫离开代理IP后还能否顺畅工作
- 网站如何判断有爬虫在采集数据
- 爬虫HTTP代理可以收集哪些数据?
- 了解网页抓取五种常用的HTTP标头
- 盘点爬虫语言为何选择Python而不是Java
- 正确认识网络抓取与网络爬取的区别
- 为何在代理IP中,高匿IP才比较好-神龙HTTP
- 建立自己的代理IP池的好处?-神龙HTTP
- 如何看待免费代理IP的安全性-神龙HTTP
- 更换IP地址的不同方法-神龙HTTP
- IP切换工具的应用方法-神龙HTTP
- 盘点导致使用代理IP后网速变慢的几种原因-神龙HTTP
- 代理IP如何保护企业网络安全?-神龙HTTP
- 如何计算爬虫需要多少代理ip呢?-神龙HTTP
- http代理服务器如何帮助维护在线隐私-神龙HTTP
- 盘点如何从网站中提取数据?-神龙HTTP
- 使用http代理进行优化SEO有什么好处?-神龙HTTP
- 代理服务器和负载均衡器有什么区别?-神龙HTTP
- HTTP 代理服务器的架构-神龙HTTP
- 免费代理ip适用的范围-神龙HTTP
- 免费代理ip和收费代理ip的区别-神龙HTTP
- 免费代理IP可以用来做爬虫吗?-神龙HTTP
- 如何判断代理服务器ip质量?-神龙HTTP
- 自建http代理IP池如何考虑高频接入的要求-神龙HTTP
- 为什么说代理IP池越大越好?-神龙HTTP
- 代理IP为什么要使用高匿代理IP呢?-神龙HTTP
- 付费SOCKS5代理的四个优点-神龙HTTP
- IP代理池具备的特征-神龙HTTP
- 使用ip代理时的常见误解-神龙HTTP
- SOCKS和HTTP代理有什么区别?-神龙HTTP
- Socks5代理如何解决在线问题?-神龙HTTP
- http代理工作方式介绍-神龙HTTP
- 住宅代理服务器的用途及优势分析-神龙HTTP
- 为什么在抓取网页时需要使用http代理呢?-神龙HTTP
- HTTP代理常见的客户端错误代码类型-神龙HTTP
- SOCKS代理和SOCKS5代理区别是什么?-神龙HTTP
- 稳定的代理IP具备的因素-神龙HTTP
- python爬虫怎么使用代理IP-神龙HTTP
- 代理服务器介绍及类型划分-神龙HTTP
- IP代理具有哪些类型原理-神龙HTTP
- 代理IP能否提高爬虫效率?-神龙HTTP
- 不同的代理服务器有什么区别?-神龙HTTP
- 代理一般是如何定价收费的呢?-神龙HTTP
- 如何使用代理ip访问浏览器?-神龙HTTP
- 认识代理服务器的请求处理规则-神龙HTTP
- 什么是动态IP代理-神龙HTTP
- socks5代理和http代理有什么区别呢?-神龙HTTP
- 什么是动态IP?动态IP的作用什么?-神龙HTTP
- 如何判断ip代理是否能用?-神龙HTTP
- 如何选择合适的http代理?-神龙HTTP
- 盘点判断使用的代理IP是否有效的几种方式?-神龙HTTP
- 为什么代理IP爬虫不会受到限制?-神龙HTTP
- 代理ip业务结束后,可以用新的IP继续发帖吗?-神龙HTTP
- 如何理解代理IP中大数据杀熟的意思
- 动态IP地址的优缺点分析
- 关于国内代理ip和代理ip的小常识-神龙HTTP
- 怎么判断SOCKS5代理IP地址是有效的?-神龙HTTP
- 盘点什么样的代理IP更适合爬虫?-神龙HTTP
- 静态IP、动态IP、ADSL拨号的区别-神龙HTTP
- 使用代理ip软件要了解的优势
- 盘点ip代理那些强大功能-神龙HTTP
- 使用代理IP后常见的几大问题-神龙HTTP
- 怎么测试和评定代理商IP的实际效果-神龙HTTP
- 使用HTTP协议的代理服务器有哪些类型
- 网页IP代理有几种获取方式?-神龙HTTP
- 如何为Scrapy设置代理-神龙HTTP
- 付费代理真的比免费代理好得多吗?-神龙HTTP
- 如何使用Python进行网页抓取-神龙HTTP
- 怎么维护爬虫代理IP池?-神龙HTTP
- ip代理对网络营销能起到什么帮助?-神龙HTTP
- 网络爬虫对代理IP有哪些要求-神龙HTTP
- 爬虫技术有哪些-神龙HTTP
- 爬虫可以爬哪些网站-神龙HTTP
- 为什么代理ip越来越普遍-神龙HTTP
- 使用HTTP代理IP过程中的误区 -神龙HTTP
- 爬虫代理IP池的验证网址出错-神龙HTTP
- 动态IP在网络爬虫中有什么作用?-神龙HTTP
- 短效优质代理多线程获取IP方法-神龙HTTP
- 用ip代理解决网络受阻-神龙HTTP
- 代理IP连不通是一定是代理IP的问题?-神龙HTTP
- 爬虫程序使用IP代理的原理-神龙HTTP
- python爬虫爬微信好友信息代码(上)-神龙HTTP
- 网络爬虫是什么?-神龙HTTP
- HTTP代理的四大问题-神龙HTTP
- 网站为什么要反爬虫?-神龙HTTP
- Scrapy爬虫框架的五大组件-神龙HTTP
- 选择代理IP资源应该注意什么?
- 爬虫工程师要怎样练习爬虫-神龙HTTP
- 浅谈代理IP中白名单的作用-神龙HTTP
- Python爬虫又叫网络爬虫-神龙HTTP
- 分布式网络爬虫是什么?神龙HTTP
- Scrapy使用代理爬取网站-神龙HTTP
- 爬虫代理超时原因及排查方法-神龙HTTP
- 爬虫与User-Agent-神龙HTTP
- 住宅代理和数据中心代理的区别-神龙HTTP
- 使用代理IP爬虫时超时怎么办?-神龙HTTP
- 网络爬虫IP受限该怎么解决?-神龙HTTP
- 网站如何反爬虫-神龙HTTP
- 怎样使用代理IP让爬虫效率最大化-神龙HTTP
- 爬虫采集数据如何防被封IP?-神龙HTTP
- 网络爬虫一定要用ip代理吗?神龙HTTP
- 如何选择高质量的代理IP-神龙HTTP