标签: 爬虫

requests的cookie使用

#响应头中的cookie获取
import requests
def get_buvid3():
url = ‘https://www.bilibili.com/video/BV17R4y1G7qt?spm_id_from=333.999.0.0’
headers = {
‘User-Agent’:’Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.75 Safari/537.36′
}
response = requests.get(url=url,headers=headers)
#响应头中的cookie获取
result = response.cookies.get_dict()
return result[‘buvid3’]
buvid3_value = get_buvid3()
print(buvid3_value)

Python fake-useragent的用法

使用

安装成功后,我们每次发送requests请求时通过random从中随机获取一个随机UserAgent,两行代码即可完成UserAgent的不停更换。

from fake_useragent import UserAgent

headers= {‘User-Agent’:str(UserAgent().random)}
r = requests.get(url, proxies=proxies, headers=headers, timeout=10)
1
2
3
4
更新

我在使用fake_useragent中遇到如下的报错,在起初误认为是部分网站对某些UserAgent的屏蔽导致的fake_useragent调用出错,后来追究下来发现是由于fake_useragent中存储的UserAgent列表发生了变动,而我本地UserAgent的列表未更新所导致的,在更新fake_useragent后报错就消失了。关于这个报错知道更多细节的同学,欢迎在下面留言!

fake_useragent.errors.FakeUserAgentError: Maximum amount of retries reached

更新fake_useragent,在命令行中输入pip install -U fake-useragent即可完成更新,Python的其他包也可以用这种方法完成更新pip install -U 包名。