出现该错误的原因是服务器开启了反爬虫,一般情况下只需要设置header模拟浏览器即可,但是urlretrieve并未提供header参数。
使用urlopen也可以直接下载文件,例
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.86 Safari/537.36"}
def down_pic(url, path):
try:
req = request.Request(url, headers=headers)
data = request.urlopen(req).read()
with open(path, 'wb') as f:
f.write(data)
f.close()
except Exception as e:
print(str(e))
还有一种解决方法:
opener=urllib.request.build_opener()
opener.addheaders=[('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/36.0.1941.0 Safari/537.36')]
urllib.request.install_opener(opener)
urllib.request.urlretrieve(url, Path)
Pingback: HTTP Error 403: Forbidden with urlretrieve - icelily's blog urlretrieve 403 - urllib 403 - python 403
方法2可行,方法1没试。谢谢楼主!!!
还是不行
把文件就放在当前目录就好了 放在其他位置为什么不行再研究研究
我发现网址有问题 改正后能访问 但是下载没有用
第一种 403 第二种没反应但也没报错
我用了第二种方法不行啊,还是403
应该他们的反爬虫做的比较强,可以抓包看一下http请求头里都有什么。
神了