想将爬取到的图片放到新建的文件夹里,结果创建了文件夹,和图片在同一级目录

发布于 09-12 00:28 字数 1678 浏览 38 评论 0

(HBQ[0OF3NAKX%B7]HJ6)OO.png求指点下怎么解决这个问题

import requests
from bs4 import BeautifulSoup
import urllib
import os
import re
def filename(element):     
    path = 'D:/abc'
    title = element     
    new_path = os.path.join(path,title)     
    if not os.path.isdir(new_path):
        os.makedirs(new_path)     
        return new_path 
def getHTML(url):     
    r = requests.get(url)     
    r.encoding = 'utf-8'     
    return r.text 
def HTMLinfo(infolist,html):     
    soup = BeautifulSoup(html,'lxml')     
    picdivs=soup.find_all('div',attrs={'class':'p_postlist'})
    for picdiv in picdivs:         
        imgs =picdiv.find_all('img',attrs={'class':'BDE_Image'})
        for img in imgs:             
            src = img['src']             
            infolist.append(src) 
def downLoadpics(new_path,infolist):     
    for src in infolist:         
        path = new_path + src.split('/')[-1]
        urllib.request.urlretrieve(src,path) 
def main():     
    firsturl = 'http://tieba.baidu.com/p/5879277457'
    infolist = []     
    depth = 2     
    element = firsturl.split('/')[-1]     
    PATH = filename(element)     
    for i in range(1,depth+1):         
        try:             
            url = firsturl + '?p=' + str(i)             
            html = getHTML(url)             
            HTMLinfo(infolist,html)
            downLoadpics(PATH,infolist)         
        except:             
            continue 
main()

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

谜兔2022-09-19 00:28:23
def downLoadpics(new_path,infolist):     
    for src in infolist:         
        path = new_path + src.split('/')[-1]
        urllib.request.urlretrieve(src,path) 
        
这里的的path = new_path + src.split('/')[-1] 中间少了"/"
可以改为path=os.path.join(new_path,src.split('/')[-1])
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文