请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

爬豆瓣网,root_html一直获取不到数据,怎么解决

#!/usr/bin/python
# -*- coding: utf-8 -*-
from urllib import request
import re

# 获取豆瓣网音乐人的专辑名称和喜欢的人数
class Spider():
    url = 'https://music.douban.com/artists/genre_page/6/'
    root_pattern = '<div style="width:100%;" class="11">([\s\S]*?)</div>'
    name_pattern = '<a>([\s\S]*?)</a>'
    number_pattern = '<div class="p1">([\s\S]*?)</div>'
    #获取源文档
    def __content(self):
         r = request.urlopen(Spider.url)
         htmls = r.read()
         htmls = str(htmls, encoding='utf-8')
         return htmls


#对源文档进行提炼,提取专辑名和喜欢的人数
def __analisys(self,htmls):
    root_html = re.findall(Spider.root_pattern, htmls)

    anchors = []

   for html in root_html:
       name = re.findall(Spider.name_pattern, html)
       number = re.findall(Spider.number_pattern, html)
       anchor = {'name': name, 'number': number}
       anchors.append(anchor)
        print(anchors)

def go(self):
    htmls = self.__content()
    self.__analisys(htmls)

#调用
spider = Spider()
spider.go()

正在回答

2回答

主要是正则表达式出的问题

    root_pattern = '<div style="width: 100%;" class="ll">([\s\S]*?)</div>'

    name_pattern = '<a [\s\S]*?>([\s\S]*?)</a>'

    number_pattern = '<div class="pl">([\s\S]*)'


  1. width:与100%之间有个空格

  2. class="ll"、class="pl" (是字母L小写不是数字1)

  3. a标签中还有href属性所以'<a>([\s\S]*?)</a>'是无法匹配的

  4. 通过'<div style="width: 100%;" class="ll">([\s\S]*?)</div>' 获取的字符串最后是没有</div>的所以直接用'<div class="pl">([\s\S]*)'匹配

0 回复 有任何疑惑可以回复我~
  • 提问者 cherrylove123 #1
    非常感谢!
    回复 有任何疑惑可以回复我~ 2018-09-26 09:39:15
丶灰色天空 2018-09-10 14:01:54

#!/usr/bin/python

# -*- coding: utf-8 -*-

from urllib import request

import re

# 获取豆瓣网音乐人的专辑名称和喜欢的人数

class Spider():

    url = 'https://music.douban.com/artists/genre_page/6/'

    root_pattern = '<div style="width: 100%;" class="ll">([\s\S]*?)</div>'

    name_pattern = '<a [\s\S]*?>([\s\S]*?)</a>'

    number_pattern = '<div class="pl">([\s\S]*)'

    #获取源文档

    def __content(self):

         r = request.urlopen(Spider.url)

         htmls = r.read()

         htmls = str(htmls, encoding='utf-8')

         return htmls


#对源文档进行提炼,提取专辑名和喜欢的人数

    def __analisys(self,htmls):

        root_html = re.findall(Spider.root_pattern, htmls)

        anchors = []

        for html in root_html:

            name = re.findall(Spider.name_pattern, html)

            number = re.findall(Spider.number_pattern, html)

            anchor = {'name': name[0], 'number': number[0]}

            anchors.append(anchor)

        print(anchors)


    def go(self):

        htmls = self.__content()

        self.__analisys(htmls)

#调用

spider = Spider()

spider.go()

该成这样就行了

0 回复 有任何疑惑可以回复我~
问题已解决,确定采纳
还有疑问,暂不采纳
意见反馈 帮助中心 APP下载
官方微信