用scrapy-splash爬取网站 为啥iframe下的内容没有被返回

用scrapy-splash爬取网站 为啥iframe下的内容没有被返回?

import scrapy
from scrapy import Selector



class Music163Spider(scrapy.Spider):
    name = "music163"
    allowed_domains = ["music.163.com/#/discover/toplist"]
    start_urls = ['http://music.163.com/#/discover/toplist/']

    def parse(self, response):
        print("parse:",response.text)
        

    def start_requests(self):
        for url in self.start_urls:
            yield scrapy.Request(url, self.parse, meta={
                'splash': {
                    'endpoint': 'render.html',
                    'args': {
                        'wait': 0.5,
                    }
                }
            })
阅读 6.4k
2 个回答

你需要在parse中获取iframe的url再次请求内容。

新手上路,请多包涵

没有import scrapy_splash
要用yield SplashRequest(...)

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题