0

pipelines中的一段代码,报错是从这段代码之后开始的

def process_item(self,item,spider):
        insert_sql="""
            insert into article(title,create_date,tags,praise_num,post_url)
            VALUES (%s,%s,%s,%s,%s)
        """
        self.cursor.execute(insert_sql,(item["title"],item["create_date"],item["tags"],item["praise_num"],item["post_url"]))
        self.conn.commit()

错误提示:

2018-02-13 15:34:28 [scrapy.core.scraper] DEBUG: Scraped from <200 http://blog.jobbole.com/113622/>
None
[Failure instance: Traceback: <class '_mysql_exceptions.OperationalError'>: (1241, 'Operand should contain 1 column(s)')

用其他文件输出是正确的,程序运行也没有中断,但是数据库里就是啥都没有
请各位大佬指点

1个回答

0

我觉得应该是数据库的连接写入有问题,但是还是没辙啊我

撰写答案