pipelines中的一段代码,报错是从这段代码之后开始的
def process_item(self,item,spider):
insert_sql="""
insert into article(title,create_date,tags,praise_num,post_url)
VALUES (%s,%s,%s,%s,%s)
"""
self.cursor.execute(insert_sql,(item["title"],item["create_date"],item["tags"],item["praise_num"],item["post_url"]))
self.conn.commit()
错误提示:
2018-02-13 15:34:28 [scrapy.core.scraper] DEBUG: Scraped from <200 http://blog.jobbole.com/113622/>
None
[Failure instance: Traceback: <class '_mysql_exceptions.OperationalError'>: (1241, 'Operand should contain 1 column(s)')
用其他文件输出是正确的,程序运行也没有中断,但是数据库里就是啥都没有
请各位大佬指点
我觉得应该是数据库的连接写入有问题,但是还是没辙啊我