Scrapy——將數據保存到MySQL數據庫
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了Scrapy——將數據保存到MySQL數據庫,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1374字,纯文字阅读大概需要2分钟。
内容图文
![Scrapy——將數據保存到MySQL數據庫](/upload/InfoBanner/zyjiaocheng/896/987d87f49408445ab36fa01771d1410f.jpg)
Scrapy——將數據保存到MySQL數據庫
1. 在MySQL中創建數據庫表job_inf:
1 Create table job_inf( 2 id int(11) not null auto_increment primary key, 3 title varchar(255), 4 salary varchar(255), 5 company varchar(255), 6 url varchar(500), 7 work_addr varchar(255), 8 industry varchar(255), 9 company_size varchar(255), 10 recruiter varchar(255), 11 publish_date varchar(255) 12 13 )
2. 在scrapy項目中將Pipeline文件修改如下:
1 import mysql.connector 2 3 4 class ZhipinspiderPipeline(object): 5 #定義構造器,初始化要寫入的文件 6 def __init__(self): 7 self.conn=mysql.connector.connect(user='root',password='12345', 8 host='localhost',port='1006',database='mypython',use_unicode=True) 9 self.cur=self.conn.cursor() 10 11 #重寫close_spider回調方法,用於關閉數據庫資源 12 def close_spider(self,spider): 13 print('------close database connection------------') 14 #關閉游標 15 self.cur.close() 16 #關閉連接 17 self.conn.close() 18 19 def process_item(self,item,spider): 20 #使用execute方法將item對象中的信息插入數據庫中 21 self.cur.execute('INSERT INTO job_inf Values(null,%s,%s,%s,%s,%s,%s,%s,%s,%s,)',(item['title'],item['salary'],item['company'],item['url'],item['work_addr'],item['indeustry'],item.get('company_size'],item['recruiter'],item['publish_date']))) 22 self.conn.commit()
?
内容总结
以上是互联网集市为您收集整理的Scrapy——將數據保存到MySQL數據庫全部内容,希望文章能够帮你解决Scrapy——將數據保存到MySQL數據庫所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。