python量化交易历史回测

2020-03-14
阅读 2 分钟
1.9k
{代码...}

python基金定投策略

2020-03-14
阅读 1 分钟
1.8k
基金定投代码策略 {代码...}

python获取基金数据求基金30天移动平均线

2020-02-15
阅读 3 分钟
1.6k
单个基金 {代码...} 多个基金 {代码...}

python 发邮箱

2020-02-12
阅读 2 分钟
1.1k
发普通邮件 {代码...} 发添加附件的邮件 {代码...}

python获取基金,导出excel,画图

2020-02-12
阅读 1 分钟
2.1k
{代码...}

python 基本操作

2020-02-12
阅读 1 分钟
988
函数 {代码...} 判断 {代码...} 循环 {代码...} 文件 1、写 {代码...} 2、读 {代码...} 文件重命名 {代码...}

python爬虫

2020-02-06
阅读 2 分钟
1.6k
爬取爬虫框架的通用代码 {代码...} 2、爬取照片代码 {代码...} 或者 {代码...}

python获取智投星的数据写入到excel

2020-02-05
阅读 2 分钟
1k
{代码...} 代码打包成exepyinstaller -F ztx.py

与爬虫无关,简单的用python进行科学运算

2015-12-05
阅读 4 分钟
5.1k
1.算积分 1.1一重积分例:如计算半圆的面积,积分公式: {代码...} 1.2二重积分,算体积例:求上半圆的体积,积分公式: {代码...} 2.解非线性方程组 例:求解非线性方程组 {代码...} 3.python绘图 快速绘图: {代码...} 结果显示: 3.1 多轴绘图,各种坐标系的绘制 {代码...} 结果显示: 3.2绘制条形图 {代码...} 结果...

python爬虫网页提取器——xpath

2015-11-29
阅读 2 分钟
12.8k
xpath简单来说就是根据网页的源码路径去找你想要的的信息。例子: {代码...} 设网页文本如上:xpath简单提取方法(chrome的审查元素有xpath的提取方式) {代码...}

讲点python基础知识

2015-10-21
阅读 3 分钟
6.5k
运算符 类型 程序结构 1.分支结构例:代码设计: {代码...} 三段以上条件则:if,elif,else 2.循环结构range(起始值,终止值,步长) {代码...} 例:打印19个“我要吃饭” {代码...} continue:结束当次循环break:结束整个循环 {代码...} 正则表达式 作用:字符串(str)匹配模式(re) 代码实例: {代码...} {代码...} 贪婪模式...

scrapy简单学习6—爬取百度贴吧图片(仿写向)

2015-10-18
阅读 2 分钟
4.7k
主要是对上一篇文章的简单仿写,大家以后想批量下载什么图片照格式仿写就好。由于本人是tfboys的粉丝,所以平常没事爱逛贴吧欣赏我家三小只的美图,所以这次就以贴吧[小王的讨论楼]为例,批量爬取该楼的图片[1]

scrapy简单学习5—图片下载,爬取妹子图

2015-10-17
阅读 3 分钟
17.5k
学习网站:爬虫,整站爬取妹子图 1.item.py(定义爬取的内容) {代码...} 2.spider的编写 {代码...} 3.pipeline的编写(下载图片,新增图片) {代码...} 4.settings {代码...} 结果

scrapy简单学习4—西刺Ip的爬取

2015-10-14
阅读 2 分钟
3.9k
学习网站:麦子scrapy第九集 1.item.py的定义 {代码...} 2.spider的编写 {代码...} 3.保存成csv {代码...} 4.结果输出

scrapy简单学习3—简单爬取中文网站(仿写向)

2015-10-13
阅读 1 分钟
4.5k
3.保存文件:命令scrapy crawl lianhe -o lianhe.csv备注:excel打开出现乱码,用记事本转换成ANSI编码,excel打开中文可正常。4.完成样式:

scrapy简单学习2—解析简单的spider代码

2015-10-11
阅读 1 分钟
3.4k
学习网站:麦子学院scrapy python网络爬虫解析代码: {代码...} 备注:简单的罗列一下有用的xpath路径表达式

scrapy简单学习

2015-10-10
阅读 1 分钟
4.5k
学习网站:scrapy入门教程 1.创建项目:cmd打开scrapy所在位置,输入命令 {代码...} 2.定义item:编辑item.py,对您想要采集的数据类型进行定义。例如: {代码...} 3.编写爬虫:在spiders的文件下新建一个domz_spider.py文件,代码如下: {代码...} 4.启动爬虫:在cmd的命令行转至spiders的根目录下,输入命令 {代码...} ...