凤梨豪

凤梨豪 查看完整档案

填写现居城市  |  填写毕业院校  |  填写所在公司/组织填写个人主网站
编辑

杭州树洞网络科技 CTO

个人动态

凤梨豪 发布了文章 · 2018-07-05

deepin/ubuntu安装苹方字体

苹方字体是苹果系统上的黑体,挺好看的。
注重颜值的网站都会使用,例如知乎:

font-family: -apple-system, BlinkMacSystemFont, Helvetica Neue, PingFang SC, Microsoft YaHei, Source Han Sans SC, Noto Sans CJK SC, WenQuanYi Micro Hei, sans-serif

其中的PingFang SC可以说是中文字首位了。

然鹅,从网上下的苹方安装之后,死活都使用不上。仔细一看,发现安装的字体名为:

图片描述

多了一个点!!!!惊不惊喜,意不意外。

幸好linux下有比较好用的字体编辑工具:FontForge

  1. 选择 字符标识(C) -> CID字体信息 -> TTF名称
  2. 把里面的所有点都去掉。
  3. 然后 文件 -> 生成字体 即可

好了,现在可以安装使用PingFang SC了。

查看原文

赞 5 收藏 3 评论 0

凤梨豪 评论了文章 · 2018-06-04

eos docker运行后无法执行cleos

虽然eos给了安装教程,当然还是用docker最方便。而且现在docker还有阿里云镜像,速度快的不要不要的。

官方教程了https://github.com/EOSIO/eos/...,不过只是想运行的话,也不用build,直接在源码的Docker目录下执行:

$ docker-compose up

就好了,会自动启动两个容器:

  1. keosd 钱包管理组件,负责签名啊啥的
  2. nodeosd 区块链节点

eos更新很快,教程更新不及时,截至今天(2018-5-23),教程里cleos(命令行工具)的配置是有问题的。

Long version

# 有问题!
$ alias cleos='docker-compose exec keosd /opt/eos/bin/cleos -H nodeos'

首先你可能遇到命令不存在,因为路径变过了,当前是/opt/eosio/bin/cleos。即便是改变了路径,发现还是会报错:

Host and port options (-H, --wallet-host, etc.) have been replaced with -u/--url and --wallet-url
Use for example -u http://localhost:8888 or --url https://example.invalid/

错误也说明了原因。
重新配置下发现还是报错:

# 还是有问题!
$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://localhost:8888/'

$ cleos get info
Error 3130001: Missing Chain API Plugin
Ensure that you have eosio::chain_api_plugin added to your node's configuration!
Error Details:
Chain API plugin is not enabled

这错报的真是惊天地泣鬼神,按照提示你死活是搞不对的,因为默认Chain API Plugin是打开的。

其实是本来就不该连localhost,要连到链上去。
修改为:

$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://nodeosd:8888/ --wallet-url http://localhost:8888'

$ cleos get info

{
  "server_version": "4e99cf47",
  "head_block_num": 1975,
  "last_irreversible_block_num": 1974,
  "last_irreversible_block_id": "000007b6d7f08fed622ffbf03d516e70d05d6f731cd3157cf5b0215182e0a3aa",
  "head_block_id": "000007b77d87993ec68eaaa3cf3752433e7a012aeffb41f9d65c2ddda5fe195c",
  "head_block_time": "2018-05-23T08:07:40",
  "head_block_producer": "eosio",
  "virtual_block_cpu_limit": 717591,
  "virtual_block_net_limit": 7553528,
  "block_cpu_limit": 99900,
  "block_net_limit": 1048576
}

好了,终于可以愉快的使用cleos了。

Short Version

$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://nodeosd:8888/ --wallet-url http://localhost:8888'

cleos即可正常使用。

查看原文

凤梨豪 发布了文章 · 2018-05-23

eos docker运行后无法执行cleos

虽然eos给了安装教程,当然还是用docker最方便。而且现在docker还有阿里云镜像,速度快的不要不要的。

官方教程了https://github.com/EOSIO/eos/...,不过只是想运行的话,也不用build,直接在源码的Docker目录下执行:

$ docker-compose up

就好了,会自动启动两个容器:

  1. keosd 钱包管理组件,负责签名啊啥的
  2. nodeosd 区块链节点

eos更新很快,教程更新不及时,截至今天(2018-5-23),教程里cleos(命令行工具)的配置是有问题的。

Long version

# 有问题!
$ alias cleos='docker-compose exec keosd /opt/eos/bin/cleos -H nodeos'

首先你可能遇到命令不存在,因为路径变过了,当前是/opt/eosio/bin/cleos。即便是改变了路径,发现还是会报错:

Host and port options (-H, --wallet-host, etc.) have been replaced with -u/--url and --wallet-url
Use for example -u http://localhost:8888 or --url https://example.invalid/

错误也说明了原因。
重新配置下发现还是报错:

# 还是有问题!
$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://localhost:8888/'

$ cleos get info
Error 3130001: Missing Chain API Plugin
Ensure that you have eosio::chain_api_plugin added to your node's configuration!
Error Details:
Chain API plugin is not enabled

这错报的真是惊天地泣鬼神,按照提示你死活是搞不对的,因为默认Chain API Plugin是打开的。

其实是本来就不该连localhost,要连到链上去。
修改为:

$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://nodeosd:8888/ --wallet-url http://localhost:8888'

$ cleos get info

{
  "server_version": "4e99cf47",
  "head_block_num": 1975,
  "last_irreversible_block_num": 1974,
  "last_irreversible_block_id": "000007b6d7f08fed622ffbf03d516e70d05d6f731cd3157cf5b0215182e0a3aa",
  "head_block_id": "000007b77d87993ec68eaaa3cf3752433e7a012aeffb41f9d65c2ddda5fe195c",
  "head_block_time": "2018-05-23T08:07:40",
  "head_block_producer": "eosio",
  "virtual_block_cpu_limit": 717591,
  "virtual_block_net_limit": 7553528,
  "block_cpu_limit": 99900,
  "block_net_limit": 1048576
}

好了,终于可以愉快的使用cleos了。

Short Version

$ alias cleos='docker-compose exec keosd /opt/eosio/bin/cleos -u http://nodeosd:8888/ --wallet-url http://localhost:8888'

cleos即可正常使用。

查看原文

赞 0 收藏 0 评论 2

凤梨豪 发布了文章 · 2017-09-27

centos安装使用puppeteer和headless chrome

Google推出了无图形界面的headless Chrome之后,可以直接在远程服务器上直接跑一些测试脚本或者爬虫脚本了,猴开心!Google还附送了Puppeteer用于驱动没头的Chome。

阿里的Macaca也顺势写了Macaca-puppeteer,可以在Macaca上直接写通用的测试用例,在开发机上用图形界面看效果,上服务器走生产,岂不是美滋滋。

然鹅,可达鸭眉头一皱,发现事情并没有那么简单。

在阿里云的Centos 7.3上,安装puppeteer之后,会发现并不能启动官方的example:

const puppeteer = require('puppeteer');

(async () => {
  const browser = await puppeteer.launch();
  const page = await browser.newPage();
  await page.goto('https://example.com');
  await page.screenshot({path: 'example.png'});

  await browser.close();
})();

依赖安装

仔细看错误栈,核心的错误是如下一段:

...node_modules/puppeteer/.local-chromium/linux-496140/chrome-linux/chrome: error while loading shared libraries: libpangocairo-1.0.so.0: cannot open shared object file: No such file or directory

TROUBLESHOOTING: https://github.com/GoogleChro...

原来puppet虽然帮你下了一个Chromium,但并没有帮你把依赖都装好。于是你要自己把那些so都装好。

官方给的是Ubuntu版本的各个so包的apt-get安装方式,centos版本居然没有放!于是遍历了各个issue之后,终于发现还是有人给出了centos的库名,在一个看起来并不相关的issue里

#依赖库
yum install pango.x86_64 libXcomposite.x86_64 libXcursor.x86_64 libXdamage.x86_64 libXext.x86_64 libXi.x86_64 libXtst.x86_64 cups-libs.x86_64 libXScrnSaver.x86_64 libXrandr.x86_64 GConf2.x86_64 alsa-lib.x86_64 atk.x86_64 gtk3.x86_64 -y

#字体
yum install ipa-gothic-fonts xorg-x11-fonts-100dpi xorg-x11-fonts-75dpi xorg-x11-utils xorg-x11-fonts-cyrillic xorg-x11-fonts-Type1 xorg-x11-fonts-misc -y

总算不用挨个去google了……

sandbox去沙箱

这时候你再去执行脚本,发现还是跑不起来。但是报错终于变了。这个时候变成了一个莫名其妙的错误:

(node:30559) UnhandledPromiseRejectionWarning: Unhandled promise rejection (rejection id: 1): Error: Failed to connect to chrome!
(node:30559) [DEP0018] DeprecationWarning: Unhandled promise rejections are deprecated. In the future, promise rejections that are not handled will terminate the Node.js process with a non-zero exit code.

要疯掉了有没有,这啥玩意啊!!!!关键是这时候另外一个看起来是解决上面问题的issue,对这个错误进行了详细的讨论,然而直到今天(2017年9月27日)并没有讨论出什么结果。

网上很多讨论是说,直接调试那个Chrome。按照并不能解决问题的说法:直接去puppeteer的目录找到.local-chrome里面的Chromium执行文件,直接执行

./chrome -v --no-sandbox --disable-setuid-sandbox

(chrome:5333): Gtk-WARNING **: cannot open display: 

发现加上了--no-sanbox其实是能启动的,但是提示没有Gtk图形界面,那干脆加上--headless是不是就行了嘞?确实没有报错了。

回到puppeteer示例脚本,修改启动浏览器的代码,加上args:

const puppeteer = require('puppeteer');

(async () => {
  const browser = await puppeteer.launch({args: ['--no-sandbox', '--disable-setuid-sandbox']});
  const page = await browser.newPage();
  await page.goto('https://example.com');
  await page.screenshot({path: 'example.png'});

  await browser.close();
})();

啊哈,终于执行成功了。下载下来了example.com的截图看了一眼,简直泪流满面。

回想一下,Puppet本身估计自带了--headless,所以如果直接去命令行执行chrome,还是要带上--headless。

终于搞定这一切发现Macaca顺便还提供了一个基于Ubuntu的Macaca-puppeteer的Docker,艾玛这方便太多了,早知道不自己折腾了。

查看原文

赞 43 收藏 29 评论 28

凤梨豪 回答了问题 · 2016-04-21

解决android如何实现实时音视频?

关注 4 回答 3

凤梨豪 赞了文章 · 2016-01-26

30分钟掌握ES6/ES2015核心内容(下)

30分钟掌握ES6/ES2015核心内容(上)我们讲解了es6最常用的一些语法:let, const, class, extends, super, arrow functions, template string, destructuring, default, rest arguments

俗话说打铁要趁热,今天我们继续讲es6其他几个非常有用的新特性。

import export

这两个家伙对应的就是es6自己的module功能。

我们之前写的Javascript一直都没有模块化的体系,无法将一个庞大的js工程拆分成一个个功能相对独立但相互依赖的小工程,再用一种简单的方法把这些小工程连接在一起。

这有可能导致两个问题:

  1. 一方面js代码变得很臃肿,难以维护
  2. 另一方面我们常常得很注意每个script标签在html中的位置,因为它们通常有依赖关系,顺序错了可能就会出bug

在es6之前为解决上面提到的问题,我们得利用第三方提供的一些方案,主要有两种CommonJS(服务器端)和AMD(浏览器端,如require.js)。

如果想了解更多AMD,尤其是require.js,可以参看这个教程:why modules on the web are useful and the mechanisms that can be used on the web today to enable them

而现在我们有了es6的module功能,它实现非常简单,可以成为服务器和浏览器通用的模块解决方案。

ES6模块的设计思想,是尽量的静态化,使得编译时就能确定模块的依赖关系,以及输入和输出的变量。CommonJS和AMD模块,都只能在运行时确定这些东西。

上面的设计思想看不懂也没关系,咱先学会怎么用,等以后用多了、熟练了再去研究它背后的设计思想也不迟!好,那我们就上代码...

传统的写法

首先我们回顾下require.js的写法。假设我们有两个js文件: index.jscontent.js,现在我们想要在index.js中使用content.js返回的结果,我们要怎么做呢?

首先定义:

//content.js
define('content.js', function(){
    return 'A cat';
})

然后require:

//index.js
require(['./content.js'], function(animal){
    console.log(animal);   //A cat
})

那CommonJS是怎么写的呢?

//index.js
var animal = require('./content.js')

//content.js
module.exports = 'A cat'

ES6的写法

//index.js
import animal from './content'

//content.js
export default 'A cat'

以上我把三者都列出来了,妈妈再也不用担心我写混淆了...

ES6 module的其他高级用法

输出输入多个变量

//content.js

export default 'A cat'    
export function say(){
    return 'Hello!'
}    
export const type = 'dog' 

上面可以看出,export命令除了输出变量,还可以输出函数,甚至是类(react的模块基本都是输出类)

//index.js

import { say, type } from './content'  
let says = say()
console.log(`The ${type} says ${says}`)  //The dog says Hello

这里输入的时候要注意:大括号里面的变量名,必须与被导入模块(content.js)对外接口的名称相同。

如果还希望输入content.js中输出的默认值(default), 可以写在大括号外面。

//index.js

import animal, { say, type } from './content'  
let says = say()
console.log(`The ${type} says ${says} to ${animal}`)  
//The dog says Hello to A cat

修改变量名

此时我们不喜欢type这个变量名,因为它有可能重名,所以我们需要修改一下它的变量名。在es6中可以用as实现一键换名。

//index.js

import animal, { say, type as animalType } from './content'  
let says = say()
console.log(`The ${animalType} says ${says} to ${animal}`)  
//The dog says Hello to A cat

模块的整体加载

除了指定加载某个输出值,还可以使用整体加载,即用星号(*)指定一个对象,所有输出值都加载在这个对象上面。

//index.js

import animal, * as content from './content'  
let says = content.say()
console.log(`The ${content.type} says ${says} to ${animal}`)  
//The dog says Hello to A cat

通常星号*结合as一起使用比较合适。

终极秘籍

考虑下面的场景:上面的content.js一共输出了三个变量(default, say, type),假如我们的实际项目当中只需要用到type这一个变量,其余两个我们暂时不需要。我们可以只输入一个变量:

import { type } from './content' 

由于其他两个变量没有被使用,我们希望代码打包的时候也忽略它们,抛弃它们,这样在大项目中可以显著减少文件的体积。

ES6帮我们实现了!

不过,目前无论是webpack还是browserify都还不支持这一功能...

如果你现在就想实现这一功能的话,可以尝试使用rollup.js

他们把这个功能叫做Tree-shaking,哈哈哈,意思就是打包前让整个文档树抖一抖,把那些并未被依赖或使用的东西统统抖落下去。。。

看看他们官方的解释吧:

Normally if you require a module, you import the whole thing. ES2015 lets you just import the bits you need, without mucking around with custom builds. It's a revolution in how we use libraries in JavaScript, and it's happening right now.

未完待续

希望更全面了解es6伙伴们可以去看阮一峰所著的电子书ECMAScript 6入门

查看原文

赞 162 收藏 668 评论 24

凤梨豪 赞了文章 · 2016-01-26

30分钟掌握ES6/ES2015核心内容(上)

ECMAScript 6(以下简称ES6)是JavaScript语言的下一代标准。因为当前版本的ES6是在2015年发布的,所以又称ECMAScript 2015。

也就是说,ES6就是ES2015。

虽然目前并不是所有浏览器都能兼容ES6全部特性,但越来越多的程序员在实际项目当中已经开始使用ES6了。所以就算你现在不打算使用ES6,但为了看懂别人的你也该懂点ES6的语法了...

在我们正式讲解ES6语法之前,我们得先了解下Babel。
Babel

Babel是一个广泛使用的ES6转码器,可以将ES6代码转为ES5代码,从而在现有环境执行。大家可以选择自己习惯的工具来使用使用Babel,具体过程可直接在Babel官网查看:
https://babeljs.io/docs/setup/

最常用的ES6特性

let, const, class, extends, super, arrow functions, template string, destructuring, default, rest arguments
这些是ES6最常用的几个语法,基本上学会它们,我们就可以走遍天下都不怕啦!我会用最通俗易懂的语言和例子来讲解它们,保证一看就懂,一学就会。

let, const

这两个的用途与var类似,都是用来声明变量的,但在实际运用中他俩都有各自的特殊用途。
首先来看下面这个例子:

var name = 'zach'

while (true) {
    var name = 'obama'
    console.log(name)  //obama
    break
}

console.log(name)  //obama

使用var 两次输出都是obama,这是因为ES5只有全局作用域和函数作用域,没有块级作用域,这带来很多不合理的场景。第一种场景就是你现在看到的内层变量覆盖外层变量。而let则实际上为JavaScript新增了块级作用域。用它所声明的变量,只在let命令所在的代码块内有效。

let name = 'zach'

while (true) {
    let name = 'obama'
    console.log(name)  //obama
    break
}

console.log(name)  //zach

另外一个var带来的不合理场景就是用来计数的循环变量泄露为全局变量,看下面的例子:

var a = [];
for (var i = 0; i < 10; i++) {
  a[i] = function () {
    console.log(i);
  };
}
a[6](); // 10

上面代码中,变量i是var声明的,在全局范围内都有效。所以每一次循环,新的i值都会覆盖旧值,导致最后输出的是最后一轮的i的值。而使用let则不会出现这个问题。

var a = [];
for (let i = 0; i < 10; i++) {
  a[i] = function () {
    console.log(i);
  };
}
a[6](); // 6

再来看一个更常见的例子,了解下如果不用ES6,而用闭包如何解决这个问题。

var clickBoxs = document.querySelectorAll('.clickBox')
for (var i = 0; i < clickBoxs.length; i++){
    clickBoxs[i].onclick = function(){
        console.log(i)
    }
}

我们本来希望的是点击不同的clickBox,显示不同的i,但事实是无论我们点击哪个clickBox,输出的都是5。下面我们来看下,如何用闭包搞定它。

function iteratorFactory(i){
    var onclick = function(e){
        console.log(i)
    }
    return onclick;
}
var clickBoxs = document.querySelectorAll('.clickBox')
for (var i = 0; i < clickBoxs.length; i++){
    clickBoxs[i].onclick = iteratorFactory(i)
}

const也用来声明变量,但是声明的是常量。一旦声明,常量的值就不能改变。

const PI = Math.PI

PI = 23 //Module build failed: SyntaxError: /es6/app.js: "PI" is read-only

当我们尝试去改变用const声明的常量时,浏览器就会报错。
const有一个很好的应用场景,就是当我们引用第三方库的时声明的变量,用const来声明可以避免未来不小心重命名而导致出现bug:

const monent = require('moment')

class, extends, super

这三个特性涉及了ES5中最令人头疼的的几个部分:原型、构造函数,继承...你还在为它们复杂难懂的语法而烦恼吗?你还在为指针到底指向哪里而纠结万分吗?

有了ES6我们不再烦恼!

ES6提供了更接近传统语言的写法,引入了Class(类)这个概念。新的class写法让对象原型的写法更加清晰、更像面向对象编程的语法,也更加通俗易懂。

class Animal {
    constructor(){
        this.type = 'animal'
    }
    says(say){
        console.log(this.type + ' says ' + say)
    }
}

let animal = new Animal()
animal.says('hello') //animal says hello

class Cat extends Animal {
    constructor(){
        super()
        this.type = 'cat'
    }
}

let cat = new Cat()
cat.says('hello') //cat says hello

上面代码首先用class定义了一个“类”,可以看到里面有一个constructor方法,这就是构造方法,而this关键字则代表实例对象。简单地说,constructor内定义的方法和属性是实例对象自己的,而constructor外定义的方法和属性则是所有实例对象可以共享的。

Class之间可以通过extends关键字实现继承,这比ES5的通过修改原型链实现继承,要清晰和方便很多。上面定义了一个Cat类,该类通过extends关键字,继承了Animal类的所有属性和方法。

super关键字,它指代父类的实例(即父类的this对象)。子类必须在constructor方法中调用super方法,否则新建实例时会报错。这是因为子类没有自己的this对象,而是继承父类的this对象,然后对其进行加工。如果不调用super方法,子类就得不到this对象。

ES6的继承机制,实质是先创造父类的实例对象this(所以必须先调用super方法),然后再用子类的构造函数修改this。

P.S 如果你写react的话,就会发现以上三个东西在最新版React中出现得很多。创建的每个component都是一个继承React.Component的类。详见react文档

arrow function

这个恐怕是ES6最最常用的一个新特性了,用它来写function比原来的写法要简洁清晰很多:

function(i){ return i + 1; } //ES5
(i) => i + 1 //ES6

简直是简单的不像话对吧...
如果方程比较复杂,则需要用{}把代码包起来:

function(x, y) { 
    x++;
    y--;
    return x + y;
}
(x, y) => {x++; y--; return x+y}

除了看上去更简洁以外,arrow function还有一项超级无敌的功能!
长期以来,JavaScript语言的this对象一直是一个令人头痛的问题,在对象方法中使用this,必须非常小心。例如:

class Animal {
    constructor(){
        this.type = 'animal'
    }
    says(say){
        setTimeout(function(){
            console.log(this.type + ' says ' + say)
        }, 1000)
    }
}

 var animal = new Animal()
 animal.says('hi')  //undefined says hi

运行上面的代码会报错,这是因为setTimeout中的this指向的是全局对象。所以为了让它能够正确的运行,传统的解决方法有两种:

  1. 第一种是将this传给self,再用self来指代this

    says(say){

    var self = this;
    setTimeout(function(){
        console.log(self.type + ' says ' + say)
    }, 1000)

2.第二种方法是用bind(this),即

    says(say){
        setTimeout(function(){
            console.log(this.type + ' says ' + say)
        }.bind(this), 1000)

但现在我们有了箭头函数,就不需要这么麻烦了:

class Animal {
    constructor(){
        this.type = 'animal'
    }
    says(say){
        setTimeout( () => {
            console.log(this.type + ' says ' + say)
        }, 1000)
    }
}
 var animal = new Animal()
 animal.says('hi')  //animal says hi

当我们使用箭头函数时,函数体内的this对象,就是定义时所在的对象,而不是使用时所在的对象。
并不是因为箭头函数内部有绑定this的机制,实际原因是箭头函数根本没有自己的this,它的this是继承外面的,因此内部的this就是外层代码块的this。

template string

这个东西也是非常有用,当我们要插入大段的html内容到文档中时,传统的写法非常麻烦,所以之前我们通常会引用一些模板工具库,比如mustache等等。

大家可以先看下面一段代码:

$("#result").append(
  "There are <b>" + basket.count + "</b> " +
  "items in your basket, " +
  "<em>" + basket.onSale +
  "</em> are on sale!"
);

我们要用一堆的'+'号来连接文本与变量,而使用ES6的新特性模板字符串``后,我们可以直接这么来写:

$("#result").append(`
  There are <b>${basket.count}</b> items
   in your basket, <em>${basket.onSale}</em>
  are on sale!
`);

用反引号(\来标识起始,用${}`来引用变量,而且所有的空格和缩进都会被保留在输出之中,是不是非常爽?!

React Router从第1.0.3版开始也使用ES6语法了,比如这个例子:

<Link to={`/taco/${taco.name}`}>{taco.name}</Link>

React Router

destructuring

ES6允许按照一定模式,从数组和对象中提取值,对变量进行赋值,这被称为解构(Destructuring)。

看下面的例子:

let cat = 'ken'
let dog = 'lili'
let zoo = {cat: cat, dog: dog}
console.log(zoo)  //Object {cat: "ken", dog: "lili"}

用ES6完全可以像下面这么写:

let cat = 'ken'
let dog = 'lili'
let zoo = {cat, dog}
console.log(zoo)  //Object {cat: "ken", dog: "lili"}

反过来可以这么写:

let dog = {type: 'animal', many: 2}
let { type, many} = dog
console.log(type, many)   //animal 2

default, rest

default很简单,意思就是默认值。大家可以看下面的例子,调用animal()方法时忘了传参数,传统的做法就是加上这一句type = type || 'cat' 来指定默认值。

function animal(type){
    type = type || 'cat'  
    console.log(type)
}
animal()

如果用ES6我们而已直接这么写:

function animal(type = 'cat'){
    console.log(type)
}
animal()

最后一个rest语法也很简单,直接看例子:

function animals(...types){
    console.log(types)
}
animals('cat', 'dog', 'fish') //["cat", "dog", "fish"]

而如果不用ES6的话,我们则得使用ES5的arguments

总结

以上就是ES6最常用的一些语法,可以说这20%的语法,在ES6的日常使用中占了80%...

追加十分钟好的吗?:)
30分钟掌握ES6/ES2015核心内容(下)

查看原文

赞 311 收藏 1226 评论 56

凤梨豪 回答了问题 · 2015-12-21

高德地图首次显示地图出现空指针问题。

mapView是null
估计你忘记findViewById了吧。可以单点调试下

关注 5 回答 3

凤梨豪 赞了回答 · 2015-12-21

解决为什么我的chrome总是报错?

印象笔记扩展导致的

关注 2 回答 1

凤梨豪 发布了文章 · 2015-12-19

Devops必须留意的Mongo副本集Resync的坑

Devops一般很少时间会花在数据库的部署上,只有到了不得不去考虑的情况下,才会去考虑如何调整数据库,以适应业务的发展。mongodb本身就很适合Devops,大部分情况下,部署基本按照说明操作一下即可。但实际操作起来,其实还有会有一些坑,比如Resync。

正常同步和oplog

mongo副本集,在正常工作的情况下,是以一种不断的、异步的方式进行同步。每个副本都会不断的记录自己进行的操作进入到oplog表里;Secondary副本就会不断的从Primary副本那里同步最新的操作,从而完成整个副本集的同步。当然Secondary的副本也可以选择从其他的Secondary副本同步,因为每个副本都会记录oplog。详细的描述可以参考官方文档Replica Set Data Synchronization

clipboard.png

Oplog是一个特殊的固定大小的collection,固定大小意味着,新的操作记录的写入会导致最老的操作记录的删除,以保证oplog的大小。这个值如果不去设置,mongo会自动根据硬盘大小的5%来设定。大部分情况下没有什么问题,但有一个非常重要的设(da)定(keng):

oplog一旦大小固定,那么只能通过重启+配置来进行修改

为什么这会是一个坑,后面会继续讨论。

同步延迟lag和optime

副本集之间一般通过网络连接,副本集之间的性能也有可能有差异(当然最好不要有),所以同步操作有可能出现毫秒级别的延迟,甚至到1s以上,这个可以通过在任意一个副本集上执行

rs.status()

来查看所有副本集的同步状态。这个打印出的各个副本的optime,就是这个副本最后一条操作执行的时间,Secondary和Primary之间optime的时间差,其实就是同步延迟。

同步延迟一般情况下,顶多也就一两秒,但是一些异常情况,例如宕机、长时间过载overload,可能会导致这个时间越来越长。这里,我们的oplog的巨大作用就显现出来了!

Secondary和Primary之间的同步差,最大不能超过Primary的oplog能存储的条数

注意!因为Secondary是从Primary同步oplog,所以,这里只与Primary的oplog大小有关,与Secondary自身记录的oplog无关!当然,如果Secondary是从其他的Secondary同步数据,那么至于同步目标的oplog有关。

为了帮助用户直观的理解oplog里面存储了多少条操作,mongo还额外提供了两个数据:

  1. tFirst 第一条oplog的时间

  2. tLast 最后一条oplog的时间

这两个数据,可以通过在primary上执行:

db.getReplicationInfo()

获得。tLast - tFirst就是mongo同步机制所允许你进行停机同步数据的最大时间,当然这个时间不是固定的,如果当前的负载很低,相当于相同的oplog表可以存更长时间内的操作数据,就会给你留更多的停机操作时间。

clipboard.png

上图中,Secondary落后于Primary,也就是说,同步延迟有10分钟(两个optime相减),但此时,Primary上存有最近20分钟的oplog,那么Secondary通过获取这些oplog,仍然能够在短时间内赶上Primary的进度。

但是,一旦optime的差距超出了Primary的tFirst,情况就不妙了,如下图:

clipboard.png

此时,自动的同步已经无法完成同步了(stale),必须执行手动操作Resync。而且Secondary已经降级为Recovering,将无法接受请求,以及不能变成master。

Resync机制

Resync机制官网有详细的介绍,基本思路就是把数据拷贝过来,再进行上面的oplog的同步。例如:

  1. 使用磁盘快照,把快照的数据库文件直接覆盖到Secondary上,重启Secondary

  2. 使用Initial Sync,把Secondary的数据清空,让mongo自动从0开始,重新同步所有数据

磁盘快照看起来很美好,但是是mongo的数据存储是分配后就不返回的,也就是说实际占用的磁盘空间要比真实数据的大小要大,使用操作系统的scp也好rsync也好,这些无用的空间也会被复制,耽误复制的时间。除此之外,建立快照本身也需要耗时,反正在阿里云上建快照并不快,200G的数据大约要1小时多。

而Initial Sync是mongo之间拷贝表数据,拷贝完了就地重建索引,所以相当于只传输了真实的表数据,连索引数据都不用传输,从整体的复制时间来看更加节省,但是会对拷贝对象Primary有一些性能影响,但毕竟只是读,而且不需要Primary停机。

Resync的大坑

无论使用上面的哪种Resync机制,思路都是一致的,通过某种快速的方式同步更多的数据,然后剩下的使用oplog弥补在执行操作时的新操作。看起来很美好,而实际的执行过程中,如果操作的时间,要大于oplog所记录的时间,怎么办?将永远无法不停机Resync成功!

clipboard.png

这里Initial Sync为什么也不能成功呢?其实在Initial Sync的日志中,就可以看出来,在STATUP2的状态,就是一张表一张表的拷数据,也就是说,就算拷贝过程中的数据已经同步过去了,当拷贝下一张表时,上一张表的数据其实已经过期了。而当数据量很大的情况下(其实不需要太大,几百G),整个拷贝过程也要持续数小时,此时如果oplog的记录时间低于STARTUP2所需要花费的时间,恭喜你,你中奖了。

当然,如果你能有一台正常同步数据的Secondary,新的机器指向这台也是可以的,但是你的架构是一台Arbiter一台Primary一台Secondary的话……就没办法了,只能指望Primary了。别问我为什么知道,我就是知道。(╯‵□′)╯︵┴─┴

遇到这种情况怎么办?

  1. 半夜Primary停机,同步数据。这对于DBA也都不奇怪,只是在用了mongo集群后没享受到mongo的便利。当然,到了半夜负载下降,相当于oplog允许的操作时间变长了,也许不用停机。

  2. 如果有很多冗余数据、日志数据什么的,可以删除,从而降低Initial Sync花费的时间,那也是很值得尝试的!

坑的真正原因

上面的坑,其实主要是在于oplog的值相对于数据量过小的时候会出现。一般默认情况下,oplog取磁盘大小的5%似乎没太大问题。坑在哪呢?

  1. 磁盘扩容

  2. 高负载

一开始我就提到,oplog的存储大小一旦确定是不会改的,也就是说,一旦随着业务的发展,进行了磁盘扩容,或者移动到了一块更大的硬盘上,oplog的大小不会随之改变!

一旦两件巧合的事情遇到了一起:磁盘曾经扩容且没有额外考虑oplog;需要新增副本或者副本stale了;此时正常的机器只有一台Primary;就会变成一件解决起来不那么轻松的事情了。

而高负载也是潜在的另外一个可能,由于负载过高,虽然oplog存储很大,但是实际上oplog所支持的停机操作时间变少了,此时也会遇到相同的情况。

防坑指南

总结一下,在用mongo副本集群的时候,随着数据的增长、磁盘的扩容,一方面在考虑sharding的同时,一定要注意当前的oplog存储是否够用,提前为下一次部署策略更换准备好,给下一次的操作留够时间。特别是Devops,平时没时间管的,一定要未雨绸缪呀。

查看原文

赞 7 收藏 16 评论 1

认证与成就

  • 获得 59 次点赞
  • 获得 15 枚徽章 获得 2 枚金徽章, 获得 6 枚银徽章, 获得 7 枚铜徽章

擅长技能
编辑

(゚∀゚ )
暂时没有

开源项目 & 著作
编辑

(゚∀゚ )
暂时没有

注册于 2012-02-23
个人主页被 777 人浏览