头图

vivo 应用商店中的断点续传技术剖析

一、业务背景

目前,vivo 平台有很多的业务都涉及到文件的下载:譬如说应用商店、游戏中心的C端用户下载更新应用或游戏;开放平台B端用户通过接口传包能力更新应用或游戏,需要从用户服务器上下载apk、图片等文件,来完成用户的一次版本更新。

二、面临的挑战

针对上述C端用户,平台需要提供良好的下载环境,并且客户端需要兼容手机上用户的异常操作。

针对上述B端用户,平台亟需解决的问题就是从用户服务器上,拉取各种资源文件。

下载本身也是一个很复杂的问题,会涉及到网络问题、URL重定向、超大文件、远程服务器文件变更、本地文件被删除等各种问题。这就需要我们保证平台具备快速下载文件的能力,同时兼具有有对异常场景的快速预警、容错处理的机制。

三、业务实现方案

基于前面提到的挑战,我们设计实现方案的时候,引用了行业常用的解决方法:断点下载。

针对B端用户场景,我们的处理方案入下图:

一、极速下载:通过分析文件大小,智能选择是否采用直接下载、单线程断点下载、多线程断点下载的方案;在使用多线程下载方案时,对"多线程"的使用,有两种方式:

  • 分组模式:单个文件采用固定最大N个线程来进行下载,分组的好处是能保证服务节点线程数量可控,劣势就是遇到大文件的时候,下载耗时相对会比较长;
  • 分片模式:采用单个线程,固定下载N个字节大小空间,分片的好处是遇到大文件的时候,下载耗时仍然会相对短,劣势是会导致服务器节点线程数量突增,对服务节点稳定性有干扰;

在二者之间,我们选择了分组模式。

二、容错处理:在我们处理下载过程中,会遇到下载过程中网络不稳定、本地文件删除,远程文件变更等各种场景,这就需要我们能够兼容处理这些场景,失败后的任务,会有定时任务自动重新调起执行,也有后台管理系统界面,进行人工调起;

三、完整性校验:文件下载完成之后,需要对文件的最终一致性做校验,来确保文件的正确性;

四、异常预警:对于单次任务在尝试多次下载操作后仍然失败的情况,及时发起预警警告。

对于C端用户,业务方案相对更简单,因为文件服务器有vivo平台提供,网络环境相对可控,这里就不再赘述。接下来,我们将对文件下载里面的各种技术细节,进行详尽的剖析。

四、断点下载原理剖析

在进行原理分析前,先给大家普及一下,什么叫断点下载?相信大家都有过使用迅雷下载网络文件的经历吧,有没有注意到迅雷的下载任务栏里面,有一个“暂停”和“开始下载”按钮,会随着任务的当前状态显示不同的按钮。当你在下载一个100M的文件,下载到50M的时候,你点击了“暂停”,然后点击了“开始下载”,你会发现文件的下载竟然是从已经下载好的50M以后接着下载的。没错,这就是断点下载的真实应用。

4.1 HTTP 断点下载之秘密:Range

在讲解这个知识点前,大家有必要了解一下http的发展历史,HTTP(HyperText Transfer Protocol),超文本传输协议,是目前万维网(World Wide Web)的基础协议,已经经历四次的版本迭代:HTTP/0.9,HTTP/1.0,HTTP/1.1,HTTP/2.0。在HTTP/1.1(RFC2616)协议中,定义了HTTP1.1标准所包含的所有头字段的相关语法和含义,其中就包括咱们要讲到的Accept-Ranges,服务端支持范围请求(range requests)。有了这个重要的属性,才使得我们的断点下载成为可能。

基于HTTP不同版本之间的适配性,所以当我们在决定是否需要使用断点下载能力的时候,需要提前识别文件地址是否支持断点下载,怎么识别呢?方法很多,如果采用curl命令,命令为:curl -I url

CURL验证是否支持范围请求:

如果服务端的响应信息里面包含了上图中Accept-Ranges: bytes,这个属性,那么说该URL是支持范围请求的。如果URL返回消息体里面,Accept-Ranges: none 或者压根就没有 Accept-Ranges这个属性,那么这个URL就是不支持范围请求,也就是不支持断点下载。

前面我们有看到,当使用curl命令获取URL的响应时,服务端返回了一大段文本信息,我们要实现文件的断点下载,就要从这些文本信息里面获取咱们断点下载需要的重要参数,有了这些参数后才能实现我们想要达到的效果。

4.2 HTTP 断点下载之Range语法说明

HTTP/1.1 中定义了一个 Range 的请求头,来指定请求实体的范围。它的范围取值是在 0 - Content-Length 之间,使用 - 分割。

4.2.1 单区间段范围请求

curl https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt -i -H "Range: bytes=0-100"
HTTP/1.1 206 Partial Content
Date: Sun, 20 Dec 2020 03:06:43 GMT
Content-Type: text/plain
Content-Length: 101
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEBFC33243A938379F9410
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 2
Content-Range: bytes 0-100/740
X-Via: 1.1 PShnzssxek171:14 (Cdn Cache Server V2.0), 1.1 x71:12 (Cdn Cache Server V2.0), 1.1 PS-FOC-01z6n168:27 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdebfc3_PS-FOC-01z6n168_36519-1719
Access-Control-Allow-Origin: *

4.2.2 多区间段范围请求

curl https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt -i -H "Range: bytes=0-100,200-300"
HTTP/1.1 206 Partial Content
Date: Sun, 20 Dec 2020 03:10:27 GMT
Content-Type: multipart/byteranges; boundary="Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A"
Content-Length: 506
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEC030BDB66C33302A497E
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 2
Age: 1
X-Via: 1.1 xian23:7 (Cdn Cache Server V2.0), 1.1 PS-NTG-01KKN43:8 (Cdn Cache Server V2.0), 1.1 PS-FOC-01z6n168:27 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdec0a3_PS-FOC-01z6n168_36013-8986
Access-Control-Allow-Origin: *


--Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A
Content-Type: text/plain
Content-Range: bytes 0-100/740

--Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A
Content-Type: text/plain
Content-Range: bytes 200-300/740

看完上述请求的响应结果信息,我们发现使用单范围区间请求时:Content-Type: text/plain,使用多范围区间请求时:Content-Type: multipart/byteranges; boundary="Cdn Cache Server V2.0:37E1D9B3B2B94DF2F1D84393694C7E8A",并且在尾部信息里面,携带了单个区间片段的Content-Type和Content-Range。另外,不知道大家有没有发现一个很重要的信息,咱们的HTTP响应的状态并非我们预想中的200,而是HTTP/1.1 206 Partial Content,这个状态码非常重要,因为它标识着当次下载是否支持范围请求。

4.3 异常场景之资源变更

有一种场景,不知道大家有没有思考过,就是我们在下载一个大文件的时候,在未下载完成的时候,远程文件已经发生了变更,如果我们继续使用断点下载,会出现什么样的问题?结果当然是文件与远程文件不一致,会导致文件不可用。那么我们有什么办法能够在下载之前及时发现远程文件已经变更,并及时进行调整下载方案呢?解决方法其实上面有给大家提到,远程文件有没有发生变化,有两个标识:Etag和Last-Modified。二者任意一个属性均可反应出来,相比而言,Etag会更精准些,原因如下:

  1. Last-Modified只能精确到秒级别,如果一秒内文件进行了多次修改,时间不会发生更新,但是文件的内容却已经发生了变更,此时Etag会及时更新识别到变更;
  2. 在不同的时间节点(超过1秒),如果文件从A状态改成B状态,然后又重B状态改回了A状态,时间会发生更新,但是相较于A状态文件内容,两次变更后并没又发生变化,此时Etag会变回最开始A状态值,有点类似咱们并发编程里面常说的ABA问题。

如果我们在进行范围请求下载的时候,带上了这两个属性中的一个或两个,就能监控远程文件发生了变化。如果发生了变化,那么区间范围请求的响应状态就不是206而是200,说明它已经不支持该次请求的断点下载了。接下来我们验证一下Etag的验证信息,我们的测试文件:ETag: "1FFD36BD1B06EB6C287AF8D788458808",然后我们将最后一个数值8改成9进行验证,验证如下:

文件未变更:

curl -I --header 'If-None-Match: "1FFD36BD1B06EB6C287AF8D788458808"' https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt
HTTP/1.1 304 Not Modified
Date: Sun, 20 Dec 2020 03:53:03 GMT
Content-Type: text/plain
Connection: keep-alive
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Age: 1
X-Via: 1.1 PS-FOC-01vM6221:15 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdeca9f_PS-FOC-01FMC220_2660-18267
Access-Control-Allow-Origin: *

文件已变更:

curl -I --header 'If-None-Match: "1FFD36BD1B06EB6C287AF8D788458809"' https://swsdl.vivo.com.cn/appstore/test-file-range-download.txt
HTTP/1.1 200 OK
Date: Sun, 20 Dec 2020 03:53:14 GMT
Content-Type: text/plain
Content-Length: 740
Connection: keep-alive
Server: AliyunOSS
x-oss-request-id: 5FDEC837E677A23037926897
Accept-Ranges: bytes
ETag: "1FFD36BD1B06EB6C287AF8D788458808"
Last-Modified: Sun, 20 Dec 2020 03:04:33 GMT
x-oss-object-type: Normal
x-oss-hash-crc64ecma: 5148872045942545519
x-oss-storage-class: Standard
Content-MD5: H/02vRsG62woevjXiEWICA==
x-oss-server-time: 17
X-Cache-Spec: Yes
Age: 1
X-Via: 1.1 xian23:7 (Cdn Cache Server V2.0), 1.1 PS-NTG-01KKN43:8 (Cdn Cache Server V2.0), 1.1 PS-FOC-01vM6221:15 (Cdn Cache Server V2.0)
X-Ws-Request-Id: 5fdecaaa_PS-FOC-01FMC220_4661-42392
Access-Control-Allow-Origin: *

结果显示:当我们使用跟远程文件一致的Etag时,状态码返回:HTTP/1.1 304 Not Modified,而使用篡改后的Etag后,返回状态200,并且也携带了正确的Etag返回。所以我们在使用断点下载过程中,对于这种资源变更的场景也是需要兼顾考虑的,不然就会出现下载后文件无法使用情况。

4.4 完整性验证

文件在下载完成后,我们是不是就能直接使用呢?答案:NO。因为我们无法确认文件是否跟远程文件完全一致,所以在使用前,一定要做一次文件的完整性验证。验证方法很简单,就是咱们前面提到过的属性:Etag,资源版本的标识符,通常是消息摘要。带双引号的32位字符串,笔者验证过,该属性移除双引号后,就是文件的MD5值,大家知道,文件MD5是可以用来验证文件唯一性的标识。通过这个校验,就能很好的识别解决本地文件被删除、远程资源文件变更的各类非常规的业务场景。

五、实践部分

5.1 单线程断点下载

假如我们需要下载1000个字节大小的文件,那么我们在开始下载的时候,首先会获取到文件的Content-Length,然后在第一次开始下载时,会使用参数:httpURLConnection.setRequestProperty("Range", "bytes=0-1000");

当下载到到150个字节大小的时候,因为网络问题或者客户端服务重启等情况,导致下载终止,那么本地就存在一个大小为150byte的不完整文件,当我们服务重启后重新下载该文件时,我们不仅需要重新获取远程文件的大小,还需要获取本地已经下载的文件大小,此时使用参数:httpURLConnection.setRequestProperty("Range", "bytes=150-1000");

来保证我们的下载是基于前一次的下载基础之上的。图示:

5.2 多线程断点下载

多线程断点下载的原理,与上面提到的单线程类似,唯一的区别在于:多个线程并行下载,单线程是串行下载。

5.3 代码示例

5.3.1  获取连接

在下载前,我们需要获取远程文件的HttpURLConnection 连接,如下:

/**
 * 获取连接
 */
private static HttpURLConnection getHttpUrlConnection(String netUrl) throws Exception {
    URL url = new URL(netUrl);
    HttpURLConnection httpURLConnection = (HttpURLConnection) url.openConnection();
    // 设置超时间为3秒
    httpURLConnection.setConnectTimeout(3 * 1000);
    // 防止屏蔽程序抓取而返回403错误
    httpURLConnection.setRequestProperty("User-Agent", "Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)");
    return httpURLConnection;
}

5.3.2 是否支持范围请求

在进行断点下载开始前,我们需要判断该文件,是否支持范围请求,支持的范围请求,我们才能实现断点下载,如下:

/**
 * 判断连接是否支持断点下载
 */
private static boolean isSupportRange(String netUrl) throws Exception {
    HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
    String acceptRanges = httpURLConnection.getHeaderField("Accept-Ranges");
    if (StringUtils.isEmpty(acceptRanges)) {
        return false;
    }
    if ("bytes".equalsIgnoreCase(acceptRanges)) {
        return true;
    }
    return false;
}

5.3.3 获取远程文件大小

当文件支持断点下载,我们需要获取远程文件的大小,来设置Range参数的范围区间,当然,如果是单线程断线下载,不获取远程文件大小,使用 Range: start- 也是能完成断点下载的,如下:

/**
 * 获取远程文件大小
 */
private static int getFileContentLength(String netUrl) throws Exception {
    HttpURLConnection httpUrlConnection = getHttpUrlConnection(netUrl);
    int contentLength = httpUrlConnection.getContentLength();
    closeHttpUrlConnection(httpUrlConnection);
    return contentLength;
}

5.3.4 单线程断点下载

不管是单线程断点下载还是多线程断点下载,片段文件下载完成后,都无法绕开的一个问题,那就是文件合并。我们使用范围请求,拿到了文件中的某个区间片段,最终还是要将各个片段合并成一个完整的文件,才能实现我们最初的下载目的。

相较而言,单线程的合并会比较简单,因为单线程断点下载使用串行下载,在文件断点写入过程中,都是基于已有片段进行尾部追加,我们使用commons-io-2.4.jar里面的一个工具方法,来实现文件的尾部追加:

5.3.4.1 文件分段

单线程-范围分段

/**
 * 单线程串行下载
 *
 * @param totalFileSize 文件总大小
 * @param netUrl        文件地址
 * @param N             串行下载分段次数
 */
private static void segmentDownload(int totalFileSize, String netUrl, int N) throws Exception {
    // 本地文件目录
    String localFilePath = "F:\\test_single_thread.txt";
    // 文件我们分N次来下载
    int eachFileSize = totalFileSize / N;
    for (int i = 1; i <= N; i++) {
        // 写入本地文件
        File localFile = new File(localFilePath);
        // 获取本地文件,如果为空,则start=0,不为空则为该本地文件的大小作为断点下载开始位置
        long start = localFile.length();
        long end = 0;
        if (i == 1) {
            end = eachFileSize;
        } else if (i == N) {
            end = totalFileSize;
        } else {
            end = eachFileSize * i;
        }
        appendFile(netUrl, localFile, start, end);
        System.out.println(String.format("我是第%s次下载,下载片段范围start=%s,end=%s", i, start, end));
    }
    File localFile = new File(localFilePath);
    System.out.println("本地文件大小:" + localFile.length());
}
5.3.4.2 文件追加

单线程-文件尾部追加

/**
 * 文件尾部追加
 * @param netUrl 地址
 * @param localFile 本地文件
 * @param start 分段开始位置
 * @param end 分段结束位置
 */
private static void appendFile(String netUrl, File localFile, long start, long end) throws Exception {
    HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
    httpURLConnection.setRequestProperty("Range", "bytes=" + start + "-" + end);
    // 获取远程文件流信息
    InputStream inputStream = httpURLConnection.getInputStream();
    // 本地文件写入流,支持文件追加
    FileOutputStream fos = FileUtils.openOutputStream(localFile, true);
    IOUtils.copy(inputStream, fos);
    closeHttpUrlConnection(httpURLConnection);
}

单线程下载结果

远程文件支持断点下载
远程文件大小:740
我是第1次下载,下载片段范围start=0,end=246
我是第2次下载,下载片段范围start=247,end=492
我是第3次下载,下载片段范围start=493,end=740
本地文件和远程文件一致,md5 = 1FFD36BD1B06EB6C287AF8D788458808, Etag = "1FFD36BD1B06EB6C287AF8D788458808"

5.3.5 多线程断点下载

多线程的文件合并方式与单线程不一样,因为多线程是并行下载,每个子线程下载完成的时间是不确定的。这个时候,我们需要使用到java一个核心类:RandomAccessFile。这个类可以支持随机的文件读写,其中有一个seek函数,可以将指针指向文件任意位置,然后进行读写。什么意思呢,举个栗子:假如我们开了10个线程,首先第一个下载完成的是线程X,它下载的数据范围是300-400,那么这时我们调用seek函数将指针动到300,然后调用它的write函数将byte写出,这时候300之前都是NULL,300-400之后就是我们插入的数据。这样就可以实现多线程下载和本地写入了。话不多说,我们还是以代码的方式来呈现:

5.3.5.1 资源分组

多线程-资源分组

/**
 * 多线程分组策略
 * @param netUrl 网络地址
 * @param totalFileSize 文件总大小
 * @param N 线程池数量
 */
private static void groupDownload(String netUrl, int totalFileSize, int N) throws Exception {
    // 采用闭锁特性来实现最后的文件校验事件
    CountDownLatch countDownLatch = new CountDownLatch(N);
    // 本地文件目录
    String localFilePath = "F:\\test_multiple_thread.txt";
    int groupSize = totalFileSize / N;
    int start = 0;
    int end = 0;
    for (int i = 1; i <= N; i++) {
        if (i <= 1) {
            start = groupSize * (i - 1);
            end = groupSize * i;
        } else if (i > 1 && i < N) {
            start = groupSize * (i - 1) + 1;
            end = groupSize * i;
        } else {
            start = groupSize * (i - 1) + 1;
            end = totalFileSize;
        }
        System.out.println(String.format("线程%s分配区间范围start=%s, end=%s", i, start, end));
        downloadAndMerge(i, netUrl, localFilePath, start, end, countDownLatch);
    }
    // 校验文件一致性
    countDownLatch.await();
    validateCompleteness(localFilePath, netUrl);
}
5.3.5.2 文件合并

多线程-文件合并


/**
 * 文件下载、合并
 *  @param threadNum     线程标识
 * @param netUrl        网络文件地址
 * @param localFilePath 本地文件路径
 * @param start         范围请求开始位置
 * @param end           范围请求结束位置
 * @param countDownLatch 闭锁对象
 */
private static void downloadAndMerge(int threadNum, String netUrl, String localFilePath, int start, int end, CountDownLatch countDownLatch) {
    threadPoolExecutor.execute(() -> {
        try {
            HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
            httpURLConnection.setRequestProperty("Range", "bytes=" + start + "-" + end);
            // 获取远程文件流信息
            InputStream inputStream = httpURLConnection.getInputStream();
            RandomAccessFile randomAccessFile = new RandomAccessFile(localFilePath, "rw");
            // 文件写入开始位置指针移动到已经下载位置
            randomAccessFile.seek(start);
            byte[] buffer = new byte[1024 * 10];
            int len = -1;
            while ((len = inputStream.read(buffer)) != -1) {
                randomAccessFile.write(buffer, 0, len);
            }
            closeHttpUrlConnection(httpURLConnection);
            System.out.println(String.format("下载完成时间%s, 线程:%s, 下载完成: start=%s, end = %s", System.currentTimeMillis(), threadNum, start, end));
        } catch (Exception e) {
            System.out.println(String.format("片段下载异常:线程:%s, start=%s, end = %s", threadNum, start, end));
            e.printStackTrace();
        }
        countDownLatch.countDown();
    });
}

多线程下载运行结果

远程文件支持断点下载
远程文件大小:740
线程1分配区间范围start=0, end=74
线程2分配区间范围start=75, end=148
线程3分配区间范围start=149, end=222
线程4分配区间范围start=223, end=296
线程5分配区间范围start=297, end=370
线程6分配区间范围start=371, end=444
线程7分配区间范围start=445, end=518
线程8分配区间范围start=519, end=592
线程9分配区间范围start=593, end=666
线程10分配区间范围start=667, end=740
下载完成时间1608443874752, 线程:7, 下载完成: start=445, end = 518
下载完成时间1608443874757, 线程:2, 下载完成: start=75, end = 148
下载完成时间1608443874758, 线程:3, 下载完成: start=149, end = 222
下载完成时间1608443874759, 线程:5, 下载完成: start=297, end = 370
下载完成时间1608443874760, 线程:10, 下载完成: start=667, end = 740
下载完成时间1608443874760, 线程:1, 下载完成: start=0, end = 74
下载完成时间1608443874779, 线程:8, 下载完成: start=519, end = 592
下载完成时间1608443874781, 线程:6, 下载完成: start=371, end = 444
下载完成时间1608443874784, 线程:9, 下载完成: start=593, end = 666
下载完成时间1608443874788, 线程:4, 下载完成: start=223, end = 296
本地文件和远程文件一致,md5 = 1FFD36BD1B06EB6C287AF8D788458808, Etag = "1FFD36BD1B06EB6C287AF8D788458808"

从运行结果可以出,子线程下载完成时间并没有完全按着我们for循环指定的1-10线程标号顺序完成,说明子线程之间是并行在写入文件。其中还可以看到,子线程10和子线程1是在同一时间完成了文件的下载和写入,这也很好的验证了我们上面提到的RandomAccessFile类的效果。

5.3.6 完整性判断

完整性校验

/**
 * 校验文件一致性,我们判断Etag和本地文件的md5是否一致
 * 注:Etag携带了双引号
 * @param localFilePath
 * @param netUrl
 */
private static void validateCompleteness(String localFilePath, String netUrl) throws Exception{
    File file = new File(localFilePath);
    InputStream data = new FileInputStream(file);
    String md5 = DigestUtils.md5Hex(data);
    HttpURLConnection httpURLConnection = getHttpUrlConnection(netUrl);
    String etag = httpURLConnection.getHeaderField("Etag");
    if (etag.toUpperCase().contains(md5.toUpperCase())) {
        System.out.println(String.format("本地文件和远程文件一致,md5 = %s, Etag = %s", md5.toUpperCase(), etag));
    } else {
        System.out.println(String.format("本地文件和远程文件不一致,md5 = %s, Etag = %s", md5.toUpperCase(), etag));
    }
}

六、写在最后

文件断点下载的优势在于提升下载速度,但是也不是每种业务场景都适合,比如说业务网络环境很好,下载的单个文件大小几十兆的情况下,使用断点下载也没有太大的优势,反而增加了实现方案的复杂度。这就要求我们开发人员在使用时酌情考虑,而不是盲目使用。

作者:vivo-Tang Aibo

vivo 互联网技术
分享 vivo 互联网技术干货与沙龙活动,推荐最新行业动态与热门会议。
3.1k 声望
10.1k 粉丝
0 条评论
推荐阅读
vivo 超大规模消息中间件实践之路
作者:vivo 互联网存储技术团队-Luo Mingbo、中间件团队- Liu Runyun本文根据“2022 vivo开发者大会"现场演讲内容整理而成。

vivo互联网技术

与RabbitMQ有关的一些知识
工作中用过一段时间的Kafka,不过主要还是RabbitMQ用的多一些。今天主要来讲讲与RabbitMQ相关的一些知识。一些基本概念,以及实际使用场景及一些注意事项。

lpe2348阅读 1.8k

封面图
Git操作不规范,战友提刀来相见!
年终奖都没了,还要扣我绩效,门都没有,哈哈。这波骚Git操作我也是第一次用,担心闪了腰,所以不仅做了备份,也做了笔记,分享给大家。问题描述小A和我在同时开发一个功能模块,他在优化之前的代码逻辑,我在开...

王中阳Go5阅读 2k评论 2

封面图
Redis 发布订阅模式:原理拆解并实现一个消息队列
“65 哥,如果你交了个漂亮小姐姐做女朋友,你会通过什么方式将这个消息广而告之给你的微信好友?““那不得拍点女朋友的美照 + 亲密照弄一个九宫格图文消息在朋友圈发布大肆宣传,暴击单身狗。”像这种 65 哥通过朋...

码哥字节6阅读 1.3k

封面图
万字详解,吃透 MongoDB!
MongoDB 是一个基于 分布式文件存储 的开源 NoSQL 数据库系统,由 C++ 编写的。MongoDB 提供了 面向文档 的存储方式,操作起来比较简单和容易,支持“无模式”的数据建模,可以存储比较复杂的数据类型,是一款非常...

JavaGuide3阅读 221

封面图
NB的Github项目,看到最后一个我惊呆了!
最近看到不少好玩的、实用的 Github 项目,就来给大家推荐一把。中国制霸生成器最近在朋友圈非常火的一个小网站,可以在线标记 居住、短居、游玩、出差、路过 标记后可生成图片进行社区分享,标记过的信息会记录...

艾小仙5阅读 1.6k评论 1

PHP转Go实践:xjson解析神器「开源工具集」
我和劲仔都是PHP转Go,身边越来越多做PHP的朋友也逐渐在用Go进行重构,重构过程中,会发现php的json解析操作(系列化与反序列化)是真的香,弱类型语言的各种隐式类型转换,很大程度的减低了程序的复杂度。

王中阳Go4阅读 1.3k评论 2

封面图
3.1k 声望
10.1k 粉丝
宣传栏