typecho对于大数据负载能力如何?比如1000万数据,有谁测试过吗?

typecho对于大数据负载能力如何?比如1000万数据,有谁测试过吗?

阅读 8.9k
5 个回答

网址就不公开了。因为是垃圾站群。采用的还是一个大数据库,按不同关键词和算法组合出来的多个网站。
环境采用的是linode的VPS,2G内存方案,现在换到了vps.net,因为前者日本太抽。
基础环境搭建是军哥的lnmp,其中mysql部分进行了内存和缓存优化。php采用的是5.5最版,近期打算换到5.6。
typecho数据是用火车头拖下来的。大概包括2kw的文章(平均500-1000字),10w的分类,70w的标签。
访客,我是用log行数来记录访问者的PV数量。包括蜘蛛和真实访客,每天大概30w左右。
网站整体速度很快。首页,内容页,分类,标签页,速度都不错。
搜索很慢,有时候要5-10S才能打开,网站前台没这个功能,所以我根本没在意,也没向这方面优化。
首页和内容页速度和小数库区别不大。分类和标签页略慢一点。
本机生成一大批数据,然后,自已测试也行的。

除非使用了静态化插件,即适合那种千年不变页面,第一次访问的时候生成html文件文件缓存,之后每次访问都直接从html文件中加载。
否则,不可能支持kw级数据,我在linode的2G主机上测试过,最多10w数据就卡出翔了。为了解决这个问题,还专门优化过typecho的数据逻辑:支持两百万posts的Typecho高性能版本发布

关注一下。

表示自己写的烂程序都有千万数据没垮,TE这点能耐应该还是有的。

我想问, 1亿数据typecho能胜任吗

问得毫无诚意

1个访客都没有,放多少数据也是杠杠的。

比如QPS ?