Godaddy主机最新优惠码

Mediawiki中文技术论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

查看: 5053|回复: 0

MediaWiki中生成gzip压缩的静态HTML缓存文件

[复制链接]
发表于 2011-6-16 14:09:36 | 显示全部楼层 |阅读模式
RAKsmart美国服务器
以前的Wiki网站中使用静态HTML缓存文件来让浏览者访问更快、MySQL数据库压力更小,实践中对于大流量、内容复杂的网站来说,这是很有效果的。

  不过对于内容太多的网站还有一个问题,就是生成的HTML文件数量实在太多了,占用的磁盘空间很大,例如一个有30万页面的网站,占用磁盘空间大约为:300,000 * 100KB = 30G,而如果有300万个页面的话,就会占用300G,这实在不是一个小数字。

  除了简化网页内容来减小HTML文件以外,还有个办法,就是启用Gzip压缩功能,可以尝试,但可能遇到乱码问题就终止了,也可以对LocalSettings.php中做一些修改,设置如下:

$wgUseFileCache = true; #启用文件缓存功能,这个打开过
$wgUseGzip = true; #新设置这个变量,对缓存文件进行Gzip压缩
$wgDisableOutputCompression = true; #遇到乱码后需要将这个变量进行设置,去掉Apache的双重Gzip压缩
这样在cache目录中看到的就是.html.gz的压缩文件了,对于一般的30K左右的HTML文件来说可以压缩到10K左右,而对于200K左右的大HTML文件来说可以压缩到40K左右,也就是启用Gzip压缩后磁盘占用只有以前的20%-30%左右,这无疑是很不错的效果!

  MediaWiki默认启用了Apache的Gzip压缩功能,也就是说传送以前的.html静态文件本来也耗用了CPU资源来压缩,现在改为保存成.html.gz文件,这个压缩过程会使用CPU资源,再对外传送的时候应该不需要再耗用CPU资源了,所以应该不会增加CPU的消耗。
这样修改后,网站访问基本会都正常了。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

BlueHost美国主机优惠码

Archiver|手机版|小黑屋|Mediawiki中文技术论坛

GMT+8, 2024-12-26 18:29 , Processed in 0.042754 second(s), 15 queries .

Powered by Discuz! X3.4

Copyright © 2001-2024, Tencent Cloud.

快速回复 返回顶部 返回列表