nginx:413 Request Entity Too Large

Ubuntu 10.04 下用nginx官方源安装的nginx,上传文件时出现413 Request Entity Too Large,查了一下发现client_max_body_size这个参数限制了上传文件的大小,默认是1M,需要配置一下上传文件最大值: 1.打开nginx主配置文件 sudo vim /etc/nginx/nginx.conf 2.在http模块段添加client_max_body_size 20m(改为20m) 3.刷新nginx服务 sudo /etc/init.d/nginx restart[……]

继续阅读 »

Ubuntu 10.04 下apt-get方式安装nginx最新版本

Ubuntu官方源自带的nginx版本较低,如果需要安装并更新最新稳定版本的nginx,推荐添加nginx官方源:打开源列表    sudo vim /etc/apt/sources.list添加    deb http://nginx.org/packages/ubuntu/ lucid nginx     
deb-src http://nginx.org/packages/ubuntu/ lucid nginx然后更新一下源并安装即可   apt-get update    
apt-get install nginx[……]

继续阅读 »

Limesurvey导出的SPSS语法文件中文乱码解决

问题 一直在用的Limesurvey系统运行稳定,近日有同事发现一个问题:将limesurvey搜集到的问卷结果反馈导出为SPSS格式时,中文出现乱码。 分析解决 处理导出SPSS语法文件的链接是admin.php?action=exportspss&sid={问卷id}&subaction=dlstructure,查看admin/admin.php源码,找到exprortspss对应的export_data_spss.php,然后查看export_data_spss.php源码,dlstructure对应的函数在最后面,定位到乱码位置(乱码在Variable Properties),主要是这个函数出了问题:addslashes(strip_tags_full(mb_substr($field[‘VariableLabel’],0,$length_varlabel))),检查了数据库编码、mb的配置,都没问题,因为是中文于是就试了网上提供的一些mb_substr中文乱码的解决方案,声明编码为GB2312格式,还是乱码;想到数据都是utf-8的,为什么硬[……]

继续阅读 »

301重定向PHP代码 PHP的301自动跳转代码

301重定向可促进搜索引擎优化效果 从搜索引擎优化角度出发,301重定向是网址重定向最为可行的一种办法。当网站的域名发生变更后,搜索引擎只对新网址进行索引,同时又会把旧地址下原有的外部链接如数转移到新地址下,从而不会让网站的排名因为网址变更而收到丝毫影响。同样,在使用301永久性重定向命令让多个域名指向网站主域时,亦不会对网站的排名产生任何负面影响。 302重定向可影响搜索引擎优化效果 迄今为止,能够对302重定向具备优异处理能力的只有Google。也就是说,在网站使用302重定向命令将其它域名指向主域时,只有Google会把其它域名的链接成绩计入主域,而其它搜索引擎只会把链接成绩向多个域名分摊,从而削弱主站的链接总量。既然作为网站排名关键因素之一的外链数量受到了影响,网站排名降低也是很自然的事情了。 综上所述,在众多重定向技术中,301永久性重定向是最为安全的一种途径,也是极为理想的一款解决方案。 对于正确实施301重定向,有这样几个方法可供大家参考: 1.在.htaccess文件中增加301重定向指令 采用“mod_rewrite”技术,形如: RewriteEng[……]

继续阅读 »

解决 iframe 页面乱码

父页面UTF-8编码,iframe页面为gbk编码,但是没有charset声明,直接引用显示的话,iframe页面会乱码,父页面和iframe页面又都不方便大规模的修改,这个时候可以引入一个中间页面,其中charset与iframe页面的编码一致,这样就解决了问题。[……]

继续阅读 »

pureftpd:530 Sorry, but I can’t trust you

出现这个问题的原因是:当前ftp用户的UID小于Pure-FTPD所允许的最小UID(/etc/pure-ftpd/pure-ftpd.conf/MinUID)
解决的办法很简单,查一下当前这个ftp用户所属系统用户的UID,然后将MinUID修改成小于ftp所属系统用户的UID,重启服务即可[……]

继续阅读 »

Debian/Ubuntu系Linux 系统 imagecreate()函数无法使用:升级GD库至完整版本

在Debian/Ubuntu系统中,通过apt-get方式安装的php5-gd库,不是完整版本,函数imagecreate()无法使用,为了解决这个问题,可以有三种方法来解决:

  1. 不用apt-get方式安装Apache、MySQL和PHP,自己下载源码设定需要的参数自己编译
  2. 添加特定的源,安装完整gd库
    1. 在源里添加两行 deb http://packages.dotdeb.org stable all deb-src http://packages.dotdeb.org stable all
    2. 更新源: apt-get update
    3. 并安装php5-gd库: apt-get install php5-gd
  3. 重新编译完整版本的GD库
    1. 下载源码包 apt-get source php5
    2. 修改部分代码 debian/rules 文件中的 –with-gd=shared,/usr –enable-gd-native-tt[……]

      继续阅读 »

“人多力量大”,Bitcoin 计算网络威力初现

随着了解Bitcoin的人越来越多,对于这种不会贬值的虚拟货币兴趣也与日俱增。随着参与人数的增加,挖掘Bitcoin的难度是按指数级增长的。由于显卡中的GPU天生适合平行计算,其能力很容易扩展,因此利用GPU构建的计算平台在这种暴力计算环境下显得特别适合。问题是这样的计算能力增长的速度如此之快,以至于威胁到了互联网安全认证的核心——RSA算法。 RSA被广泛应用在SSL等端到端的加密通信中。目前国际的电子商务规范中,除了CA这样的根证书要求2048bit长度的密钥外,其他应用场合一般只要求1024bit。而目前所有BitCoin矿工的计算能力如果集中在一起,大概有46petaflops,破解RSA-1024大概需要6.4年。但是如果这个平台的计算能力积蓄增长,那么根据某俄罗斯博客的计算: 1)2012年初期,平台将具有3.8 eksaflops能力,破解RSA-1024将需要28.5天         2)2012年中期,能力将增加到242 eksaflops,破解RSA-1024将需要11小时 &#[……]

继续阅读 »

Bitcoin 与 Hadoop

Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以流的形式访问(streaming access)文件系统中的数据。 Hadoop 是一个能够对大量数据进行分布式处理的软件框架。但是 Hadoop 是以一种可靠、高效、可伸缩的方式进行处理的。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop 还是可伸缩的,能够处理 PB[……]

继续阅读 »