显示标签为“流量”的博文。显示所有博文
显示标签为“流量”的博文。显示所有博文

2022年9月8日星期四

被中国移动偷偷开了流量包

这个月中国移动月账单出来以后,发现多了20块钱,在扣费详情里面多了两个流量包,一个是30元10gb的月包,一个是5元2gb的日包。30元实际的流量包优惠了15元。

我非常确定这两个流量包不是我开的,于是打电话给10086的人工客服,把情况说了一下。他说,查到这两个流量包是通过web办理的,办理时间都是8月31日16点01分。

我说,这不是我开的。

客服说,可能是本机办理的。

我说,本机也要输入验证码或者服务密码。

客服说,本机的话,可能只要点击链接就办理了。

我说:一、我每个月的流量都有剩余,不可能再去开流量包。二、即使去开流量包,也不会选择在月底最后一天来开通。

客服说,我们这次相信你,已经帮你取消了流量包,扣的费用24小时返还。

我同意了他这个处理方式,不同意也没有其他的办法。这个事情也算解决了。

之后发现流量包的有效期只有三个月,也就是说三个月后就不会扣费了。如果我这几个月不查账单,过了六个月就不会查到这几笔扣费记录了(手机端只能查6个月账单),这样就会白白的被他扣三个月的钱。

我把这个事情跟我同事说了一下。同事说,移动总是会干这种事情。如果没被发现就是白赚,如果被发现了最多退款。

对于这种无耻的行为,我们也无能为力。只能看好自己的钱,多查查每个月的扣费记录和每个月的账单,不给他可趁之机。

2021年6月29日星期二

博客的流量用完的解决过程

我的博客用的是廉价的虚拟主机空间,只有500MB的磁盘空间,每个月15G的带宽流量,正常价每年四十几块钱,赶上活动的话几乎半价就可以购买了。所以我一下买了五六年的了。

这些年这款虚拟主机空间用起来很不错,速度可以接受,几乎没有宕机过,每个月15G的流量也从来没有用完过。但是没想到5月31日博客无法访问了,页面提示如下信息:

Bandwidth Limit Exceeded
The server is temporarily unable to service your request due to the site owner reaching his/her bandwidth limit. Please try again later.

我登录主机商提供的cPanel面板看了下,流量从3月开始明显增加的。但是为什么会增加就不得而知了,博客早就没有使用谷歌统计和百度统计。我仔细回想下3月份做了什么操作,想来想去发现了3月开始启用了WP Super Cache 插件。我觉得可能是这个原因,于是尝试着停掉WP Super Cache 插件,观察了几天看看,发现流量确实下降了不少。

后来登录cPanel面板发现有个Awstats的统计功能,可以统计网站的访问信息。看了下每个月统计报表发现网站的流量分为浏览器用户流量和非浏览器用户流量,其中大部分是非浏览器流量。非浏览器流量包括搜索引擎机器人,蠕虫病毒产生的流量和非正常的HTTP相应。下面是3月-5月的流量详情:

3月浏览器流量3.28 GB,非浏览器流量5.05 GB
4月浏览器流量2.37 GB,非浏览器流量5.31 GB
5月浏览器流量3.94 GB,非浏览器流量8.31 GB

这个时候我才知道网站的流量不仅仅是真正的用户浏览消耗,还有搜索引擎的机器人消耗,而且我的网站大部分的流量反而是机器人消耗的。看了下统计报表发现机器人爬虫中有个叫DotBot是最坏的,它消耗的流量最多,这时我才明白爬虫有好的爬虫也有坏的爬虫。我才想起来robots文件可以限制机器人爬虫的访问,一直以来都是留空的没有配置。上网搜索了下robots.txt怎么配置,摸索了一下,我的配置信息如下:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /trackback/
Disallow: /comments/
Disallow: /attachment/
Disallow: /comments/feed
Disallow: /feed
Disallow: /link
Disallow: /*/feed
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /*/trackback
Disallow: /?s=*
Disallow: /*/?s=*\
Disallow: /wp-*.php
User-agent: MJ12bot
Disallow: /
User-agent: YisouSpider
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: SemrushBot-SA
Disallow: /
User-agent: SemrushBot-BA
Disallow: /
User-agent: SemrushBot-SI
Disallow: /
User-agent: SemrushBot-SWA
Disallow: /
User-agent: SemrushBot-CT
Disallow: /
User-agent: SemrushBot-BM
Disallow: /
User-agent: SemrushBot-SEOAB
Disallow: /
user-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: link
Disallow: /
Sitemap: https://www.jfsay.com/wp-sitemap.xml
Sitemap: https://www.jfsay.com/sitemap.xml

统计报表中有个奇怪的UA名称一个是link一个是feed,我看了网站日志,也没找到名字叫link和feed的。不得而知后问了主机空间的服务商,他说robots.txt只是针对遵守规矩的好蜘蛛,对坏蜘蛛可能没有效果,最好在.htaccess中限制UA的活动,在他的指导下,在.htaccess中添加了如下代码:

rewriteengine on
RewriteCond %{HTTP_USER_AGENT} ^.*link.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*feed.* [NC]
RewriteRule .* – [F,L]

又看到cPanel面板有个Webalizer分析工具,它统计出了IP访问网页的数量,我在日志中找到这些IP,看他们到底访问什么内容,发现可疑的就禁止了这些IP访问网站。

这几天一直在观察网站的访问情况,发现流量总算降了下来。看来用robots.txt和.htaccess限制蜘蛛的访问还是很有用的。

注意:此文中robots.txt设置方法已经过时,最佳设置robots.txt的方法如下:https://www.jfsay.com/archives/2465.html

博客的流量用完的解决过程

我的博客用的是廉价的虚拟主机空间,只有500MB的磁盘空间,每个月15G的带宽流量,正常价每年四十几块钱,赶上活动的话几乎半价就可以购买了。所以我一下买了五六年的了。

这些年这款虚拟主机空间用起来很不错,速度可以接受,几乎没有宕机过,每个月15G的流量也从来没有用完过。但是没想到5月31日博客无法访问了,页面提示如下信息:

Bandwidth Limit Exceeded
The server is temporarily unable to service your request due to the site owner reaching his/her bandwidth limit. Please try again later.

我登录主机商提供的cPanel面板看了下,流量从3月开始明显增加的。但是为什么会增加就不得而知了,博客早就没有使用谷歌统计和百度统计。我仔细回想下3月份做了什么操作,想来想去发现了3月开始启用了WP Super Cache 插件。我觉得可能是这个原因,于是尝试着停掉WP Super Cache 插件,观察了几天看看,发现流量确实下降了不少。

后来登录cPanel面板发现有个Awstats的统计功能,可以统计网站的访问信息。看了下每个月统计报表发现网站的流量分为浏览器用户流量和非浏览器用户流量,其中大部分是非浏览器流量。非浏览器流量包括搜索引擎机器人,蠕虫病毒产生的流量和非正常的HTTP相应。下面是3月-5月的流量详情:

3月浏览器流量3.28 GB,非浏览器流量5.05 GB
4月浏览器流量2.37 GB,非浏览器流量5.31 GB
5月浏览器流量3.94 GB,非浏览器流量8.31 GB

这个时候我才知道网站的流量不仅仅是真正的用户浏览消耗,还有搜索引擎的机器人消耗,而且我的网站大部分的流量反而是机器人消耗的。看了下统计报表发现机器人爬虫中有个叫DotBot是最坏的,它消耗的流量最多,这时我才明白爬虫有好的爬虫也有坏的爬虫。我才想起来robots文件可以限制机器人爬虫的访问,一直以来都是留空的没有配置。上网搜索了下robots.txt怎么配置,摸索了一下,我的配置信息如下:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /trackback/
Disallow: /comments/
Disallow: /attachment/
Disallow: /comments/feed
Disallow: /feed
Disallow: /link
Disallow: /*/feed
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /*/trackback
Disallow: /?s=*
Disallow: /*/?s=*\
Disallow: /wp-*.php
User-agent: MJ12bot
Disallow: /
User-agent: YisouSpider
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: SemrushBot-SA
Disallow: /
User-agent: SemrushBot-BA
Disallow: /
User-agent: SemrushBot-SI
Disallow: /
User-agent: SemrushBot-SWA
Disallow: /
User-agent: SemrushBot-CT
Disallow: /
User-agent: SemrushBot-BM
Disallow: /
User-agent: SemrushBot-SEOAB
Disallow: /
user-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: link
Disallow: /
Sitemap: https://www.jingfengshuo.com/wp-sitemap.xml
Sitemap: https://www.jingfengshuo.com/sitemap.xml

统计报表中有个奇怪的UA名称一个是link一个是feed,我看了网站日志,也没找到名字叫link和feed的。不得而知后问了主机空间的服务商,他说robots.txt只是针对遵守规矩的好蜘蛛,对坏蜘蛛可能没有效果,最好在.htaccess中限制UA的活动,在他的指导下,在.htaccess中添加了如下代码:

rewriteengine on
RewriteCond %{HTTP_USER_AGENT} ^.*link.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*feed.* [NC]
RewriteRule .* – [F,L]

又看到cPanel面板有个Webalizer分析工具,它统计出了IP访问网页的数量,我在日志中找到这些IP,看他们到底访问什么内容,发现可疑的就禁止了这些IP访问网站。

这几天一直在观察网站的访问情况,发现流量总算降了下来。看来用robots.txt和.htaccess限制蜘蛛的访问还是很有用的。

2011年12月27日星期二

启用Gzip压缩,降低流量

上个月末静风博客因为流量超标被主机运营商挂起,这个月初启用了“缓存插件” Cos-html-cache,以求来降低流量。

通过每日的流量观察发现使用缓存插件并没有得到应有的效果,或者说效果不明显。之后使用网页Gzip压缩,效果出奇得好。

可以把Gzip看作是我们普遍使用的压缩软件的一种,比如Zip和Rar。一般的网页传输是把信息以非压缩的方式传送到浏览器中,而启用Gzip压缩之后,网页信息首先被压缩成压缩信息,然后传送到浏览器后解压缩成原始的信息。无疑,信息被压缩,数据量减小,在传输过程中流量必然减少(流量的单位是B,也就是传输的数据量大小)。

Gzip压缩可以降低网页传输流量,减少网页加载时间,但是会增大主机内存与处理器时间消耗。所以是否开启Gzip压缩应该因人而异。

启用Gzip压缩的前提是主机支持Gzip。对于WordPress可以使用Gzip相关插件,如:Gzippy。

Cpanel面板中本身提供了Gzip压缩的功能,启用的具体步骤是:

1. 登录Cpanel, 点击"优化网化"。

2.选择“压缩所有内容”。

完成之后可以在12中查询网站是否启用了压缩,以及网页压缩的情况。Gzip一般可以压缩50%-80%的数据量,有效节省您的流量,提高访问速度。

下面是静风博客主页使用Gzip压缩前后的效果对比:

1.压缩前的主页是38909字节。

压缩前1

2.压缩后的数据是12119,压缩率68%.

压缩后1