幻想乡没有海吧 关注:45贴子:1,849

回复:【水楼】Please stand back from the water line

取消只看楼主收藏回复

一直都觉得wiki在加载js方面做的很乱,把js请求分得很散
本来也没啥问题,散就散,但thb服务器特慢,连线慢处理也慢,尽量在一次请求中做最多的事情才是最好的
今天研究了一下wiki加载js的代码,也不知是什么原理,明明就只调用了两次load函数,居然会load出8个请求
也没找到规律,两次调用的参数都分布在8个请求里面,应该有很复杂深层次的运算处理,处理也是有些不太完美的地方,有些可以合并,合并也不影响运算的请求都是分开的
不能说是谜,只是我没太深入研究而已
load的顺序是正确的,前后脚可以合并的load也有,是编写js时考虑不太周全的原因吧
或者其实没太大必要考虑合并,毕竟绝大部分的mw网站都不像thb这么奇葩
有一个load应该可以手动合并到其他里面,其他真是太复杂没办法了
这又是一个死胡同


IP属地:中国香港354楼2014-12-13 19:10
回复
    wiki反广告工作完成,广告屏蔽工具、404浏览记录都已成熟,以后就只需要隔三五七日看下浏览记录,扩充屏蔽列表
    对于广告的来源,以现在的工具、搜索引擎对我们的支援,都不足以找到答案
    唯一的猜测是bot广告的来源方:谷歌、百度、360、搜狗、bing,均会从各自经营的浏览器(Chrome、百度浏览器、360浏览器、搜狗浏览器、IE)以秘密后门的方式(毫无节操、毫无节制地)把用户输入到url框浏览的链接进行bot访问
    只要有人(或机器人)不断用这些浏览器浏览带有广告的链接,即使无法浏览,是404,浏览器也会记录链接,并很快(应该只是几秒之后)用bot抓取该页面
    由于连接来自浏览器用户,用谷歌或百度的网站管理工具就无法在外链来源网站表里面看到,甚至对于浏览器商家来说这是需要保密的做法,毕竟侵犯用户私隐,对网站也会有不良影响,比如广告链接、机密文件、接口被得知
    姑且可以相信,谷歌是非常遵守robots.txt的,所以我使用chrome浏览某些后门页面时(api.php,带?以及多个参数的链接),我们wiki的robots.txt会阻止谷歌对同时带有?和&的页面进行抓取,这方面可以认为是安全的。会出问题的是单纯以文件链接的方式获取的文件,wiki的robots.txt不阻止对一般文件路径(/分隔)内的东西进行抓取,如此当我浏览一个新造的文件夹,谷歌就能立刻跟踪过来,抓取一次
    而百度以及其他国内的bot,对robots.txt的遵守是有限的,即使百度说自己很遵守,反例也比比皆是。用国内浏览器浏览含机密资料、参数又是get的链接时,就很危险了
    bing不清楚,IE也没多少人用,至少都不是懂行的人,没危机
    以上的浏览器,都存在一定风险,不过解决办法也不太复杂,用Chrome的话只要写一下robots.txt,什么都好办,对国内浏览器只要用post传递验证资讯、或通过用户登录cookie/session验证浏览者身份,就没事了。一些比较高消耗的页面,只要设置必须登录才能用,就什么都解决了
    至于firefox、opera、safari,这些没明显对应搜索引擎的浏览器,可能会比较安全,可能也都有合作的搜索引擎,只不过不知道而已
    不管是广告、攻击、找漏洞还是偷文件,自从有了屏蔽工具,就都告一段落了,以后维护也不麻烦
    在wiki端做好防护,写好robots.txt,认真编写.htaccess,不在各种可被简单浏览的路径放机密资料、报错记录和备份,向谷歌百度交各种东西后,什么浏览器带来的危机也是可以化解的


    IP属地:中国香港355楼2014-12-20 01:17
    回复
      今天开始起用了航海日志
      舰娘最大id也才11435
      id5就没了,记得好像是重复的白雪
      id7id8应该是后来船位不够拆的DD
      77陆奥
      84瑞凤就来了
      311苦瓜
      374弥生
      387鬼怒
      5805卯月
      5809大鲸
      21烈风17水观16流改6一二甲数的很清楚


      IP属地:中国香港356楼2014-12-20 01:36
      回复
        测试


        IP属地:中国香港434楼2017-06-01 00:18
        回复