当前位置 : 主页 > SEO基础 > 正文

网站上线前用Robots全站屏蔽对SEO有影响吗

原创

重庆seo2018-10-10 22:22:39阅读()robots网站建设A+ / A-

网站建设很多朋友是在本地搭建,操作、修改都方便,但很多时候客户需要预览或想知道工作进度就不方便。Windows主机还好,能在上面安装代码编辑器,虚拟主机就麻烦了,只能通过FTP来修改,效率上非常受影响。

服务器主机

笔者习惯把FTP的上需要修改的文件下载下来,在本地修改后再传上去,这样即使代码写错了,也能撤销操作并检查,而不是直接在FTP上右键编辑,这样极容易出事,因为编辑过程是临时文件,网络传输突然中断了,文件就变空白了。

网站的服务器不管是Windows主机还是虚拟主机,上线前都需要进行许多调试,在调试的过程中如果被抓取了快照,大家都知道旧快照可以投诉,但死链的处理是不及时的,参考文章

这样对网站的SEO还是有影响的,为避免这种情况发生,可以在本地调试好,内容有一定的量后在上传上线,这样蜘蛛也会认为你的网站内容质量比较高,初期会给你排名。

当然网站也可以先上线,用robots.txt进行全站屏蔽,目前并没有明显迹象表明未提交URL的新站用robots全站屏蔽会对后期SEO有影响,参考文章

写法如下

User-agent: *
Disallow:/

这种方法和闭站保护还是有区别的,闭站后连自己都无法访问,而且闭站只是保留索引,并不会删除索引,更不会影响快照。闭站、取消闭站都需要一段时间(正常情况3-4个工作日)才生效,如果只是微调,完全没必要做闭站保护。

特别是耗时非常长的提交死链操作,蜘蛛会继续访问网站,以确定是否该页面是否返回404错误。总之闭站保护这个功能非到万不得已不要轻易使用。

    扩展阅读

    本文地址:https://www.vi586.com/seo/600.html
    版权声明:原创文章,版权归重庆SEO吖七所有,欢迎分享本文,支持原创,转载请保留出处

    赞(74)