源码论坛公告:本站是一个交流学习建站资源的社区论坛,旨在交流学习源码脚本等资源技术,欢迎大家投稿发言! 【点击此处将锦尚放在桌面

源码论坛,商业源码下载,尽在锦尚中国商业源码论坛

 找回密码
 会员注册

QQ登录

只需一步,快速开始

查看: 532|回复: 0
打印 上一主题 下一主题

[交流] 搜索引擎收录的方法

[复制链接]

238

主题

237

帖子

75

金币

初级会员

Rank: 1

积分
316
QQ
跳转到指定楼层
1#
发表于 2013-12-15 16:25:36 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
  你也许会说写一个robots.txt文件,拒绝“蜘蛛”不就可以了吗?亲身体验告诉我,这不是最好的,不知道出于什么原因,蜘蛛还是能爬到内容,如果你的网站调试时间非常长的话,那就更加危险。所以,无忧主机向大家推荐100%绝对有效、无错的方法。

  1、方法一。适合调试时间不长,就几天的站长。就是写一个robots.txt,放在网站目录下,拒绝 “蜘蛛”。 robots.txt内容如下:

  User-agent: *

  Disallow: /

  2、方法二。修改本地hosts文件强制解析域名。具体操作步骤如下:

  A、 首先是在无忧php空间上绑定你的网站域名。

  B、 修改本地hosts文件,将域名强制解析到本地。http://zybdf.ycnews.cn/syzybdf/
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享
您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

锦尚中国源码论坛

聚合标签|锦尚中国,为中国网站设计添动力 ( 鲁ICP备09033200号 ) |网站地图

GMT+8, 2025-2-8 12:08 , Processed in 0.097224 second(s), 26 queries .

带宽由 锦尚数据 提供 专业的数据中心

© 锦尚中国源码论坛 52jscn Inc. 非法入侵必将受到法律制裁 法律顾问:IT法律网 & 褚福省律师 锦尚爱心 版权申诉 版权与免责声明