| 网站首页 | 业界新闻 | 小组 | 威客 | 人才 | 下载频道 | 博客 | 代码贴 | 在线编程 | 编程论坛
欢迎加入我们,一同切磋技术
用户名:   
 
密 码:  
共有 948 人关注过本帖
标题:求一段 防搜索引擎搜索的代码
只看楼主 加入收藏
feyyee
Rank: 1
等 级:新手上路
帖 子:76
专家分:0
注 册:2006-12-14
结帖率:100%
收藏
 问题点数:0 回复次数:7 
求一段 防搜索引擎搜索的代码
求一段 防搜索引擎搜索的代码

不知道有没有实现的可能?
搜索更多相关主题的帖子: 搜索引擎 代码 
2007-06-26 16:28
guyer
Rank: 2
等 级:新手上路
威 望:5
帖 子:451
专家分:0
注 册:2007-1-19
收藏
得分:0 
防搜索引擎搜索的代码

什么意思?

http://www./
2007-06-26 16:40
SkyGull
Rank: 5Rank: 5
来 自:浙江杭州
等 级:贵宾
威 望:13
帖 子:839
专家分:324
注 册:2007-6-7
收藏
得分:0 
什么意思??
我也没明白
2007-06-26 16:49
恒天
Rank: 1
等 级:新手上路
威 望:2
帖 子:165
专家分:0
注 册:2007-6-1
收藏
得分:0 
难道想把网站封闭起来?这可不好办了
2007-06-26 19:08
feyyee
Rank: 1
等 级:新手上路
帖 子:76
专家分:0
注 册:2006-12-14
收藏
得分:0 
就是 让搜索引擎 搜索不到呀
从技术上可行码?
我看 校内网 好像有这个功能
2007-06-27 23:18
gdk2006
Rank: 4
等 级:业余侠客
威 望:8
帖 子:928
专家分:270
注 册:2006-7-2
收藏
得分:0 
搜索不到??你把自己做的网页做得不规范就行了!比如没有头或者没有尾什么的。还有布局不要按照常理就行了。

程序员的悲哀如何找女朋友?
追女解决方案百度“让她着迷”!
2007-06-28 08:52
恒天
Rank: 1
等 级:新手上路
威 望:2
帖 子:165
专家分:0
注 册:2007-6-1
收藏
得分:0 
6楼的或许是个好办法,试下
2007-06-28 09:56
在编程中沦落
Rank: 2
等 级:新手上路
威 望:4
帖 子:411
专家分:0
注 册:2005-12-25
收藏
得分:0 

在你不需要被搜索引擎收录的文件夹下面添加robots.txt文件.

例1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

例2. 允许所有的robot访问 (或者也可以建一个空文件 "/robots.txt" file)

User-agent: *
Disallow:

例3. 禁止某个搜索引擎的访问

User-agent: BadBot
Disallow: /

例4. 允许某个搜索引擎的访问

User-agent: baiduspider
Disallow:

User-agent: *
Disallow: /

例5.一个简单例子
  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
  需要注意的是对每一个目录必须分开声明,而不要写成 "Disallow: /cgi-bin/ /tmp/"。
  User-agent:后的*具有特殊的含义,代表"any robot",所以在该文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"这样的记录出现.

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/



2007-06-28 10:48
快速回复:求一段 防搜索引擎搜索的代码
数据加载中...
 
   



关于我们 | 广告合作 | 编程中国 | 清除Cookies | TOP | 手机版

编程中国 版权所有,并保留所有权利。
Powered by Discuz, Processed in 0.015413 second(s), 8 queries.
Copyright©2004-2024, BCCN.NET, All Rights Reserved