登录
/
注册
首页
论坛
其它
首页
科技
业界
安全
程序
广播
Follow
关于
签到
每天签到奖励2-10圆
导读
排行榜
TG频道
发帖说明
登录
/
注册
账号
自动登录
找回密码
密码
登录
立即注册
搜索
搜索
关闭
CSDN热搜
程序园
精品问答
技术交流
资源下载
本版
帖子
用户
软件
问答
教程
代码
写记录
VIP申请
VIP网盘
网盘
联系我们
发帖说明
每日签到
道具
勋章
任务
淘帖
动态
分享
留言板
导读
设置
我的收藏
退出
腾讯QQ
微信登录
返回列表
首页
›
资源区
›
问答
›
帮我写一个屏蔽openai 蜘蛛抓取的robots
帮我写一个屏蔽openai 蜘蛛抓取的robots
[ 复制链接 ]
新程序
2025-8-29 14:30:13
User-agent: GPTBot Disallow: /
User-agent: ChatGPT-User Disallow: /
复制代码
在robots.txt文件中,User-agent: * 和 Disallow: 的组合有特定的含义:
User-agent: *
: 这里的 * 是一个通配符,表示这条规则适用于所有网络爬虫(spiders 或 bots),除非后续有针对特定爬虫的更具体的规则覆盖它。换句话说,它是对所有未明确指定的爬虫设置一个默认规则。
Disallow:
: 这一行指定爬虫不能访问的路径。如果 Disallow: 后面没有具体路径(即为空),表示允许爬虫访问网站上的所有内容。这是因为 Disallow 没有禁止任何具体路径,等同于“没有限制”。
综合含义
User-agent: * 搭配 Disallow: 的效果是:
允许所有网络爬虫访问网站的全部内容
。这是 robots.txt 中最宽松的配置,意味着没有对任何爬虫设置访问限制。
如果你想完全禁止所有爬虫访问整个网站,可以使用:
User-agent: *
Disallow: /
复制代码
openai蜘蛛
robots
相关帖子
通过robots.txt文件屏蔽搜索引擎蜘蛛
vip免费申请,1年只需15美金$
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
照妖镜
相关推荐
教程
通过robots.txt文件屏蔽搜索引擎蜘蛛
0
146
新程序
2025-05-27
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
回复
本版积分规则
回帖并转播
回帖后跳转到最后一页
浏览过的版块
业界
安全
软件
程序
科技
发帖
新程序
2025-8-29 14:30:13
关注
4
粉丝关注
937
主题发布
板块介绍填写区域,请于后台编辑
财富榜{圆}
富账慕
10013
孙淼淼
9995
匝抽
9986
4
柴古香
9993
5
凌彦慧
9994
6
染悄
9981
7
崔瑜然
9984
8
敖可
9991
9
慢秤
9979
10
迎脾
9979
查看更多