IT博客汇
  • 首页
  • 精华
  • 技术
  • 设计
  • 资讯
  • 扯淡
  • 权利声明
  • 登录 注册

    网络爬虫,网络蜘蛛的问题

    David Yin发表于 2025-03-18 01:05:02
    love 0

    在观察一个 Web 服务器的日志的时候,看到一个现象,有大量的网络爬虫,或者说网络蜘蛛来访问,抓取内容。这个访问数量有些过分。
    看这个截图。

    Screenshot 2025-03-17 174029.jpg排名最前的十位如下:

    714,290 (36.96%) 101 (00.07%) 11.8 GiB (39.11%) GPTBot/1.2
    47,085 (02.44%) 299 (00.20%) 8 GiB (26.31%) GoogleOther
    9,350 (00.48%) 453 (00.30%) 578.1 MiB (01.87%) meta-externalagent/1.1
    35,038 (01.81%) 20 (00.01%) 470.2 MiB (01.52%) Ai2Bot-Dolma
    39,785 (02.06%) 852 (00.57%) 376.3 MiB (01.21%) AhrefsBot/7.0
    32,944 (01.70%) 216 (00.14%) 375.7 MiB (01.21%) MJ12bot/v1.4.8
    28,577 (01.48%) 3,695 (02.48%) 313 MiB (01.01%) ClaudeBot/1.0
    3,953 (00.20%) 967 (00.65%) 297.4 MiB (00.96%) Bytespider
    13,919 (00.72%) 943 (00.63%) 202.8 MiB (00.65%) Googlebot/2.1
    22,576 (01.17%) 13 (00.01%) 170.3 MiB (00.55%) Scrapy/2.11.2

    排最前面的几位就是 GPTBot, GoogleOther, A12Bot-dolma,之流。都属于人工智能派出来的网络蜘蛛,来各个网站抓取内容,而它们抓取的内容会怎样使用的,会给你的网站带来访客吗?

    基本上是不会的,本质上,这些机器人会抓取你的内容,然后进行索引,对其重组织后,来产生人工智能所编写的内容。

    这意味着任何用 ChatGPT 之类的智能工具所攥写的内容都是在剽窃你我的内容。

    作为内容的创造者,你会愿意无偿提供内容给他们吗?

    来看看 OpenAI 的 GPTBot 干了什么吧?

    网站的站长允许 GPTBot 来抓取网站内容,就意味着允许 OpenAI:

    • 使用你的内容来训练人工智能模型
    • 使用你的网站信息来生成 AI 内容
    • 增加了额外的服务器负担,影响普通访客访问网站的效果

    作为内容的创造者,我对滥用 AI 的能力,无偿使用原创者的作品,十分担忧,也很反对。

    目前我采用了 robots.txt 来封锁 GPTBot 和其它的一些人工智能 robot。

    Screenshot 2025-03-17 180113.jpg如果还有新出来的人工智能机器人,我不介意把他们加上去,在没有合理的使用原创内容方法之前,还是都封掉为好。



沪ICP备19023445号-2号
友情链接