AI摘要:研究显示,超过57%的在线内容由AI生成,导致搜索结果质量下降和AI模型训练受损。AI内容泛滥使得信息准确性降低,且AI生成的响应随着使用而退化。OpenAI CEO山姆·阿尔特曼承认,创建AI工具依赖于受版权保护内容,现行版权法对此并无禁止。文章探讨了AI与人类之间的距离,认为AI缺乏有效的指导和纠错机制,未来AI互相学习的可能性也引发担忧。
Powered by AISummary.
今天看见个新闻:
一项新研究揭示,超过 57% 的在线内容由 AI 生成,这正严重影响搜索结果质量和 AI 模型训练。随着 AI 内容泛滥,Copilot 和 ChatGPT 等工具的知识范围不断缩小,导致响应不准确和误导性信息增多。研究发现,AI 生成的响应在每次尝试后都会在价值和准确性上退化。这种恶性循环源于 AI 工具过度依赖网上已有的 AI 生成内容,而这些内容往往未经事实核查就被发布。
OpenAI CEO 山姆·阿尔特曼承认,创建 ChatGPT 这样的工具离不开受版权保护的内容,但目前版权法并不禁止将这些内容用于 AI 模型训练。随着生成式 AI 快速普及,区分真实与虚假内容变得越发困难。研究警告,如果这一趋势持续,搜索结果质量可能会进一步恶化,AI 模型的训练效果也将受到严重影响。
仔细想想,互联网也似乎是一样的,早期互联网上有很多有价值的内容,但是随着信息的传播,这些内容被大量的复制粘贴,并且在此过程中不断地丢失信息,最终变成杂糅的无意义的垃圾信息海,那些有价值的内容被淹没其中再也无法找出来。AI只不过是再次演绎了这一个过程罢了。
这让我不禁思考起AI和人类的距离到底还有多远。以ChatGPT为节点,我将当前的AI分为两类,在此之前的AI我将其视作低技术AI,比如AI去背景之类的,没有类人的表现;而ChatGPT之后,AI开始表现出能理解人类话语含义了,尽管我们知道,这仅仅只是AI从庞大的训练数据库中挑选了最可能的字眼拼凑出完整的一句罢了。
但人类呢?婴儿是不是也是在长久地观察后学会了说出最可能的那句话?那么AI与婴儿的区别何在呢?大概是缺少了一个好老师吧。婴儿成长的过程中有太多人教其什么该做什么不该做,而AI的成长过程中显然缺少了这样的角色,在训练初期,还可靠人工对AI进行纠错,但一旦投入生产使用,缺少指导的AI面对庞大的信息量也变成了茫然无助的孩子。作为地球上仅有的智慧物种,当前能担任AI老师的也仅有人类,但人类作为AI老师又是不合格的,因为AI显然比绝大多数人知道的更多。
或许,未来的技术能够让AI互相给对方当老师,让AI自行纠错。但那样想想就很可怕了,AI自行纠错最终会得出什么样的结论,人类无从知晓。或许到那时,人类就真得考虑些机器人三大定律之类的手段防止AI暴乱了。