您的位置首页 >要闻 >

谷歌和微软正在竞相用人工智能破坏搜索

导读 对于科技行业来说,这是艰难的一年——投资者很不安,裁员主导着新闻,一个名为ChatGPT的讨厌工具威胁要摧毁搜索引擎。因此,具有讽刺意味

对于科技行业来说,这是艰难的一年——投资者很不安,裁员主导着新闻,一个名为ChatGPT的讨厌工具威胁要摧毁搜索引擎。因此,具有讽刺意味的是,谷歌和微软正在通过竞相破坏自己的搜索引擎来应对这一威胁。

让我们从顶部开始;ChatGPT 不是任何信息的可靠来源。这是一个有趣的工具,它可以完成多项任务,但它并不智能,缺乏任何理解或知识。不幸的是,像 ChatGPT 这样的聊天机器人会让人感觉非常权威,所以很多人(包括记者、投资者和科技领域的工人)错误地认为它是知识渊博和准确的。

现在,你可以说像谷歌搜索这样的工具是不智能的,你是对的。你也可以批评谷歌搜索或必应的有效性——这些服务被网站游戏化,结果,它们给互联网带来了大量的垃圾。但与ChatGPT不同的是,谷歌不回答问题。它只是将您链接到网站,让您弄清楚某事是对还是错。它是一个聚合工具,而不是一个权威。

但炒作机器正在将ChatGPT送入平流层,大型科技公司希望跟进。在科技博客和随机互联网人物称赞ChatGPT是谷歌搜索的垮台之后,微软对这项技术进行了大量投资,并开始将其与Bing集成。我们在谷歌的朋友回应了Bard,这是一个依赖于实验性LaMDA模型的定制AI聊天机器人。

微软和谷歌正在竞相看谁能把这项技术赶出门。他们不仅会为ChatGPT等工具提供权威,而且还会将这种未经修饰的AI呈现给那些不了解的用户。这是不负责任的,它会放大错误信息,它会鼓励人们把研究搁置一边。

更不用说,这项技术将迫使微软和谷歌成为对错的仲裁者。如果我们要将对话式AI视为一种权威,就需要不断调整和调节它,以消除不准确之处。谁来做这些决定?当人们的信仰或“知识”没有被花哨的人工智能所代表时,他们将如何回应?

我还应该指出,这些对话模型是建立在现有数据之上的。例如,当您向 ChatGPT 提问时,它可能会使用书籍或文章中的信息进行回复。当CNET尝试测试AI作家时,它发布了大量抄袭内容。推动这项技术的数据是版权噩梦,监管似乎很有可能。(如果发生这种情况,监管可能会大大增加对话式人工智能开发的成本。许可构建这项技术所需的所有内容将花费一大笔钱。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!