BingChat广告将启动我们迫切需要的ChatGPT隐私讨论

导读 它终于发生了:基于ChatGPT的产品正在获得广告。那当然是BingChat,没有人应该感到惊讶。有人通过广告将生成式AI产品货币化只是时间问题。

它终于发生了:基于ChatGPT的产品正在获得广告。那当然是BingChat,没有人应该感到惊讶。有人通过广告将生成式AI产品货币化只是时间问题。提醒一下,OpenAI正在通过ChatGPTPlus月度订阅来做到这一点。但BingChat上的广告实际上是出于不同的原因。它有望开启我们迫切需要的ChatGPT隐私对话。

尽管生成式AI可能令人兴奋,但让我们都记住这些语言模型会吞噬大量数据,包括用户数据。像OpenAI、微软和谷歌这样的公司将需要所有这些数据来训练人工智能模型。但是,当我们通过ChatGPT、BingChat或Bard与AI聊天时,我们的数据会发生什么变化仍不清楚。以及这些数据将如何影响个性化广告体验。

我最不想要的是一种人工智能产品,它可以记住我聊天的所有内容,然后在其回复中投放极具针对性的广告。而且我什至不想想象未来人工智能产品会被预编程以推动对产品植入和广告点击的对话。

微软本周早些时候宣布BingChat获得广告,但没有详细说明对最终用户的隐私影响。微软专注于类似ChatGPT的产品可以向发布商发送更多流量这一事实。微软本身也希望通过BingChat向发布者发送更多流量:

让我们从我们的目标开始。首先,我们希望在这个新的搜索世界中为发布商带来更多流量。这是我们的首要目标,我们衡量成功的部分标准是我们从新的Bing/Edge发送了多少流量。其次,我们希望增加出版商的收入。我们寻求通过聊天和回答等新功能为他们带来更多流量,并通过在这些新媒体中开创广告的未来来实现这一目标,我将在下面进行描述。最后,我们希望以协作方式与业界合作,继续培育健康的生态系统。

早期的进展令人鼓舞。根据预览中的数据,我们正在吸引来自所有类型用户的更多流量。我们已经让更多人使用Bing/Edge来使用聊天等新场景,并且我们看到使用量在增加。然后,我们采用了独特的方法来为发布者增加流量,包括在聊天答案正文中链接到来源的引用,以及聊天结果下方的引用以“了解更多”并链接到其他来源。

但微软未能在博文中解决用户隐私问题。这个话题甚至没有出现,考虑到所有对隐私的关注,我觉得这很奇怪。每家科技公司在谈论新产品时都在强调用户隐私的重要性。当像谷歌这样的公司详细介绍更私密地在线跟踪用户的新举措时,用户隐私就会经常出现。

将Microsoft的BingChat广告博客公告与MicrosoftSecureCopilotreveal进行比较。后者明确表示用户数据不会离开组织的服务器。

用户隐私应该是生成式AI的前沿和中心。特别是考虑到ChatGPT正在进行的大规模升级。与ElonMusk和其他人不同,我并不担心AI会很快接管世界。但我不希望与我聊天的生成式AI聊天机器人收集关于我的信息,这些信息可以为有针对性的广告建立极其详细的个人资料。

几周前,我们了解到微软可以读取BingChat交互。即使剥离了个人数据,这仍然是您在与AI打交道时可能不会意识到的那种侵犯隐私的活动——《每日电讯报》就此事进行了报道。这让人想起科技公司收听用户向手机和智能扬声器上的智能助手发出的命令的录音。

OpenAI可能还没有在ChatGPT中包含广告,但ChatGPT似乎也是一场隐私噩梦。OpenAI使用数千亿个单词来训练其语言模型,包括您的。它似乎无视版权保护,因为它从互联网上抓取数据。该数据还包括您提供给它的东西。目前还不清楚你的数据会发生什么,以及你是否能够从ChatGPT中删除你的互动。

正如Gizmodo最近指出的那样,OpenAI还收集了大量元数据,包括“IP地址、浏览器类型和设置,以及用户与网站交互的数据——包括用户参与的内容类型、他们使用的功能和他们采取的行动。”并且OpenAI还会收集您随时间推移和跨网站的浏览活动。然后,其中一些数据可能会在您不知情的情况下与未指定的第三方共享。

甚至不要让我开始使用GoogleBard。当谷歌的生成人工智能真正启动并运行时,更多的用户和监管机构将开始研究隐私影响。谷歌已经有一份支持文件解释了如何删除你的谷歌巴德数据和关闭数据收集。关于这一点,Microsoft也允许您删除BingChat数据。但是隐私保护应该更加清晰。

当然,像ChatGPT这样的语言模型需要复杂的训练才能提供出色的功能。我们必须通过广告、一次性费用或订阅来支付技术费用。但这并没有改变这样一个事实,即我们需要为类似ChatGPT的产品制定明确的隐私政策。有一天,聊天机器人可能会真正记住我们的一切。