一份新的报告显示,由于担心数据泄露和类似的网络安全事件,许多老板已经开始禁止ChatGPT和其他生成式人工智能工具。
企业生成式人工智能平台Writer最近对大型企业的450名高管进行了调查,以了解他们对人工智能驱动的生成式聊天机器人的看法,发现几乎一半(46%)的人认为他们公司中的某人可能无意中使用该工具共享了公司数据。
虽然ChatGPT只能使用2021年9月之前创建的数据,但这种情况将来很可能会发生变化,更不用说其他工具可能没有设置这种意外情况。这意味着这些工具可以在其学习模型中使用敏感数据,然后与其他用户共享它们。因此,敏感数据被共享的公司最终可能会因泄露而受到数据安全监管机构的追查。话虽如此,ChatGPT被32%的受访者禁止,其次是CopyAI(28%)和Jasper(23%)。
但该工具仍然非常受欢迎。几乎一半(47%)每天在工作中使用ChatGPT(35%的情况下使用CopyAI,26%的情况下使用Anyword)。他们在不同的部门使用它,从IT(30%)到运营(23%)、从客户成功(20%)到营销(18%)、从支持(16%)到销售和人力资源(15%)。
>俄罗斯黑客正试图从ChatGPT中找出最坏的结果>黑客正在使用ChatGPT编写恶意软件>通过针对小型企业的最佳端点保护来确保您的企业安全
此外,大多数公司并不打算长期坚持使用免费版本,因为59%的公司表示他们今年至少购买了(或计划购买)一款此类工具。五分之一(19%)的人使用五种或更多生成式人工智能工具。他们将提高生产力视为该工具的关键卖点,因为它可以提高员工生产力、产生更高质量的输出并节省成本。
“企业高管需要注意。在整个企业中实施生成式人工智能确实具有竞争优势,但很明显可能存在安全、隐私和品牌声誉风险。”Writer首席执行官兼联合创始人MayHabib表示。
“我们为企业提供完全的控制权——从法学硕士可以访问哪些数据到数据和法学硕士的托管位置。如果你不控制生成式人工智能的推出,你当然无法控制输出的质量或品牌和安全风险。”