两年前,我读到这篇文章时感到惊叹不已。今天,我无法想象没有使用 ChatGPT 的工作日。
人工智能是生产力天才,而且只会变得更好。但它并非没有缺陷。
人工智能一夜之间的成功率已经让隐私检查和数据保护法落后了。如果您是一家处理敏感用户数据的公司,这可不是个好消息。
在没有护栏的情况下部署现成的人工智能聊天机器人可能会损害您的业务。就问吧!
虽然人工智能非常擅长简化和加快流程,但它也可以根据个人数据“创建”不良内容。
那么,作为企业,您可以采取哪些措施来保护消费者数据并负责任地使用人工智能?让我们开始吧。
人工智能的隐私陷阱我们大多数人很少关注我们向工具提供的内容这在很多方面帮助我们。
从产品开发周期、代码审查到营销和招聘策略 - 许多第一方数据都与第三方人工智能工具共享。
由于人工智能工作原理的法律和理解仍然有限,我们正在进入未知领域。
主流人工智能工具如何运作?我们称之为人工智能的工具本质上是擅长模式识别、模仿和预测的工具。法学硕士需要大型数据集(因此得名)来阅读和学习,然后才能有效地回复用户提示。
当您向 Z 世代询问 ChatGPT 时,它无法理解上下文。但在阅读了数千个类似主题的内容后,它就知道足够的信息来预测最合适的答案。
当您要求 DALL-E 画一幅牛仔宇航员的图时,也会发生同样的事情。
争论的焦点是人工智能工具需要自我训练的大型数据集。质量和相关性对她来说很重要e 和公司已准备好为培训数据支付高额费用。
人工智能公司使用公共和许可的数据集来训练他们的产品。这些数据集包含多年的社交媒体帖子、论坛讨论、博客文章,甚至整个维基百科。例如,文本数据。
用户数据安全风险如果某些东西在线且公开可用,那么它很可能现在被用来训练多种人工智能工具。以下是隐私成为问题的一些原因:
缺乏透明度我们不知道这些数据集的存储方式和位置、人工智能公司采取哪些措施来保护敏感信息,以及如何保护用户免受网络攻击。
当然,OpenAI 凭借大量文档处于领先地位,但这些公司尚未受到监管以提供透明度。
最重要的是,我们不知道人工智能工具如何创建答案。由于生成或捏造事实,它可能会给企业带来法律挑战。
缺乏责任感有一个对于谁应该为生成人工智能的错误负责,人们非常困惑。在加拿大航空的案件中,它试图辩称聊天机器人是一个独立的法律实体,但未能说服法院。
除非您使用 ChatGPT Enterprise 计划,否则 OpenAI 默认情况下会跟踪您的聊天历史记录来训练其模型。您可以选择退出,但该功能深藏在您的设置中。
现在,想象一下这个场景:客户服务代表想要向客户发送一封后续电子邮件,回顾他们的对话并概述他们的请求。
他们打开个人 OpenAI 帐户,要求 ChatGPT 撰写草稿,其中包括个人身份信息 (PII),以生成更详细的输出。
这种交互随后将成为 OpenAI 训练模型的一部分,包括客户的个人数据。
许多公司尚未就员工如何(并且应该)利用人工智能工具设定防护措施。
缺乏数据保护责任导致导致客户数据事件和泄露。
缺乏明确的政策归根结底,这一切都归结为监管框架。
不幸的是,当局似乎和用户一样对人工智能一无所知。我们尚未看到既定政策要求法学硕士和人工智能公司承担责任。
公司和政府机构正在共同努力制定安全且有意义的人工智能使用政策,但是。
保护消费者隐私的步骤如果您是一家充分利用人工智能潜力的企业,则需要共同努力保护消费者数据。
以下是保护隐私的几种方法:
与用户沟通并允许他们选择退出。如果您使用人工智能聊天机器人为客户提供服务,请务必添加免责声明,解释如何处理客户数据以及客户选择退出的方式。
当客户知道他们正在使用什么及其含义时,他们就不太可能对 A 感到惊讶我出现幻觉了。
向您的客户提供有关身份被盗后该怎么办的信息可能是任何沟通策略的重要组成部分。
加拿大航空的案例是透明度如何帮助该公司避免诉讼的一个很好的例子。
建立隐私第一的设计。这是第一步的扩展。如果您有全公司范围的隐私优先设计,您就更有可能保护用户数据免遭泄露。
隐私优先的设计将用户数据和隐私置于安全的最前沿,并采取措施遵守法规并赢得消费者的信任。它包括主动维护、端到端安全、透明的文档和通信以及尊重消费者数据。
这种隐私优先的设计与适当的人工智能基础设施相结合,确保了处理用户数据时的全面保护和信任。
提高数据集质量。由于数据治理是隐私优先设计的重要组成部分,因此您可以尝试使用零方和第一方数据来训练生成式人工智能。
Meta 的 Llama 模型完全是关于适合独特用例的自定义训练模型,而 ChatGPT 具有插件和自定义模型来在用户提供的数据集上进行训练。如果您可以向 AI 提供内部数据负载,它可以更好地为您的员工和客户提供服务。
随着越来越多的出版物阻止 GPT 爬虫并决定训练自己的法学硕士,自定义数据集将成为未来的常态。例如,去年,基于多年的专有财务报告。
真实数据只是第一步。您必须积极消除算法偏差并保持数据卫生,以减少攻击面。
教育员工。意识到需要大量数据的人工智能工具的陷阱的员工更有可能保证数据安全。但如果你不小心的话,它们也是通往人工智能数据宝库的一个简单门户。
具有讽刺意味的是,人工智能驱动的网络钓鱼尝试、深度造假和首席执行官欺诈已经给人们带来了风险。这是一种精确、有效且难以检测的新型网络犯罪。
员工需要抵御身份盗窃和社会工程攻击,不仅保护自己,还保护客户数据。
对您的员工进行有关公共数据共享、AI 工具管理和合规性的培训。这包括不上传随机图片来获取那些电影肖像、在输入数据之前阅读隐私政策以及经常清除聊天记录。
在工作场所,鼓励他们只使用企业版本,调整设置以确保数据安全,并经常举办研讨会以让他们了解最新的行业发展。
遵守全球数据保护法。遵守既定的数据隐私法是个好主意,即使您没有被迫遵守这些法律。 GDPR、CASL、HIPAA 和 CCPA 等政策为数据收集、同意和被遗忘权法律提供了良好的框架。
尽管法律没有规定虽然人工智能法规的条款尚未具体化,但总体思路是相似的,可以在任何重视隐私的组织中实施。
AI作为隐私保护者?不要再散布恐惧了——人工智能的影响是巨大的,双方都能感受到。但它也可以在数据保护方面发挥引领作用。
重新思考人工智能训练数据集原始训练数据可能导致大规模数据泄露。这对于消费者来说可不是什么好消息。然而,阻止 AI 模型访问最新数据集并不是解决方案。
这里的中间立场是联邦学习和附加秘密共享(ASS)。
联邦学习允许中央模型与设备上存储的本地模型交互以创建合理的结果,从而实现数据集的去中心化。这减少了数据依赖性并保留本地数据集。
ASS 进一步通过整理中央服务器中的加密数据集并将加密结果推送回不同的设备。 ASS精华特别保护传输中的数据。
接下来是差分隐私框架,这对于大规模统计分析至关重要。如果您拥有大量 PII 附加数据,差异隐私会增加“噪音”或接近但随机的数字,从而隐藏敏感部分,使其不被人工智能模型访问。
它仅与 AI 工具共享必要的数据,同时保留 PII。当您使用人工智能构建报告和档案时,差异隐私可以防止您的数据泄露。
此外,生成式人工智能可以创建模拟现实世界数字的合成数据,而无需实际使用它们。它将训练数据匿名化,以便保护实际数据。
人工智能驱动的网络安全根据 ,生成式人工智能将在 2024 年引发复杂的网络攻击。解决不良人工智能的最佳方法是使用良好的人工智能。
生成对抗网络 (GAN) 用于分析现有的网络犯罪模式并根据历史数据开发合理的攻击。</p>
这比听起来要准确得多,因为 GAN 将训练分为两部分:一个生成器,用于创建合理的网络犯罪场景;一个判别器,用于评估结果并决定是否可能。
在某些时候,判别器会判断出尽可能多的结果,这表明 GAN 可用于采取主动措施来应对未来的网络犯罪。
随着 GAN 在大量数据的基础上不断发展,它们将能够检测最轻微的异常情况,并帮助安全团队防止网络攻击的发生。
Aura、Darktrace、IBM 和 SentinelOne 等公司已经使用 AI 来领先于犯罪分子、监控欺诈并保护系统完整性。
展望未来,随着更多员工将使用民主化的自定义模型,我们预计移动设备管理 (MDM) 政策将扩展至引入您自己的 AI (BYOAI)。
禁止 BYOAI 对公司来说可能不会成功,因为员工会寻求提取电子信息在不通知公司的情况下提高效率,从而导致潜在的数据泄露。
在这种情况下,企业应与员工合作构建和部署负责任的 AI 模型,并鼓励他们在 MDM 下运营。
人工智能在无 cookie 的世界中扮演什么角色?在最近的发展中,人工智能似乎是后 cookie 世界的营销冠军。还记得网站上要求您接受 cookie 的恼人弹出窗口吗?谷歌正在用更复杂的东西来摆脱它们。
Cookie 跟踪互联网上的用户,以帮助营销人员向他们提供更好的广告。根据执行情况,这可能会侵犯在线隐私。
Google 的替代方案是将三个广泛的主题附加给用户,这些主题将与广告商共享以投放广告。这大大降低了广告的效果,但人工智能可以提供帮助!
由于营销人员无法再获得特定的行为参数,因此他们可以使用人工智能来更加精确和有效。机智通过合成数据和差异化隐私框架,营销人员可以对策略进行 A/B 测试、提供研究数据并从数据转储中提取见解——所有这些都可以在人工智能的帮助下实现。
消费者数据及其位置人工智能时代的用户隐私是一个备受争议的话题,仅仅是因为我们没有足够的数据来采取行动。人工智能法规将对企业产生深远的影响,因此当局不能忽视这一点。
多项政策正在制定和修订,以应对快速发展的人工智能影响。以下是您应该关注并密切关注的其中一些:
CRPA:这是原始 CCPA 的演变版本。 CRPA 大量借鉴 GDPR 来强制与加州居民打交道的公司传达其数据共享和存储政策。如果消费者愿意的话,还必须允许他们选择退出。 删除法案:根据该法案,加利福尼亚州、佛蒙特州和德克萨斯州等几个州要求数据经纪人收集和出售用户数据向各州注册。加州更进一步,允许用户请求数据经纪人永久删除他们的数据。 人工智能合作:重点关注人工智能模型的安全和负责任的开发,以确保它们保护用户数据并适应不断变化的安全威胁。这是一个不断壮大的联盟,为希望更好地控制其人工智能模型的公司提供了广泛的资源。 那么,要点是什么?对于每一次人工智能操纵的机器人通话或深度伪造,我们都有关于生产力黑客、战略制定和个人发展的令人难以置信的故事。
确实,人工智能迎来了隐私噩梦的新时代,我们目前还没有能力应对,但事情只会发展并具体化为法规。
到那时,我们应该超越“AI”这个词的魅力,看到它今天的样子——一种基于大量用户数据的复杂模式识别和创建工具。
如果我们采取问责制遵守数据保护并遵循 GDPR 或 CRPA 中规定的隐私基本概念,我们将能够保护我们的消费者数据。
来源:hubspot