趋势与观点 | 人工智能的隐私利弊
过去一年中,生成式人工智能(AI)的快速发展引发了许多隐私和伦理问题,包括对从受版权保护的作品中学习生成式人工智能的伦理和合法性的讨论。例如,一些作者以侵犯版权为由对ChatGPT的所有者OpenAI提起诉讼。也有人担心生成式人工智能可能使用个人信息的方式。例如,出于隐私相关考虑,意大利数据保护局暂时禁止了ChatGPT。
生成式人工智能可以创建文本并与用户聊天,这是一个独特的挑战,因为它可以让人们感觉自己在与人互动。拟人化是指将人类属性或个性赋予非人类。人们经常将人工智能(尤其是生成式人工智能)拟人化,因为它可以创造类似人类的输出。
这种虚假的关系可能会有问题。ELIZA效应描述了“当一个人将人类水平的智能归因于人工智能系统,并错误地将包括情感和自我意识在内的意义附加到人工智能上时”的现象。一名男子与聊天机器人分享了他对气候变化的担忧,聊天机器人为他提供了自杀的方法。不幸的是,他自杀身亡,他的妻子声称,如果不是因为他与聊天机器人的关系,他不会这么做。
这些产生类似人类输出的算法玩起来很有趣,但它们带来了严重的隐私问题。对面向消费者的生成式人工智能的企业来说需要考虑拟人化的人工智能有与隐私相关的利弊。
隐私优势
将人工智能拟人化的一个与隐私相关的好处是,它可以帮助用户将过度的数据收集置于情境中。当信息由企业或应用程序收集时,它可能看起来像是一大堆1和0,没有任何意义。但是,如果一个陌生人似乎在告诉用户关于自己的私人信息,这似乎令人反感,共享数据的后果就会变得具体而有形。
应用程序可能被要求包含他们在应用程序商店中收集的信息描述,但用户通常不会阅读,因为它很复杂,或者他们不确切地了解数据收集的内容。相比之下,让人工智能聊天将这些信息投入使用可能更具影响力。以Snapchat的人工智能聊天机器人My AI为例。尽管苹果应用商店通知用户Snapchat可以访问位置数据,但图1更实际地说明了访问位置数据的含义。例如,我让My AI推荐我附近的一家好咖啡店。
应用程序用户可能知道应用程序可以访问位置数据,但与一个命名特定社区企业的看似人类的聊天机器人进行对话,可以更好地说明与应用程序共享位置数据意味着什么。这可能有助于人们更多地了解隐私问题,从而使消费者对他们共享的信息更加谨慎,并采取措施保护他们的隐私。
当与人工智能聊天机器人交谈时,如果聊天机器人听起来像人类并使用第一人称或第二人称语言,用户可能会更愿意分享信息。提供给聊天机器人的信息可能会被一个友好的人分享,而不是一个可能将这些数据用于各种目的的企业。例如,人们可能会与聊天机器人交谈一段时间,最终泄露敏感信息(例如,他们正在努力解决的健康问题)。大多数聊天机器人在用户提供敏感信息时不会发出警告。
个人的输入或人工智能平台的输出有可能用于训练未来的反应。这可能意味着与聊天机器人共享的敏感数据或秘密信息可能会与他人共享,或影响他人收到的输出。例如,尽管OpenAI改变了政策,但它最初是根据提供给ChatGPT的数据进行模型训练的。人工智能进行数据训练后,很难再次对其进行训练。
隐私声明通常很难理解,消费者可能会绕过它们,但是会接受人工智能聊天机器人关于隐私对话式、易于理解的回应。用户可能认为聊天机器人提供的信息是全面的。但是,如果不深入研究提供商的隐私声明,可能会对提供商收集的信息有不准确的了解。
例如,我问Snapchat的聊天机器人该应用程序收集了哪些信息,但它向我提供的信息不完整。图2显示了My AI收集的数据,但这并不是一个完整的列表。图1证实了该应用程序还收集位置数据。
使用人工智能聊天机器人的企业中的隐私专业人士应该考虑聊天机器人提供关于隐私实践信息的方式。对有关收集的数据、如何使用数据和消费者权利的问题的回答必须准确并且全面,以避免误导数据主体。
使用人工智能聊天机器人的企业还必须考虑用户的年龄,并确保未成年人受到保护。例如,59%的青少年表示他们使用Snapchat,只有付费订阅Snapchat+的用户才能删除其My AI功能。这意味着使用免费版Snapchat的未成年人和未成年人的父母不能删除My AI功能。青少年可能不了解它的缺陷或他们的信息如何被使用,他们正在使用My AI来进行心理健康咨询,这可能存在危险。为未成年人提供人工智能服务的企业应告知他们提供敏感信息的后果,并强调输出可能不准确。
我问My AI头痛该怎么办,虽然它最初拒绝提供医学上的建议,但最终建议我服药(图3)。尽管它推荐了相对无害的非处方药,但未成年人可能不知道这些推荐的药物是否会与任何处方药产生相互作用。
即使是不使用生成式人工智能的公司,也需要了解将会如何影响日常运营。员工可能会觉得,向ChatGPT寻求帮助起草电子邮件类似于向同事求助,但两者不可比较:ChatGPT是第三方服务,不遵守工作场所保密规范。公司必须制定一项关于生成式人工智能使用的政策。这需要多个部门的投入,而不仅仅是隐私团队。管理者还应制定关于什么样的工作可以利用人工智能工具的指导方针(例如,可以允许使用ChatGPT起草社交媒体帖子,但使用它起草机密电子邮件可能是不可接受的)。未制定关于GPT和其他人工智能工具使用的政策可能会导致员工滥用技术,从而可能会导致隐私问题。
在隐私意识培训中,隐私专业人员可以利用人工智能的拟人化元素对信息被不当披露会产生的影响进行说明。非隐私工作人员可能不理解为什么某些数据被认为是敏感的,或者为什么信息被泄露很重要,但Snapchat的AI等例子可以有效地说明如果位置数据等信息被不当共享可能会发生的后果。
许多企业利用类似人类的人工智能工具,许多员工的工作也可能依赖它们。人工智能被拟人化的同时让它看起来不那么值得信赖,但从隐私的角度来说更值得信赖。制定一项关于人工智能使用的政策,并确保消费者了解与人工智能共享数据的含义,可以促进更有效、更值得信赖的人工智能工具。