你不仅仅是一个数据点。选择退出功能可帮助你恢复隐私。 最新一波人工智能发展浪潮迫使我们许多人重新思考生活中的关键方面。例如,数字艺术家现在需要专注于保护自己的作品不被图像生成网站窃取,教师则需要应对一些学生可能将论文写作外包给 ChatGPT 的问题。 但人工智能的泛滥也带来了每个人都应该了解的重大隐私风险——即使你不打算知道这项技术认为你作为人鱼会是什么样子。 缺乏透明度布鲁金斯学会人工智能与新兴技术计划政策主管杰西卡·勃兰特 (Jessica Brandt) 表示:“我们通常对于谁在使用我们的个人信息、如何使用以及用于何种目的知之甚少。”布鲁金斯学会是位于华盛顿特区的一家非营利组织,其研究旨在解决各种国家和全球问题。 从广义上讲,机器学习(AI 系统变得更加准确的过程)需要大量数据。系统拥有的数据越多,它就越准确。聊天机器人 ChatGPT 和 Google 的 Bard 以及图像生成器 Dall-E 等生成式 AI 平台通过一种称为抓取的技术获取部分训练数据:它们扫描互联网以收集有用的公共信息。 但有时,由于人为错误或疏忽,原本不应公开的私人数据(如机密的公司文件、图片甚至登录列表)可能会进入互联网的可访问部分,任何人都可以借助 Google 搜索运算符找到它们。一旦这些信息被抓取并添加到 AI 的训练数据集中,任何人都无法将其删除。 “人们应该可以自由地分享照片,而不必担心它最终会被输入到生成式人工智能工具中,甚至更糟的是,他们的照片最终可能会被用来制作深度伪造作品,”印度科技公司 Wipro 的全球首席隐私官、弗吉尼亚理工大学潘普林商学院的网络安全和隐私执行研究员 Ivana Bartoletti 表示。“在互联网上抓取个人数据会破坏人们对其数据的控制。” 数据抓取只是 AI 系统训练数据的一个潜在问题来源。国际隐私专业人员协会隐私工程高级研究员 Katharina Koerner 表示,另一个问题是个人数据的二次使用。这种情况发生在您自愿放弃部分信息用于特定目的,但最终却被用于您不同意的另一个目的时。多年来,企业一直在积累客户的信息,包括电子邮件地址、送货详情以及他们喜欢的产品类型,但在过去,他们无法用这些数据做很多事情。如今,复杂的算法和 AI 平台提供了一种处理这些信息的简单方法,因此他们可以更多地了解人们的行为模式。这可以为您带来好处,因为它只向您提供您可能真正关心的广告和信息,但它也会限制产品的可用性,并根据您的邮政编码提高价格。Koerner 表示,考虑到一些企业已经拥有自己客户提供的大量数据,企业这样做很诱人。 她解释道:“人工智能可以轻松地从现有数据中提取有价值的模式,以支持未来的决策,因此,对于企业来说,将个人数据用于机器学习是非常诱人的,尽管这些数据并不是为此目的而收集的。” 对于开发人员来说,从大型训练数据集中选择性地删除您的个人信息非常复杂,这无济于事。当然,删除具体信息可能很容易,例如您的出生日期或社会安全号码(请不要向生成式 AI 平台提供个人信息)。但 Bartoletti 表示,执行符合欧洲《通用数据保护条例》的完整删除请求则是另一回事,也许是最复杂的挑战。 [相关:如何阻止学校设备共享你的家庭数据] 即使在传统 IT 系统中,选择性内容删除也很困难,因为它们的微服务结构错综复杂,每个部分都作为独立单元工作。但 Koerner 表示,在人工智能的背景下,这甚至更加困难,甚至目前不可能。 这是因为这不仅仅是按下“ctrl + F”并删除所有包含某人姓名的数据的问题——删除一个人的数据需要从头开始重新训练整个模型,这是一个昂贵的过程,她解释说。 选择退出将变得越来越困难一个完善的人工智能系统可以提供大量的分析,包括帮助用户理解人们行为的模式识别。但这不仅仅是因为技术的能力,还因为人们的行为往往是可预测的。人类的这一特殊方面让人工智能系统可以在不了解你太多具体情况的情况下正常工作。因为如果认识像你这样的人就足够了,那么认识你还有什么意义呢? “我们现在只需要最少的信息——只需三到五条关于一个人的相关数据,这些数据很容易获取——他们就会立即被吸入预测系统,”华盛顿特区一家专注于人工智能审计和风险的律师事务所 BNH.AI 的合伙人 Brenda Leong 说道。简而言之:如今,想要置身于系统之外变得更加困难,甚至是不可能的。 这让我们失去了很多自由,因为即使是那些多年来一直努力保护隐私的人,也会让人工智能模型为他们做出决定和建议。这可能会让他们觉得所有的努力都白费了。 “即使它以对我有帮助的方式对我进行帮助,比如为我提供适合我收入的贷款,或者我真正感兴趣的机会,但它对我所做的一切都是我无法真正控制的,”Leong 继续说道。 使用大数据来对整个群体进行分类,也让细微差别(离群值和例外)无处容身,我们都知道,生活中处处都是。细节决定成败,但将一般性结论应用于特殊情况也同样如此,因为特殊情况可能会出大问题。 数据武器化另一个关键挑战是如何在算法决策中灌输公平性——尤其是当人工智能模型的结论可能基于错误、过时或不完整的数据时。目前众所周知,人工智能系统可以延续其人类创造者的偏见,有时会给整个社区带来可怕的后果。 随着越来越多的公司依靠算法来填补职位空缺或确定驾驶员的风险状况,我们自己的数据被利用来损害我们自身利益的可能性也越来越大。有一天,你可能会受到这些系统自动做出的决定、建议或预测的伤害,而你几乎无法获得任何补偿。 [相关:自主武器可能在战争中犯下严重错误] 当这些预测或标签在无法区分真假的算法眼中成为事实时,也会出现问题。对于现代人工智能来说,所有数据都是数据,无论是个人数据、公共数据、事实数据还是完全虚构的数据。 集成度越高,安全性越低正如您的互联网存在感与您最弱的密码一样强,大型人工智能工具与其他平台的集成为攻击者在尝试访问私人数据时提供了更多可利用的漏洞。如果其中一些在安全方面不符合标准,请不要感到惊讶。 这还没有考虑到所有在你不知情的情况下收集你的数据的公司和政府机构。想想你家附近的监控摄像头、在音乐会现场跟踪你的面部识别软件、拿着 GoPro 在当地公园里奔跑的孩子,甚至还有那些试图在 TikTok 上走红的人。 处理数据的人和平台越多,出错的可能性就越大。出错的可能性越大,意味着您的信息在互联网上泄露的可能性就越大,这些信息很容易被抓取到 AI 模型的训练数据集中。而且如上所述,这种情况很难挽回。 您可以做什么坏消息是,你现在对此无能为力——既无法解决包含你信息的 AI 训练数据集可能带来的安全威胁,也无法解决可能阻碍你找到理想工作的预测系统。目前,我们最好的选择是要求监管。 欧盟已经通过了《人工智能法案》的初稿,该法案将根据可接受的风险水平来规范企业和政府如何使用这项技术。与此同时,美国总统乔·拜登已经通过行政命令为合乎道德和公平的人工智能技术的发展提供资金,但国会尚未通过任何法律来保护美国公民在使用人工智能平台时的隐私。参议院一直在举行听证会以了解这项技术,但还远未制定出联邦法案。 在政府工作的同时,你可以(也应该)倡导隐私监管,将人工智能平台纳入其中,保护用户的数据免遭不当处理。与周围的人就人工智能的发展进行有意义的对话,确保你知道你的代表在联邦隐私监管方面的立场,并投票给那些真正关心你利益的人。 阅读更多 PopSci+ 故事。 |
>>: 您现在可以加入 Meta 的 Twitter 竞争对手 Threads
On-chan的梦想力量大冒险! - 引人入胜的单集冒险故事2003年播出的《On-chan的梦想力...
罂粟籽大小的核燃料电池可以在 2030 年左右开始运行后为 NASA 的 Artemis 月球基地提...
不,你不能租下整个湖泊,但有景观的树屋怎么样? Simon Migaj via Unsplash如果...
1981 年 4 月 12 日,哥伦比亚号航天飞机从佛罗里达海岸发射升空。NASA 将这次飞行命名...
在洋红色和蓝色生长灯的照射下,哈普里特·萨林的迷你温室看起来与纽约市其他室内园艺设施几乎无异。但当交...
Kodomo 挑战音乐 [适合 3 岁及以上儿童的视频套装] - 用音乐陪伴孩子成长Kodomo ...
液态水是我们所知的生命存在的先决条件之一,有直接证据表明火星上曾存在过液态水。然而,那是数十亿年前的...
《创龙传》的完整故事和魅力概述《Souryuuden》是Kitty Film于1991年6月25日...
现在您已经为运行 Mac OS X 的自制 Hackintosh PC 准备好了所有部件,是时候执行...
生化危机:复仇——恐怖与动作的终极融合《生化危机:仇杀》于2017年5月27日上映,是一部根据《生化...
7 月初,一架从西班牙飞往乌拉圭的欧罗巴航空航班遭遇严重颠簸,导致数十人受伤,其中部分人伤势严重。就...
名字意味着什么?实际上,名字的含义相当多!我们给自然界的各种事物命名,从新物种到彗星,当然还有新发明...
“哈米坦宝宝”:一部 4 分钟的迷你动画,向儿童讲授可持续发展目标《Baby Hamitan》于20...
我们大多数人已经习惯了长时间坐在 60 吨重的金属机器上。除了在起飞时听到强制性的飞机安全警告外,大...
截至 10 月 15 日,使用代码 ROSETTA 即可终身订阅 Rosetta Stone 全部 ...