ChatGPT--隐私的噩梦还是有用的工具?

人工智能ChatGPT没有为隐私而建立--欧盟现在会阻止这个流行的工具吗?

2023-04-21
ChatGPT and privacy do not go well together: The problem is the AI is fuelled by our personal data.
每个人都在谈论新的人工智能能做什么,最近大家都开始关注ChatGPT的隐私问题。意大利对ChatGPT的禁令和德国围绕人工智能聊天机器人的迫在眉睫的隐私问题,引发了全欧洲的辩论,有人热衷于该工具,有人则警告反对其发展以及ChatGPT对人们的隐私意味着什么。

ChatGPT已经成为有史以来增长最快的消费者应用程序。人们对这个工具趋之若鹜,因为他们相信这个工具会对他们的日常生活--甚至是工作有帮助。

在其发布的几个月内,已有数亿用户注册--他们中几乎没有人读过ChatGPT的隐私政策。

但是,为了使用人工智能而签下自己的隐私权值得吗?

学生们使用ChatGPT让人工智能为他们写论文,一些新闻机构如Buzzfeed宣布他们将使用ChatGPT来写文章--这使他们的股票飙升。

谷歌没过多久就宣布了自己的人工智能工具--巴德,中国的百度也在3月推出了人工智能 "尔尼机器人"。

大科技公司对新的人工智能技术非常兴奋,他们希望我们看不到风险:它是由我们的个人数据推动的。

欧洲的ChatGPT隐私辩论

以严格的隐私保护法GDPR而闻名的欧洲是第一个解决伴随人工智能而来的隐私问题的国家。意大利已经成为欧盟第一个实施临时禁令的国家,感觉到它违反了欧盟的《通用数据保护条例》(GDPR)。但这个聊天机器人可能在4月底回到意大利:"周三,意大利数据保护机构The Garante给了OpenAI--ChatGPT背后的美国公司--4月30日之前遵守特定的隐私要求,为解除这个聊天机器人在该国的临时禁令铺平道路",Politico写道。

意大利数据保护当局希望在某些条件下解除对运营商OpenAI的ChatGPT的封锁:"如果OpenAI准备采取适当的措施,我们准备在4月30日允许ChatGPT回归,"当局负责人Pasquale Stanzione在接受Corriere della Sera报纸采访时说。

根据Stanzione的评估,这家由微软支持的公司愿意执行数据保护当局的要求。

随着软件的发布,人工智能在政治和商业领域掀起了波澜。例如,该程序可以回答查询或根据几个关键词生成完整的文本。其基础是预先从互联网上搜刮的大量文本。

然而,对错误答案和数据保护的担忧不断增加,使用生成性人工智能的人越多。根据意大利当局的说法,OpenAI涉嫌在没有通知用户和个人的情况下处理个人数据。此外,用于训练其人工智能模型的广泛数据收集也没有法律依据。由于这些涉嫌违规,意大利当局在3月底对OpenAI展开了调查。此后,该人工智能软件对意大利用户来说已经被封锁了。

用你的数据进行训练

OpenAI是ChatGPT背后的公司,用从互联网上刮来的数十亿字训练人工智能--有书籍、文章、论文、散文。互联网上的各种信息都被输入到人工智能中,没有得到作者的同意。

如果你在网上发表过任何东西--无论是博客文章还是文章下的评论--很可能ChatGPT正在使用这些信息进行训练。

发布者一无所获

对在线内容的出版商的补偿也有问题。博客文章或书籍可以通过ChatGPT引用,但实际作者并没有得到任何补偿。根据文本的受欢迎程度,该行业可能会错过巨大的收入--而OpenAI可能会获得巨大的利润。

AI数据有什么问题?

使用互联网上的信息来训练人工智能,然后产生新的文本是有问题的,这有几个原因。

  1. 数据可能是错误的:并非所有在互联网上发布的数据都是正确的。事实上,互联网上充满了宣传、游说和意见稿。

  2. 数据可能来自抄袭的来源,这可能导致法律冲突。

  3. 数据可能是私人的:互联网上的许多数据包含人们的个人信息,有时甚至是他们的地址或其他可能暴露其身份的私人信息。这些信息在未经受影响的人同意的情况下被搜刮,因此,这显然是对隐私的侵犯。

此外,人们没有选择去了解ChatGPT是否使用他们的信息并将其从数据库中删除。这是《欧洲数据保护条例》(GDPR)的法律要求,所以ChatGPT是否符合这一欧盟隐私法规是值得怀疑的。如果ChatGPT使用的信息是错误的--不幸的是,这种情况经常发生,那么GDPR所保障的 "被遗忘权 "就尤为重要。

在欧盟的前景

在这一点上,我们不能说ChatGPT--以及其他人工智能工具,如Bard或Erni Bot--是否会在欧盟受到监管,以及在多大程度上受到监管。可以肯定的是,这一点:政治家,特别是欧洲和美国的数据保护监督机构正在密切关注人工智能工具,他们的潜力,但也有潜在的危害。

"欧洲消费者组织(BEUC)的高级法律官员Frederico Oliveira da Silva告诉《欧洲时报》:"我们离人工智能法的适用还有几年时间,在此期间,消费者得到保护是至关重要的。

据奥利维拉说,欧盟和国家当局应立即对ChatGPT和类似的大规模语音工具的风险进行调查。需要进行 "更有力的公众监督"。

在意大利上个月阻止了对人工智能的访问后,西班牙数据保护局(AEPD)最近向欧洲数据保护委员会(EDPB)提交了一份请愿书,指出需要评估ChatGPT的隐私影响。

在法国,欧洲议会议员Eric Bothorel最近向法国数据保护局CNIL提出投诉,此前该局已经开始调查几起投诉。在德国,数据保护会议目前也在评估该聊天机器人是否违反了《通用数据保护条例》。

比利时、奥地利、克罗地亚、芬兰和波兰到目前为止还没有禁止该软件的计划。

对人工智能工具的监管迫在眉睫,但具体以何种方式进行监管,还有待确定。

ChatGPT隐私政策

最后,如果你仍然想使用人工智能,请确保首先阅读ChatGPT的隐私政策

要知道,OpenAI会收集很多关于你的信息。根据该公司的隐私政策,它收集用户的IP地址、浏览器类型和设置,以及用户与网站互动的数据--包括用户参与的内容类型、他们使用的功能和他们采取的行动。它甚至还收集关于浏览习惯和访问哪些网站的数据。更重要的是,OpenAI表示,它可能与其他第三方分享所收集的信息。鉴于微软对OpenAI进行了大量投资,人们应该意识到,这家大科技公司可能会完全获得你与ChatGPT分享的所有数据。

结论

虽然ChatGPT可以彻底改变我们的工作方式,但我们必须考虑其成本。OpenAI是一家以营利为目的的公司,我们应该谨慎对待与他们分享的数据。

隐私风险是惊人的,而ChatGPT的好处--至少到目前为止--仍然非常有限。

不仅仅是ChatGPT再现的一些信息是错误的,而且人工智能产生的文本有时就像关于这个问题的数百篇博客文章的无聊摘要。

如果你不相信,请阅读ChatGPT制作的这个例子:


写一篇关于为什么隐私很重要以及为什么我们在数字时代需要端到端加密的文章。

我们确信你可以自己写这样的文章,所以现在你可以检查谁的表现更好:你或人工智能。

下面是ChatGPT写的关于隐私的文章:

隐私问题:数字时代端对端加密的重要性

数字时代带来了无数的好处,从即时通讯到无与伦比的信息获取。然而,随着我们越来越依赖技术来连接、沟通和开展业务,我们也留下了大量的个人信息,这些信息可以被公司、政府和其他组织收集、存储和共享。

这就是为什么隐私很重要,因为它允许个人对其个人信息和行为保持自主权和控制。

隐私的重要性

在当今世界,个人信息是有价值的,它可以被用于各种目的,如有针对性的广告,政治操纵,甚至监视。当个人信息在我们不知情或不同意的情况下被收集、储存和分享时,我们就失去了对自己生活的控制。我们的行动、想法和信仰可以被人或组织监控和分析,他们可能利用这些信息来操纵或剥削我们。此外,隐私的丧失可能导致歧视,特别是对弱势群体,如少数民族、移民和有不同政治观点的人。

端对端加密

这就是端到端加密的作用,它是一种技术,通过对发送方设备上的数据进行加密,使其只能在接收方的设备上解密,从而实现安全通信。这有助于确保只有发件人和收件人可以阅读信息,而且不能被任何第三方截获或访问,包括提供服务的公司。

保护我们的政治和公民权利

端对端加密在保护我们的政治和公民权利方面也发挥着关键作用。在一个人们感到可以自由地表达他们的观点和意见而不用担心报复的社会中,一个强大的思想市场可以蓬勃发展。相反,在一个不尊重隐私的社会中,个人可能会觉得他们处于不断的监视之下,并可能自我审查以避免报复。这可能会对言论自由和其他权利产生寒蝉效应,并可能使个人难以充分参与民主进程。

人际交往中的信任和安全

隐私对于人际交往中的安全和信任也很重要。当我们可以相信我们的个人信息被保密时,我们更有可能与他人分享我们的想法、感受和经验。这将导致更深入、更有意义的关系和更强的社区感。另一方面,如果我们觉得我们的个人信息不断被暴露,我们可能会变得更加谨慎,不太可能与他人形成联系。

结论

总之,隐私是一项基本权利,它允许我们保持对个人信息和行为的自主性和控制。它对于保护我们的政治和公民权利、促进人类互动中的信任和安全以及维护人类尊严至关重要。端对端加密是一个强大的工具,可以通过确保我们的通信安全和隐私,帮助保护我们在数字时代的隐私。

随着我们越来越多地依赖技术来连接、沟通和开展业务,我们必须采取措施来保护我们的隐私,这包括使用提供端到端加密的服务。