Get The Black Friday & Cyber Monday Deal

Save 62%

LinkedIn 正在使用您的数据来训练其生成式人工智能。现在就退出!

默认情况下,您的数据将用于训练 LinkedIn 的人工智能。不,你没有选择加入!阅读此处,了解如何阻止这种行为。

LinkedIn uses user data to train AI by default

和大多数 LinkedIn 用户一样,你可能不知道这个求职网站会自动选择你加入,这样你的数据就会被用来训练其人工智能模型。请按照以下步骤,在 iPhone、Android 或网页浏览器上轻松阻止 LinkedIn 获取您的数据。


LinkedIn 是又一家悄然开始利用用户数据训练人工智能模型的大型科技公司。LinkedIn 并没有给用户机会和时间来决定是否明确选择加入或退出这种数据处理,而是决定默认选择每个人都加入。这引发了对用户数据隐私的担忧。

阻止 LinkedIn 利用你的数据训练人工智能的 6 个步骤

  1. 登录 LinkedIn 账户
  2. 点击个人资料图片
  3. 点击打开设置
  4. 选择_数据和隐私_
  5. 单击 “用于改进生成式人工智能的数据
  6. 在 “将_我的数据用于训练内容创建 AI 模型_“旁边单击以关闭切换开关

退出的快速链接 :单击此链接可停止 LinkedIn 将数据用于 AI。

LinkedIn 默认使用您的数据来训练人工智能

LinkedIn 的用户数据现在被用于训练其生成式 AI 模型。全球用户(不包括欧洲经济区(包括欧盟)、瑞士和英国的用户)必须手动进入账户设置,切换关闭 “用于生成 AI 改进的数据”选项。

一旦你选择了退出,你的数据将来就不会被用于人工智能目的,但 LinkedIn 已经从你那里获取的任何数据都无法删除。

这个退出切换选项并不是一个新设置,但却让 LinkedIn 用户大吃一惊,因为他们并不知道自己的数据正被用于人工智能训练。或者说,LinkedIn 在没有告知他们这种做法的情况下选择了他们。

404 Media于 2024 年 9 月 18 日报道,LinkedIn 在开始搜刮用户数据之前甚至没有更新其隐私政策。当 404 Media 就此事联系 LinkedIn 时,LinkedIn 告诉 404,“很快 “就会更新其服务条款。这样的回复充其量也只能说是极其可疑。9 月 18 日,LinkedIn 悄然发布了一篇由其法律总顾问 Blake Lawit 撰写的博文,宣布对其隐私政策和服务条款进行修改。这些变更将于 2024 年 11 月 20 日生效。

对 LinkedIn用户协议隐私政策的修改将解释公司如何将用户数据用于人工智能。在被发现出于之前未公开的目的收集客户数据后进行追溯性修改,这绝不能成为一种普遍的商业惯例。

人们本以为微软旗下的平台 LinkedIn 会先宣布修改隐私政策,然后再收集用户数据,但在这种情况下,似乎并非如此。这令人震惊,因为这已经不是微软第一次陷入隐私危机了。

细看 LinkedIn 的人工智能常见问题解答

LinkedIn 和生成式人工智能常见问题解答中,解释了如何将用户数据用于生成式人工智能目的的一些细节。

“与 LinkedIn 的大多数功能一样,当您使用我们的平台时,我们会收集和使用(或处理)有关您使用平台的数据,包括个人数据。这可能包括您对生成式人工智能(用于创建内容的人工智能模型)或其他人工智能功能的使用、您的帖子和文章、您使用 LinkedIn 的频率、您的语言偏好以及您可能向我们团队提供的任何反馈。“

我们知道,社交媒体公司在数据的内部使用方面玩得很溜,假装惊讶并不能解决这个问题。我们需要进行更广泛的社会讨论,以批判这些掠夺性做法。

更令人担忧的是,常见问题解答还指出,LinkedIn 用来支持其生成式人工智能功能的人工智能模型 “可能是由 LinkedIn 或其他供应商训练的”。之后,他们解释说,有些模型是由微软的 Azure OpenAI 服务提供的。虽然他们没有说明 “另一家提供商 “是谁,但值得记住的是,LinkedIn 的所有者是微软,而微软目前拥有 OpenAI 的一部分股份。

虽然 LinkedIn 声称,在训练人工智能模型时,它确实 “力求最大限度地减少用于训练模型的数据集中的个人数据,包括使用隐私增强技术来编辑或删除训练数据集中的个人数据”。

但在进一步阅读常见问题解答时,他们指出,用户如果将个人数据作为输入提供给 LinkedIn 的任何 人工智能功能,可能会看到他们的 “个人数据被作为输出提供”,这将推翻他们试图尽量减少使用个人数据的任何说法。

如何在所有设备上选择退出 LinkedIn 使用您的数据为其人工智能项目提供动力。

如何在 iPhone 上退出 LinkedIn AI

  1. 打开手机上的 LinkedIn 应用程序并登录账户
  2. 点击个人资料图片
  3. 点击打开设置
  4. 选择_数据和隐私_
  5. 点击_数据用于生成 AI 改进_
  6. 在 “使用我的数据训练内容创建 AI 模型”旁边,点击关闭切换。

Folgen Sie diesen Schritten, um zu verhindern, dass LinkedIn Ihre Daten zum Trainieren von KI auf einem iPhone verwendet. Folgen Sie diesen Schritten, um zu verhindern, dass LinkedIn Ihre Daten zum Trainieren von KI auf einem iPhone verwendet. 按照以下步骤,选择退出 LinkedIn 在 iPhone 上使用你的数据训练 AI。

在 Android 上放弃 LinkedIn 的人工智能

  1. 在 Android 上打开 LinkedIn 应用程序并登录到您的账户
  2. 点击个人资料图片
  3. 点击打开设置
  4. 选择_数据和隐私_
  5. 单击_用于改进生成式人工智能的数据_
  6. 在 “使用我的数据训练内容创建 AI 模型”旁边点击关闭切换。

使用浏览器拒绝将您的数据用于训练人工智能模型。

  1. 使用您选择的网络浏览器登录您的 LinkedIn 帐户
  2. 点击个人资料图片
  3. 点击打开设置
  4. 选择_数据和隐私_
  5. 单击_用于改进人工智能生成的数据_
  6. 在 “使用我的数据训练内容创建 AI 模型”旁边,点击关闭切换。

Folgen Sie diesen Schritten, um zu verhindern, dass LinkedIn Ihre Daten zum Trainieren von KI über einen Webbrowser verwendet. Folgen Sie diesen Schritten, um zu verhindern, dass LinkedIn Ihre Daten zum Trainieren von KI über einen Webbrowser verwendet. 按照以下步骤,选择退出 LinkedIn 通过网页浏览器使用您的数据来训练人工智能。

除了选择退出未来将数据用于人工智能目的外,您还可以填写此LinkedIn 数据处理异议表,拒绝或请求限制对您个人数据的处理。

过去的数据仍用于人工智能

在 LinkedIn 自动收集其数据用于人工智能相关项目的地区,用户可以选择退出将其个人数据和在平台上创建的任何内容用于此活动,但正如 LinkedIn 在其人工智能常见问题解答中写道的那样,选择退出仅意味着 “今后 “不会使用您的数据和您在平台上创建的任何内容。因此,科技公司已经设法收集到的你的任何数据都无法追溯删除。

欧盟、英国和瑞士的数据被排除在外

欧盟、英国和瑞士的 LinkedIn 用户可以放心,这家大型科技公司不会使用这些地区用户的数据来训练其人工智能模型。这很可能是由于这些地区的数据隐私规则(如欧盟的 GDPR)更为严格。

你的数据仍可用于其他目的

LinkedIn 不仅仅将用户数据用于人工智能目的。与其他大型科技公司一样,这个面向专业人士的在线平台是免费的,因为它将出售和收集你的数据货币化,这一点令人担忧,因为对许多用户来说,在 LinkedIn 上共享的个人信息比在其他社交媒体平台上共享的要多得多。

同样重要的是要记住,LinkedIn 的所有者是微软。 这意味着他们从你那里收集的数据可能会被传播并连接到该科技巨头拥有的任何其他服务。例如Skype 或 Outlook 等第三方合作伙伴。

LinkedIn 收集的数据摘要:

  • 个人信息:姓名、电子邮件地址和/或电话号码
  • 教育经历和工作经历
  • 技能
  • 访问使用 LinkedIn 插件的网站时的数据
  • 每次访问和使用服务
  • Cookies
  • 平台上的信息
  • 设备和位置

一般来说,在使用任何微软旗下的服务时,都应该谨慎对待自己在网上分享的个人信息,因为这些数据会在许多不同的平台上共享。

话虽如此,另一个需要始终谨慎对待在线共享内容的重要原因是,大型科技公司(正如我们在上述 LinkedIn 案例中看到的那样)会定期更改其隐私政策和使用条款。通常,这些隐私政策或使用条款的变更对用户并无益处,而且是在用户毫不知情的情况下发生的。

Screenshot der Datenschutzreichtlinie von LinkedIn. Screenshot der Datenschutzreichtlinie von LinkedIn. 在 LinkedIn 的隐私政策中,它表示在进行任何更改时都会通知用户,但在最近的 LinkedIn AI 案例中,通知似乎并不足以让用户真正了解他们的数据是如何处理的。

正如 LinkedIn 在其隐私政策中所说,它是动态的,一直在变化。如果它对收集个人数据的内容、收集数据的方式或共享数据的方式做出改变,它将通知用户。至于怎样才算通知用户,则值得商榷。

科技公司的隐私保护措施似乎可以随意改变,除了这些粗略的隐私保护措施外,还有一点也很重要,那就是尽量减少你的数字足迹,避免过度分享,以此来先发制人地减轻重大数据泄露事件可能造成的损害。你没有输入到这些云服务器中的数据,同样,云服务器只是别人的电脑,如果他们的服务出现安全事故,你的数据也不会受到影响。

隐私与人工智能

LinkedIn 是最近一家利用用户数据加入人工智能行列的大型科技公司。但这已经不是什么新鲜事了,而且这种情况还会经常发生。

例如,今年早些时候,Meta AI试图使用欧盟用户 Facebook 和 Instagram 数据来训练其生成式人工智能。幸运的是,这种做法遭到了强烈反对,并被搁置。不幸的是,对于美国的 Facebook 用户来说,由于美国没有像欧盟 GDPR 那样的数据隐私法,Meta 旗下的 Facebook 在用户数据方面拥有更大的影响力,可以随心所欲地使用这些数据。对于美国的 Facebook 粉丝来说,他们的数据正被用于人工智能训练,而他们却无法选择退出。这不仅引发了大量的数据隐私问题,也凸显了用户在数据使用方面缺乏选择和自由。

当然,Meta 并不是唯一滥用用户数据的科技巨头,谷歌也是如此。一位 Gmail 用户最近分享了他们与谷歌双子座人工智能聊天机器人的一段对话。对话中令人震惊的是,聊天机器人使用的数据来自 Gmail 用户的电子邮件。尽管 Gmail 用户从未授权或选择允许大语言模型访问他们的邮箱。从以上两个例子中,我们可以了解到,当涉及到大科技、利润和技术进步时,像这样疯狂地抢搭人工智能列车(往往是在未经你同意的情况下)远比合乎道德地运营更有利可图。

最后的思考

LinkedIn 最近对用户信息处理方式的改变可能会让一些使用该平台的人感到意外,但令人遗憾的是,这在科技公司处理数据的方式上并不出奇。这是又一家科技公司加入人工智能潮流,利用用户信息训练模型。

如果你经常访问图塔的博客,你就会知道,说到大型科技公司,他们的商业模式就是利用你的个人信息牟利。他们对隐私的无忧无虑遵循的是一种屡试不爽的方法:收集尽可能多的数据,然后卖给广告商,广告商再向你投放广告。冲洗、清洗、重复。Meta 和谷歌免费提供大量产品就是最好的例子。但现在,随着每家公司都竞相利用人工智能,你的数据已不仅仅用于从广告中获利。

开发人工智能和使用数据的热潮是一种不会消失的趋势。我们可以学到的是,流行的网络公司,如 Meta、谷歌和微软等,总是把利润放在第一位,而把道德经营放在第二位。

话虽如此,如果你选择继续使用这些平台,最好还是了解并及时更新其使用条款和隐私政策的任何变更—这对于我们这些不懂法律的人来说是件麻烦事,但却是必要的。特别是如果你担心自己的数据和隐私。

如果你真的担心自己的隐私,我们建议你永远放弃 Gmail 或 Facebook 等服务。

随着人们对公司如何处理数据和用户隐私的关注与日俱增,越来越多的公司开发出了令人惊叹的注重隐私的替代服务。有些人更进一步,选择去谷歌化,完全停止使用大型科技服务。

幸运的是,在 2024 年这是可能的!例如,用 Tuta Mail 取代Gmail,或用 Signal 等更好的信使平台取代 Meta 的 Whatsapp。

选择 Tuta,无人工智能,无广告

想确保你的邮件不是用来训练人工智能的吗? 只需转用 Tuta - 作为端到端加密电子邮件提供商,我们绝不会加入人工智能列车!

Tuta 是一家总部位于德国的注重隐私的电子邮件和日历服务公司。Tuta 根据严格的数据隐私法运营,它是开源的,符合 GDPR,并且完全端到端加密

与流行的电子邮件提供商不同,Tuta 采用世界上首个后量子加密协议,尽可能多地加密用户数据!Tuta 没有与谷歌的链接,没有广告,不跟踪用户,其设计考虑到了真正的隐私。

夺回你的隐私,确保你的电子邮件不被用于人工智能训练。使用 Tuta Mail 获取免费的端到端加密电子邮件

Illustration of a phone with Tuta logo on its screen, next to the phone is an enlarged shield with a check mark in it symbolizing the high level of security due to Tuta's encryption.