ChatGPT-プライバシーの悪夢か、それとも役立つツールか?

AI「ChatGPT」はプライバシーに配慮した作りになっていない--今、EUはこの人気ツールを止めるか?

ChatGPT and privacy do not go well together: The problem is the AI is fuelled by our personal data.

新しいAIは何ができるのか、最近誰もがChatGPTのプライバシーへの影響に目を向け始めている。イタリアでChatGPTが禁止され、ドイツではAIチャットボットをめぐるプライバシー問題が迫っていることから、このツールに熱狂する人たちと、その開発に警告を発する人たちの間で、ChatGPTが人々のプライバシーに何を意味するかという議論がヨーロッパ全域で巻き起こっています。


ChatGPTは、これまで発売された消費者向けアプリケーションの中で最も急速に成長しています。人々は、このツールが日常生活、あるいは仕事に役立つと信じて、このツールに群がっています。

リリースから数ヶ月で数億人のユーザーが登録しましたが、その中でChatGPTのプライバシーポリシーを読んだことがある人はほとんどいないでしょう。

しかし、AIを使うためにプライバシーの権利を放棄する価値はあるのでしょうか?

学生たちはChatGPTを使ってAIにエッセイを書かせ、Buzzfeedのような報道機関はChatGPTを使って記事を書くと発表し、彼らの株価は急上昇した。

Googleが独自のAIツール「Bard」を発表するのに時間はかからず、中国のBaiduは3月にAI「Erni Bot」を発表しました。

ビッグテックは、新しいAI技術に興奮し、私たちにリスクを見せないようにしているのです:それは、私たちの個人データによってもたらされるものなのです。

欧州におけるChatGPTのプライバシーに関する議論

厳しいプライバシー保護法GDPRで知られる欧州が、AIに伴うプライバシー問題に初めて取り組んだ。イタリアは、EUの一般データ保護規則(GDPR)違反を察知し、一時的な禁止措置を講じた欧州で最初の国となった。しかし、4月末までにチャットボットがイタリアに戻る可能性があります。「水曜日、イタリアのデータ保護当局The Garanteは、ChatGPTを開発した米国企業OpenAIに対し、4月30日までに特定のプライバシー要件に従うよう指示し、同国でのチャットボットの一時禁止を解除する道を開いた」とPoliticoは書いています。

イタリアのデータ保護当局は、一定の条件の下、運営会社OpenAIからのChatGPTのブロッキングを解除したいと考えています。「OpenAIが適切な措置を取る用意があれば、4月30日にChatGPTの復帰を認める用意があります」と、当局トップのPasquale Stanzione氏はCorriere della Sera紙とのインタビューで述べています。

Stanzioneの評価によると、Microsoftの支援を受けた同社は、データ保護当局の要求を実行する意思があるとのことです。

人工知能は、このソフトウェアのリリースにより、政治やビジネスに波及した。このプログラムは、例えば、いくつかのキーワードをもとに、クエリに答えたり、完全なテキストを生成したりすることができます。ベースとなるのは、インターネットからかき集めた、あらかじめ用意された大量のテキストである。

しかし、生成型人工知能を使う人が増えれば増えるほど、不正解やデータ保護への懸念は常に高まっている。イタリア当局によると、OpenAIはユーザーや個人に通知することなく個人データを処理したとされている。また、そのAIモデルの訓練に使用される広範なデータ収集には、法的根拠がなかったという。これらの違反の疑いがあったため、イタリア当局は3月末にOpenAIに対して調査を開始していました。その後、このAIソフトウェアは、イタリアのユーザーに対してブロックされました。

あなたのデータで学習させる

ChatGPTを開発したOpenAIは、書籍、記事、論文、エッセイなど、インターネットからかき集めた何十億もの単語を使ってAIを訓練しました。インターネット上にあるあらゆる情報が、著者の同意なしにAIに送り込まれたのです。

もしあなたがネット上に何かを投稿したことがあるなら、それがブログ記事であれ、記事の下のコメントであれ、ChatGPTがその情報をトレーニングに使っている可能性は非常に高いのです。

出版社は何も得られない

オンラインコンテンツのパブリッシャーの報酬も問題になっています。ブログ記事や書籍はChatGPTで引用することができますが、実際の著者は報酬を受け取ることができません。文章の人気度によって、業界は莫大な収益を逃す可能性がある。一方、OpenAIはおそらく莫大な利益を得るだろう。

AIデータの何が問題なのか?

新しいテキストを生成するAIのトレーニングにインターネット上の情報を使用することが問題である理由はいくつかあります。

  1. データが間違っている可能性がある:インターネット上に公開されているデータがすべて正しいとは限りません。実際、インターネットにはプロパガンダやロビー活動、オピニオンピースがあふれています。

  2. データはコピーライティングされたソースから取得されている可能性があり、法的紛争につながる可能性があります。

  3. データは個人情報かもしれない:インターネット上の多くのデータには、人々の個人情報が含まれており、時には住所や身元を明らかにするような個人情報も含まれています。これらの情報は、影響を受ける人々の同意なしにかき集められたものであり、したがって、明らかなプライバシーの侵害となる。

さらに、人々はChatGPTが自分の情報を使用しているかどうかを調べ、データベースから削除してもらうという選択肢を持ちません。これは欧州データ保護規則(GDPR)による法的要件であるため、ChatGPTがこのEUプライバシー規則に準拠しているかどうかは疑問である。GDPRが保証する「忘れられる権利」は、ChatGPTが使用する情報が間違っている場合に特に重要であり、残念ながら、これは非常に頻繁に起こることです。

EUでの展望

現時点では、ChatGPTや、BardやErni BotのようなAIツールがEUで規制されるかどうか、またどの程度規制されるかはわかりません。確実に言えることは、これです:政治家、特に欧州と米国のデータ保護監視団は、AIツール、その可能性、そして潜在的な害悪を注意深く見ています。

欧州消費者団体(BEUC)の上級法務官であるフレデリコ・オリベイラ・ダ・シルバ氏は、EURACTIVに「AI法が適用されるのはまだ数年先であり、その間に消費者を保護することが極めて重要です」と述べた。

オリベイラ氏によると、EUと各国当局は、ChatGPTと同様の大規模音声ツールのリスクについて、直ちに調査を開始する必要がある。より強力な公的監視」が必要だろう。

先月イタリアがAIへのアクセスを遮断した後、スペインデータ保護局(AEPD)は最近、欧州データ保護委員会(EDPB)に請願書を提出し、ChatGPTのプライバシーへの影響を評価する必要性を指摘した。

フランスでは、Eric Bothorel議員が、フランスのデータ保護当局CNILがすでにいくつかの苦情の調査を開始した後、最近、苦情を申し立てた。ドイツでは、データ保護会議が現在、チャットボットが一般データ保護規則に違反しているかどうかを同様に評価しています。

ベルギー、オーストリア、クロアチア、フィンランド、ポーランドでは、今のところ禁止する予定はない。

AIツールの規制は目前に迫っているが、具体的にどのような形で規制されるかはまだ決まっていない。

ChatGPTのプライバシーポリシー

最後に、それでもAIを使いたい場合は、まずChatGPTのプライバシーポリシーを必ず読んでください。

OpenAIはあなたに関する多くの情報を収集することを認識しておいてください。同社のプライバシーポリシーによると、ユーザーのIPアドレス、ブラウザの種類と設定、ユーザーのサイトとのやり取りに関するデータ(ユーザーが関与するコンテンツの種類、ユーザーが使用する機能、ユーザーが取る行動など)を収集します。さらに、閲覧の習慣や、どのウェブサイトを訪問したかというデータも収集します。さらに、OpenAIは、収集した情報を他の第三者と共有する可能性があると述べています。マイクロソフトがOpenAIに多大な投資をしていることを考えると、このビッグテック企業が、あなたがChatGPTと共有するすべてのデータに完全にアクセスする可能性があることを認識する必要があります。

まとめ

ChatGPTは私たちの働き方に革命を起こすことができますが、コストについても考慮する必要があります。OpenAIは営利企業であり、彼らと共有するデータには注意を払う必要があります。

プライバシーリスクは憂慮すべきものである一方、ChatGPTの利点は-少なくとも現在までのところ-まだ非常に限られています。

ChatGPTが再現する情報が間違っているだけでなく、AIが生成する文章は、この問題に関する何百ものブログ記事の退屈な要約のようなこともあるのです。

もし納得がいかないなら、ChatGPTが作成したこの例を読んでみてください:


なぜプライバシーが重要なのか、なぜデジタル時代にエンドツーエンドの暗号化が必要なのかについて、エッセイを書きなさい。

このようなエッセイはあなたにも書けるはずです。そこで、あなたとAI、どちらがより優れたパフォーマンスを発揮できるかをチェックしてみましょう。

ChatGPTによるプライバシーに関するエッセイはこちらです:

プライバシーの問題:デジタル時代におけるエンドツーエンドの暗号化の重要性

デジタル時代は、瞬時のコミュニケーションや情報への圧倒的なアクセスなど、数え切れないほどの恩恵をもたらしてきました。しかし、人とのつながりやコミュニケーション、ビジネスにおいてテクノロジーへの依存度が高まるにつれ、企業や政府、その他の組織が収集、保存、共有できる膨大な量の個人情報が残されるようになりました。

そのため、プライバシーは重要であり、個人が自分の個人情報や行動を自律的にコントロールすることができるようになります。

プライバシーの重要性

今日の世界では、個人情報は貴重であり、ターゲット広告、政治的操作、さらには監視など、さまざまな目的で使用することができます。私たちの知らないところで個人情報が収集され、保存され、共有されると、私たちは自分の人生をコントロールすることができなくなります。私たちの行動、思考、信念は、その情報を使って私たちを操作したり利用したりする人々や組織によって監視され、分析される可能性があります。さらに、プライバシーの喪失は、特にマイノリティや移民、異なる政治的見解を持つ人など、弱い立場にある人たちの差別につながる可能性があります。

エンドツーエンドの暗号化

エンドツーエンドの暗号化とは、送信側の端末でデータを暗号化し、受信側の端末でのみ復号化できるようにすることで、安全な通信を可能にする技術です。これにより、送信者と受信者のみがメッセージを読むことができ、サービスを提供する会社を含む第三者が傍受したり、アクセスしたりすることができなくなるのです。

政治的・市民的権利の保護

エンドツーエンドの暗号化は、私たちの政治的・市民的権利を保護する上でも重要な役割を果たします。人々が報復を恐れることなく、自由に自分の意見や考えを述べることができる社会では、健全な思想市場が栄えることができます。逆に、プライバシーが尊重されない社会では、個人は常に監視されていると感じ、報復を避けるために自己検閲をすることがあります。その結果、言論の自由やその他の権利が阻害され、個人が民主的なプロセスに完全に参加することが困難になる可能性があります。

人間関係における信頼と安心

プライバシーは、人間関係の安心と信頼にとっても重要です。自分の個人情報が守られているという信頼があれば、自分の考えや感情、経験を他人と共有する可能性が高まります。その結果、より深く、より有意義な人間関係や、より強いコミュニティ意識を持つことができるようになります。一方、自分の個人情報が常に公開されていると感じると、警戒心が強くなり、他人とつながりを持つことができなくなるかもしれません。

まとめ

結論として、プライバシーは、私たちが個人情報や行動に対する自律性とコントロールを維持することを可能にする基本的な権利です。それは、私たちの政治的・市民的権利を保護し、人間関係における信頼と安全を促進し、人間の尊厳を守るために不可欠なものです。エンドツーエンドの暗号化は、通信の安全性とプライバシーを確保することで、デジタル時代における私たちのプライバシー保護に役立つ強力なツールです。

私たちはますますテクノロジーに依存し、つながり、コミュニケーションし、ビジネスを行うようになっていますが、プライバシーを保護するための手段を講じることが重要であり、これにはエンドツーエンドの暗号化を提供するサービスを利用することも含まれます。