Get The Black Friday & Cyber Monday Deal

Save 62%

ChatGPT - Pesadelo de privacidade ou ferramenta útil?

O ChatGPT da IA não foi concebido tendo em conta a privacidade - será que a UE vai agora travar esta ferramenta popular?

ChatGPT and privacy do not go well together: The problem is the AI is fuelled by our personal data.

Toda a gente fala sobre o que a nova IA pode fazer e, ultimamente, toda a gente começa a olhar para as implicações do ChatGPT em termos de privacidade. A proibição do ChatGPT em Itália e as questões de privacidade iminentes em torno do chatbot de IA na Alemanha desencadearam um debate a nível europeu entre os entusiastas da ferramenta e os que advertem contra o seu desenvolvimento e o que o ChatGPT significa para a privacidade das pessoas.


O ChatGPT tornou-se a aplicação de consumo de crescimento mais rápido alguma vez lançada. As pessoas estão a afluir a esta ferramenta porque acreditam que ela as ajudará na sua vida quotidiana - ou mesmo no trabalho.

Poucos meses após o seu lançamento, centenas de milhões de utilizadores inscreveram-se - quase nenhum deles leu a política de privacidade do ChatGPT.

Mas será que vale a pena renunciar ao seu direito à privacidade para utilizar a IA?

Os estudantes utilizam o ChatGPT para deixar que a IA escreva trabalhos por eles, alguns meios de comunicação social como o Buzzfeed anunciaram que iriam utilizar o ChatGPT para escrever os seus artigos - o que fez disparar as suas acções.

A Google não demorou muito a anunciar a sua própria ferramenta de IA - Bard - e a chinesa Baidu lançou o seu “Erni Bot” de IA em Março.

A Big Tech está tão entusiasmada com a nova tecnologia de IA que quer que não vejamos os riscos: É alimentada pelos nossos dados pessoais.

ChatGPT debate a privacidade na Europa

A Europa, conhecida pela sua rigorosa lei de protecção da privacidade RGPD, é a primeira a abordar as questões de privacidade que acompanham a IA. A Itália tornou-se o primeiro país da União Europeia a impor uma proibição temporária, por considerar que existe uma violação do Regulamento Geral sobre a Protecção de Dados (RGPD) da UE. Mas o chatbot pode regressar a Itália no final de Abril: “Na quarta-feira, a autoridade italiana de protecção de dados, The Garante, deu à OpenAI - a empresa americana por detrás do ChatGPT - até 30 de Abril para cumprir requisitos de privacidade específicos, abrindo caminho para o levantamento da proibição temporária do chatbot no país”, escreve o Politico.

A autoridade italiana para a protecção de dados quer levantar o bloqueio do ChatGPT ao operador OpenAI, sob certas condições: “Estamos prontos a permitir o regresso do ChatGPT a 30 de Abril, se a OpenAI estiver disposta a tomar medidas adequadas”, disse Pasquale Stanzione, director da autoridade, numa entrevista ao jornal Corriere della Sera.

De acordo com a avaliação de Stanzione, a empresa apoiada pela Microsoft está disposta a implementar os requisitos da autoridade de protecção de dados.

A Inteligência Artificial tem feito ondas na política e nos negócios com o lançamento do software. O programa pode, por exemplo, responder a perguntas ou gerar textos completos com base em algumas palavras-chave. A base são grandes volumes de texto pré-alimentados, extraídos da Internet.

No entanto, as preocupações com respostas incorrectas e com a protecção de dados aumentam constantemente à medida que as pessoas utilizam a inteligência artificial generativa. De acordo com as autoridades italianas, a OpenAI processou alegadamente dados pessoais sem informar os utilizadores e os indivíduos. Além disso, não existia uma base jurídica para a extensa recolha de dados utilizada para treinar os seus modelos de IA. Devido a estas suspeitas de violação, as autoridades italianas iniciaram investigações contra a OpenAI no final de Março. Desde então, o software de IA foi bloqueado para os utilizadores italianos.

Treinado com os seus dados

A OpenAI, a empresa que está por detrás do ChatGPT, treinou a IA com milhares de milhões de palavras retiradas da Internet - livros, artigos, trabalhos, ensaios. Todo o tipo de informação disponível na Internet foi fornecido à IA, sem o consentimento dos autores.

Se alguma vez publicou algo online - seja um post num blogue ou apenas um comentário num artigo - é muito provável que o ChatGPT esteja a utilizar essa informação para o seu treino.

Os editores não recebem nada

A compensação dos editores de conteúdos online também é problemática. Os artigos de blogues ou livros podem ser citados através de ChatGPT, mas os verdadeiros autores não recebem qualquer compensação. Dependendo da popularidade do texto, é provável que a indústria perca enormes receitas - enquanto a OpenAI irá provavelmente lucrar imenso.

O que há de errado com os dados de IA?

Há várias razões pelas quais a utilização de informações da Internet para treinar uma IA que depois produz novos textos é problemática.

  1. Os dados podem estar errados: nem todos os dados publicados na Internet estão correctos. De facto, a Internet está cheia de propaganda, lobbies e artigos de opinião.

  2. Os dados podem ser retirados de fontes protegidas por direitos de autor, o que pode dar origem a conflitos legais.

  3. Os dados podem ser privados: Muitos dados na Internet contêm informações pessoais sobre as pessoas, por vezes até os seus endereços ou outras informações privadas que podem revelar a sua identidade. Estas informações estavam a ser extraídas sem o consentimento das pessoas afectadas, o que constitui uma clara violação da privacidade.

Além disso, as pessoas não têm a possibilidade de saber se o ChatGPT utiliza as suas informações e de as retirar da base de dados. Este é um requisito legal do Regulamento Europeu de Protecção de Dados (RGPD), pelo que é questionável se o ChatGPT está em conformidade com este regulamento de privacidade da UE. O “direito a ser esquecido”, garantido pelo GDPR, é particularmente importante se as informações utilizadas pelo ChatGPT estiverem erradas - o que, infelizmente, é bastante frequente.

Perspectivas na UE

Nesta altura, não se pode dizer se e em que medida o ChatGPT - e outras ferramentas de IA como o Bard ou o Erni Bot - serão regulamentados na UE. O que se pode dizer com certeza é o seguinte: Os políticos e, em particular, os vigilantes da protecção de dados na Europa e nos EUA estão a analisar atentamente as ferramentas de IA, as suas potencialidades, mas também os seus potenciais danos.

”Ainda estamos a anos de distância da aplicação da lei da IA e é crucial que os consumidores sejam protegidos entretanto”, disse Frederico Oliveira da Silva, jurista sénior do Secretariado Europeu das Uniões de Consumidores (BEUC), ao EURACTIV.

De acordo com Frederico Oliveira da Silva, a UE e as autoridades nacionais devem lançar imediatamente uma investigação sobre os riscos do ChatGPT e de outras ferramentas semelhantes de voz em grande escala. Seria necessário um “controlo público mais forte”.

Depois de a Itália ter bloqueado o acesso à IA no mês passado, a Autoridade Espanhola para a Protecção de Dados (AEPD) apresentou recentemente uma petição ao Comité Europeu para a Protecção de Dados (CEPD), salientando a necessidade de avaliar as implicações do ChatGPT em termos de privacidade.

Em França, o eurodeputado Eric Bothorel apresentou recentemente uma queixa à autoridade francesa para a protecção de dados, a CNIL, depois de esta já ter começado a investigar várias queixas. Na Alemanha, a Conferência de Protecção de Dados está actualmente a avaliar se o chatbot viola o Regulamento Geral sobre a Protecção de Dados.

Até ao momento, a Bélgica, a Áustria, a Croácia, a Finlândia e a Polónia não têm planos para proibir o software.

A regulamentação das ferramentas de IA está a surgir no horizonte, mas ainda não se sabe exactamente de que forma.

Política de privacidade do ChatGPT

Finalmente, se ainda quiser utilizar a IA, certifique-se de que lê primeiro a política de privacidade do ChatGPT.

Esteja ciente de que o OpenAI reúne muitas informações sobre você. De acordo com a política de privacidade da empresa, recolhe o endereço IP dos utilizadores, o tipo e as definições do navegador e dados sobre as interacções dos utilizadores com o site - incluindo o tipo de conteúdo com que os utilizadores se envolvem, as funcionalidades que utilizam e as acções que realizam. Recolhe ainda dados sobre os hábitos de navegação e os sítios Web que o utilizador visita. Além disso, a OpenAI afirma que pode partilhar as informações recolhidas com terceiros. Dado que a Microsoft está fortemente investida na OpenAI, deve estar ciente de que esta empresa de Big Tech pode ter acesso total a todos os seus dados que partilha com o ChatGPT.

Conclusão

Embora o ChatGPT possa revolucionar a forma como trabalhamos, temos de considerar os custos. A OpenAI é uma empresa com fins lucrativos e devemos ter cuidado com os dados que partilhamos com ela.

Os riscos para a privacidade são alarmantes e os benefícios do ChatGPT - pelo menos até à data - são ainda muito limitados.

Não se trata apenas do facto de algumas informações reproduzidas pelo ChatGPT estarem erradas, mas também do facto de a IA produzir textos que, por vezes, se assemelham a resumos aborrecidos de centenas de publicações de blogues sobre o assunto.

Se não está convencido, leia este exemplo produzido pelo ChatGPT:


Escrever um ensaio sobre a importância da privacidade e a necessidade de encriptação de ponta a ponta na nossa era digital.

Temos a certeza de que conseguiria escrever um ensaio deste tipo, por isso, agora pode verificar quem tem melhor desempenho: você ou a IA.

Aqui está o ensaio sobre privacidade do ChatGPT:

A privacidade é importante: A importância da encriptação de ponta a ponta na era digital

A era digital trouxe consigo inúmeros benefícios, desde a comunicação instantânea ao acesso sem paralelo à informação. No entanto, à medida que dependemos cada vez mais da tecnologia para nos ligarmos, comunicarmos e fazermos negócios, estamos também a deixar para trás grandes quantidades de informações pessoais que podem ser recolhidas, armazenadas e partilhadas por empresas, governos e outras organizações.

É por isso que a privacidade é importante, pois permite que os indivíduos mantenham a autonomia e o controlo sobre as suas informações e comportamentos pessoais.

A importância da privacidade

No mundo actual, as informações pessoais são valiosas e podem ser utilizadas para uma variedade de fins, como publicidade direccionada, manipulação política e até vigilância. Quando as informações pessoais são recolhidas, armazenadas e partilhadas sem o nosso conhecimento ou consentimento, perdemos o controlo sobre as nossas próprias vidas. As nossas acções, pensamentos e crenças podem ser monitorizados e analisados por pessoas ou organizações que podem utilizar essas informações para nos manipular ou explorar. Além disso, a perda de privacidade pode levar à discriminação, especialmente para grupos vulneráveis, como minorias, imigrantes e pessoas com opiniões políticas diferentes.

Encriptação de ponta a ponta

É aqui que entra a encriptação de ponta a ponta, uma técnica que permite uma comunicação segura, encriptando os dados no dispositivo do remetente, de modo a que só possam ser desencriptados no dispositivo do destinatário. Isto ajuda a garantir que apenas o remetente e o destinatário podem ler a mensagem e que esta não pode ser interceptada ou acedida por terceiros, incluindo a empresa que fornece o serviço.

Protecção dos nossos direitos políticos e civis

A encriptação de ponta a ponta também desempenha um papel fundamental na protecção dos nossos direitos políticos e civis. Numa sociedade em que as pessoas se sentem livres para expressar os seus pontos de vista e opiniões sem receio de represálias, pode florescer um mercado de ideias robusto. Inversamente, numa sociedade em que a privacidade não é respeitada, as pessoas podem sentir que estão sob vigilância constante e podem auto-censurar-se para evitar retaliações. Este facto pode ter um efeito inibidor da liberdade de expressão e de outros direitos, e pode dificultar a participação plena dos indivíduos no processo democrático.

Confiança e segurança nas interacções humanas

A privacidade é também importante para a segurança e a confiança nas interacções humanas. Quando podemos confiar que a nossa informação pessoal está a ser mantida privada, é mais provável que partilhemos os nossos pensamentos, sentimentos e experiências com os outros. Isto conduz a relações mais profundas e significativas e a um sentido mais forte de comunidade. Por outro lado, se sentirmos que as nossas informações pessoais estão constantemente a ser expostas, podemos tornar-nos mais reservados e menos propensos a estabelecer ligações com os outros.

Conclusão

Em conclusão, a privacidade é um direito fundamental que nos permite manter a autonomia e o controlo sobre as nossas informações e comportamentos pessoais. É essencial para proteger os nossos direitos políticos e civis, promover a confiança e a segurança nas interacções humanas e preservar a dignidade humana. A encriptação de ponta a ponta é uma ferramenta poderosa que pode ajudar a proteger a nossa privacidade na era digital, garantindo que as nossas comunicações são seguras e privadas.

Como dependemos cada vez mais da tecnologia para nos ligarmos, comunicarmos e fazermos negócios, é importante tomarmos medidas para proteger a nossa privacidade, o que inclui a utilização de serviços que ofereçam encriptação de ponta a ponta.