Gmail, Microsoft, Meta, LinkedIn: Eles já analisam as suas mensagens - voluntariamente!

O controlo voluntário de conversação já está em vigor desde 2021, com o nome de Regulamento (UE) 2021/1232. Semelhante às obrigações de controlo no Reino Unido e nos EUA, este regulamento permite que as grandes tecnologias analisem todos os seus dados. Mas o que é que os serviços analisam com base neste regulamento, será que também analisam mensagens antigas e o que é que isto significa para a proteção de dados e a privacidade? Um mergulho profundo.

Gmail, Meta, LinkedIn, Microsoft: They already scan your messages, but only new ones, not old messages.

Sabia que sempre que envia um e-mail através do Gmail ou do Outlook, publica no Instagram ou conversa no Facebook Messenger ou no LinkedIn, as suas mensagens estão a ser analisadas? É verdade: Apesar de o Chat Control ser fortemente debatido como uma das piores leis de vigilância, as grandes empresas tecnológicas implementaram silenciosamente práticas de scanning que já fazem aquilo contra o qual os activistas da privacidade estão a lutar no processo legislativo do Chat Control. A vigilância é global, constante e afecta a maioria das pessoas sem que elas se apercebam disso.


E se acha que isto não é importante para si porque não tem nada a esconder, veja a história deste pai que viu toda a sua conta Google ser apagada porque enviou uma fotografia do filho nu ao médico de família.

Agora que já tenho a vossa atenção, vejam quem está a analisar os vossos e-mails e mensagens e o que podem fazer a esse respeito!

Controlo voluntário de conversação: Regulamento (UE) 2021/1232

Há mais de três anos que a União Europeia discute o regulamento para detetar material de abuso sexual de crianças (CSAM), denominado Chat Control devido às suas imensas implicações de vigilância. E, embora os defensores da privacidade tenham conseguido eliminar a obrigação de quebrar a encriptação de ponta a ponta na atual proposta de controlo das conversas, a UE já pôs em prática uma forma voluntária de controlo das conversas que é muito utilizada pelos serviços das grandes tecnologias dos EUA: o regulamento 2021/1232.

Gmail, Facebook, Instagram, WhatsApp, Microsoft, LinkedIn, Apple - todos eles analisam os seus dados com base neste regulamento, muitas vezes com uma ferramenta desenvolvida pela Microsoft, chamada photoDNA. As Big Tech só analisam as mensagens e os e-mails recentemente recebidos, não analisam as mensagens antigas - estas já foram analisadas no passado.

A Comissão Europeia solicitou à Big Tech dados sobre as verificações para provar que estas são proporcionais. Mas a Comissão Europeia não conseguiu provar o seu ponto de vista:

Quanto à proporcionalidade do Regulamento (UE) 2021/1232, a questão é saber se o regulamento alcança o equilíbrio pretendido entre, por um lado, a realização do objetivo de interesse geral de combater eficazmente os crimes extremamente graves em causa e a necessidade de proteger os direitos fundamentais das crianças (e.dignidade, integridade, proibição de tratamentos desumanos ou degradantes, vida privada, direitos da criança, etc.) e, por outro lado, a salvaguarda dos direitos fundamentais dos utilizadores dos serviços abrangidos (por exemplo, privacidade, proteção dos dados pessoais, liberdade de expressão, recurso efetivo, etc.). Os dados disponíveis são insuficientes para dar uma resposta definitiva a esta questão.

Em vez de provar que o regulamento é proporcional - porque a digitalização em massa de dados pessoais é uma intromissão grave na vida privada de cada cidadão e não deve ser permitida “por precaução” - a Comissão Europeia limita-se a afirmar que a digitalização de mensagens não é desproporcionada e, por conseguinte, não tem qualquer problema:

Não é possível nem seria adequado aplicar um padrão numérico ao avaliar a proporcionalidade em termos do número de crianças resgatadas, dado o impacto negativo significativo na vida e nos direitos de uma criança que é causado pelo abuso sexual. No entanto, tendo em conta o que precede, não há indicações de que a derrogação não seja proporcional.

Esta inversão do ónus da prova foi fortemente criticada pela Netzpolitik e por Patrick Breyer, antigo deputado europeu e advogado, que qualifica a conclusão da Comissão Europeia de “absurdo jurídico”.

Mas olhemos para os dados!

Turn ON Privacy in one click.

As grandes tecnologias analisam milhares de milhões de conjuntos de dados

Grafik: Microsoft hat im Jahr 2023 11,7 Milliarden Datensätze gescannt und dabei weniger als 0,001 % als CSAM gekennzeichnet. Grafik: Microsoft hat im Jahr 2023 11,7 Milliarden Datensätze gescannt und dabei weniger als 0,001 % als CSAM gekennzeichnet. Gráfico: A Microsoft analisou 11,7 mil milhões de conjuntos de dados em 2023 e assinalou menos de >0,001% como CSAM.

Apenas dois prestadores de serviços comunicaram à Comissão Europeia números concretos sobre a escala da análise voluntária de CSAM: A Microsoft e o LinkedIn.

  • A Microsoft digitalizou mais de 11,7 mil milhões de imagens e vídeos em todo o mundo em 2023 e pouco menos de 10 mil milhões em 2024. Não forneceram números apenas para a UE.

  • Em 2023, a Microsoft sinalizou 32 000 conjuntos de dados como potencial material de abuso sexual de crianças, incluindo mais de 9 000 conjuntos de dados na UE. Este valor corresponde a 0,0002735%, ou seja, uma resposta positiva por cada 365 000 análises.

  • Em 2024, a Microsoft assinalou 26 000 conjuntos de dados como potencial material pedopornográfico, incluindo mais de 5800 conjuntos de dados na UE. Isto corresponde a 0,00027083%, ou seja, uma resposta positiva por cada 369 000 análises.

  • Os volumes do LinkedInforam muito inferiores, mas todas as análises incidiram sobre conteúdos europeus.

  • Em 2023, foram analisados mais de 24 milhões de imagens e mais de 1 milhão de vídeos, resultando em 2 imagens sinalizadas e nenhum vídeo sinalizado como potencial material de abuso sexual de crianças. Este valor corresponde a 0,00000833 %, ou seja, 1 resultado positivo por cada 12 milhões de análises.

  • Em 2024, mais de 22 milhões de imagens e mais de 2 milhões de vídeos foram analisados, resultando em 1 imagem e nenhum vídeo sinalizados como potencial material de abuso sexual de crianças. Isto corresponde a 0,00000417 %, ou seja, 1 resultado positivo por cada 24 milhões de exames.

Em ambos os casos, a análise em massa produziu apenas resultados mínimos, mas a Comissão Europeia considera a medida de controlo voluntário do Chat proporcional.

A Google não revelou quantos conteúdos foram analisados, apenas os resultados, mas, tendo em conta o facto de a Google ser um dos maiores serviços em linha, é provável que os números sejam da ordem dos milhões. Em 2023 e 2024, a Google assinalou 1.558 e 1.824 conjuntos de dados, respetivamente. Dada a dimensão da Google, os volumes de digitalização são provavelmente comparáveis aos da Microsoft, o que significa que os resultados também permanecem muito abaixo do intervalo por milhar.

O Meta com serviços como o Facebook, o Instagram e o WhatsApp destaca-se nitidamente com valores muito mais elevados. Em 2023 e 2024, o gigante tecnológico de Silicon Valley assinalou 3,6 milhões e 1,5 milhões de imagens e vídeos como potenciais CSAM na UE.

Um padrão semelhante torna-se visível quando se analisam os relatórios dos utilizadores: Na Google, 297 (2023) e 216 (2024) utilizadores denunciaram material ilegal. No Meta, 254 500 (2023) e 76 900 (2024) utilizadores comunicaram material ilegal. No relatório da Comissão, não é dada qualquer explicação para o facto de estes números apresentarem diferenças tão acentuadas.

Estes números, quando analisados de forma crítica, não provam de forma alguma que a verificação em massa das mensagens de toda a gente é proporcional. E o próximo projeto de controlo das conversas, que em breve será discutido no trílogo, poderá permitir uma análise ainda mais extensa - ainda que voluntária, mas com consequências significativas para a sua privacidade.

Turn ON Privacy in one click.

O bom e o mau

O aspeto positivo da atual proposta de controlo das conversas é que a verificação de mensagens de correio eletrónico e de chat continuará a ser voluntária. A proposta não obrigará os fornecedores de correio eletrónico com encriptação de ponta a ponta, como o Tuta Mail, a utilizar a encriptação. Assim, na Tuta, os seus dados permanecerão seguros. Nós da Tuta estamos aqui para lutar pelo seu direito à privacidade; quando o debate sobre o Chat Control estava no auge em 2024, até ameaçamos processar a UE por negligenciar o direito de todos à privacidade, o que agora não é mais necessário.

No entanto, o controlo voluntário das conversas não é apenas fundamentalmente mau, é errado: Sem provar que a medida é proporcional à proteção das crianças, a Comissão Europeia sacrifica a vida pessoal de todos, abrindo uma imensa intrusão na privacidade de todos por parte da Big Tech - e a Big Tech não precisa de ser questionada duas vezes.

Assim, o Gmail, a Microsoft, o LinkedIn, o Meta - todos eles analisam alegremente os seus dados - sem terem qualquer problema com isso. Isto permite-lhes não só analisar os seus dados para CSAM, mas potencialmente para qualquer outra coisa que queiram; conhecê-lo de dentro para fora , como um CEO da Google afirmou uma vez, e criar um perfil sobre si para publicar anúncios direcionados.

Mudar para a privacidade

No entanto, tem uma opção: existem serviços que oferecem soluções gratuitas e seguras de correio eletrónico, chat e redes sociais, sem qualquer rastreio ou definição de perfis.

Aqui estão algumas óptimas alternativas às grandes tecnologias da Europa que se centram na privacidade.

E aqui estão todas as aplicações que precisa de desGoogle para que nunca mais precise de alimentar o monopólio da Google.

Diga “não” às grandes tecnologias e à recolha de dados. Diz “Olá” à privacidade!

Ilustração de um telefone com o logo da Tuta em sua tela, ao lado do telefone é uma alargada escudo com uma marca de verificação, simbolizando o alto nível de segurança devido a Tuta de criptografia.