Microsoft Copilot tenía acceso a los correos electrónicos confidenciales de las organizaciones, sin permiso.

Microsoft ha reconocido que un error en Microsoft 365 Copilot ha concedido inadvertidamente al asistente de IA acceso a correos electrónicos confidenciales.

A bug has caused Microsoft Copilot to summarize organizations’ confidential emails, without permission.

Microsoft ha confirmado que, desde finales de enero, un fallo en Microsoft 365 Copilot permitía al asistente de IA leer y resumir correos electrónicos aunque estuvieran marcados explícitamente como confidenciales. El error en Copilot eludía las políticas de prevención de pérdida de datos (DLP) utilizadas por las organizaciones para proteger la información confidencial. Microsoft ha desplegado una solución, pero aún no ha revelado cuántos usuarios u organizaciones se han visto afectados. Una cosa está clara: no se puede ni se debe confiar en que los asistentes de inteligencia artificial como Copilot tengan acceso al buzón de correo o a los datos confidenciales de una organización.


Según Bleeping Computer, un informe de servicio sobre el fallo(rastreado como CW1226324) que se detectó inicialmente el 21 de enero afecta a la función de chat de la “pestaña de trabajo” de Copilot. Esto le permite leer y resumir los correos electrónicos en las carpetas de enviados y borradores de los usuarios. Lo más preocupante es que la IA tenía acceso a leer y resumir correos electrónicos marcados con etiquetas de confidencialidad, que están explícitamente diseñadas para garantizar que las herramientas automatizadas no tengan acceso.

Microsoft dijo cuando confirmó el problema a Bleeping Computer:

El chat de la ‘pestaña de trabajo’ de Microsoft 365 Copilot está resumiendo mensajes de correo electrónico a pesar de que estos mensajes de correo electrónico tienen una etiqueta de confidencialidad aplicada y una política DLP configurada.”

El gigante tecnológico de Silicon Valley también dijo que “Un problema de código está permitiendo que los elementos de las carpetas de elementos enviados y borradores sean recogidos por Copilot a pesar de que las etiquetas confidenciales están configuradas” Microsoft ha confirmado ahora que ha comenzado a desplegar una solución para el error a principios de febrero. El miércoles, Microsoft declaró que estaba supervisando el despliegue y que se estaba poniendo en contacto con algunos usuarios para confirmar que la solución funcionaba.

No merece la pena arriesgarse a utilizar Copilot para aumentar la productividad

Microsoft ha estado impulsando el despliegue de su IA, Copilot, en todas las aplicaciones de Microsoft 365, no sólo para uso personal, sino también para que las empresas la integren en su plantilla. En septiembre de 2025, Copilot Chat, el chat de Microsoft potenciado por IA que permite a los usuarios interactuar con agentes de IA, se desplegó en Excel, Word, Outlook, PowerPoint y OneNote para los clientes empresariales de Microsoft 365. Ahora, apenas cuatro meses después, un error ha puesto en peligro los datos confidenciales de los usuarios de Microsoft 365.

Mientras que el uso de asistentes de IA, como Copilot Chat, está siendo promocionado por los gigantes tecnológicos para aumentar la productividad y acelerar los flujos de trabajo, lo que está claro es que las nuevas tecnologías de IA en desarrollo pueden convertirse en un riesgo extremo para la seguridad y la privacidad, especialmente para las organizaciones que necesitan proteger la información confidencial.

Activa la privacidad con un solo clic.

Subidas de precios, IA y un error: Adiós a la confidencialidad del correo electrónico

Hoy en día, muchas empresas utilizan Microsoft Outlook, sobre todo porque viene incluido con las herramientas de Office de Microsoft, como Word y Excel, pero los últimos acontecimientos muestran que el cambio a alternativas, en particular para el correo electrónico, es cada vez más atractivo.

  • En enero de 2026, un error permitió a Copilot Chat resumir correos electrónicos a pesar de tener configuradas etiquetas de sensibilidad y políticas de DLP.

  • En 2025, Microsoft anunció enormes subidas de precios de Microsoft 365 a partir de julio de 2026.

  • En septiembre de 2025, Microsoft implementó Copilot Chat en Excel, Word, Outlook, PowerPoint y OneNote para los clientes empresariales de pago de Microsoft 365.

Una cosa queda clara con todo esto: Si su empresa utiliza Microsoft 365, es hora de abandonar el bloqueo del proveedor y proteger su información confidencial. Por suerte, existen excelentes alternativas a los productos de Microsoft.

Es gibt top Alternativen zu Microsoft-Produkten. Wir empfehlen, Windows durch Linux, Outlook durch Tuta Mail und Outlook Calendar durch Tuta Calendar zu ersetzen. Es gibt top Alternativen zu Microsoft-Produkten. Wir empfehlen, Windows durch Linux, Outlook durch Tuta Mail und Outlook Calendar durch Tuta Calendar zu ersetzen. Hay alternativas a los productos de Microsoft fácilmente disponibles. Recomendamos sustituir Windows por Linux, Outlook por Tuta Mail y Outlook Calendar por Tuta Calendar.

Activa la privacidad con un solo clic.

Es hora de abandonar la dependencia del proveedor

Este no es el primero ni el último problema de seguridad con el que se ha encontrado Microsoft.

Con la integración y el rápido desarrollo de Copilot en Microsoft 365, los datos de particulares y organizaciones seguirán estando en peligro.

El anuncio de este fallo, apenas unos meses después del despliegue de Copilot en los planes de negocio de Microsoft 365, pone de manifiesto por qué los asistentes de IA no deben utilizarse en el correo electrónico y la importancia de utilizar correo electrónico cifrado de extremo a extremo, como Tuta Mail.

Ilustración de un teléfono con el logotipo de Tuta en su pantalla, junto al teléfono hay un escudo ampliado con una marca de verificación en él que simboliza el alto nivel de seguridad debido al cifrado de Tuta.