Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene operativo un equipo de seguridad conocido como red team, dedicado a probar sus propios productos de inteligencia artificial mediante técnicas de hacking para identificar vulnerabilidades antes de su lanzamiento. La compañía se atribuye haber sido pionera en esta práctica al formar el equipo en 2021, según información publicada por EL PAÍS.
Brad Smith, presidente de Microsoft, declaró que la empresa opera bajo principios definidos y publicados que crean guardarraíles para el desarrollo tecnológico. Tenemos principios, los definimos y los publicamos. Por definición, esos principios crearán guardarraíles. Y nos mantenemos en la carretera dentro de ellos. No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla, afirmó el ejecutivo.
El equipo multidisciplinario de Microsoft trabaja de manera interna para someter a prueba los sistemas de la compañía, siguiendo una práctica que tiene origen militar y se aplica en ciberseguridad desde hace décadas. El red teaming consiste en simular ataques contra los propios productos para detectar fallos de seguridad antes de que sean explotados por actores externos.
Esta estrategia de seguridad se desarrolla en un contexto de debate sobre el uso de inteligencia artificial en aplicaciones militares. El sector tecnológico ha presenciado casos como la demanda de Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el Departamento de Defensa de Estados Unidos en 2021, lo que refleja las tensiones entre la industria tecnológica y las aplicaciones bélicas de la IA.
La práctica del red teaming permite a Microsoft identificar riesgos potenciales en sus sistemas de inteligencia artificial antes de su comercialización, alineándose con los principios éticos que la compañía ha establecido para el desarrollo de estas tecnologías. El equipo continúa operativo en la sede de la empresa en Redmond, Washington.
La existencia de este equipo de seguridad interno representa un enfoque preventivo en la industria tecnológica, donde las empresas buscan anticipar vulnerabilidades en lugar de responder a ellas después de que los productos han sido lanzados al mercado. Esta metodología se ha convertido en un estándar para compañías que desarrollan sistemas de inteligencia artificial con potencial impacto en seguridad y privacidad.