Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a realizar pruebas de seguridad mediante la simulación de ataques contra sus propios productos de inteligencia artificial. La compañía, con sede en esta localidad, se atribuye haber sido pionera en la formación de este grupo especializado desde 2021, con el objetivo de identificar vulnerabilidades antes del lanzamiento de sus tecnologías.
Brad Smith, presidente de Microsoft, destacó la relevancia de contar con principios definidos y publicados que actúen como guardarraíles para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.
Smith enfatizó que la aplicación de estos lineamientos no se limita a decidir cuándo utilizar la tecnología, sino que es fundamental determinar cuándo no debe usarse. Esta postura refleja la estrategia de la empresa para navegar los debates éticos actuales, incluyendo discusiones sobre el empleo de la inteligencia artificial en contextos bélicos.
La práctica del ‘red teaming’, que tiene sus orígenes en tácticas militares y se ha aplicado en ciberseguridad durante décadas, permite a Microsoft someter sus sistemas a estrés controlado. Reportes indican que esta metodología busca anticipar posibles usos malintencionados o fallos críticos en los modelos de IA, asegurando que los productos cumplan con los estándares de seguridad establecidos internamente.
El contexto actual incluye precedentes donde la industria tecnológica ha enfrentado desafíos respecto a contratos con entidades de defensa; en 2021, Microsoft canceló un acuerdo con el Pentágono, mientras que otras firmas como Anthropic han enfrentado demandas relacionadas con el uso de IA en el sector militar. A través de su equipo de pruebas internas, la compañía busca consolidar su posición sobre los límites operativos de sus herramientas.