Por Juan Pablo Ojeda
El gigante tecnológico Microsoft está en el ojo del huracán tras un reportaje de The Guardian que señala el presunto uso de su plataforma en la nube, Azure, por parte del Ejército israelí para llevar a cabo un proyecto de vigilancia masiva enfocado en llamadas telefónicas palestinas, alojadas en servidores ubicados en Europa.
La empresa ya respondió a las acusaciones, calificándolas como “precisas y serias”, y anunció que inició una revisión urgente e interna, cuyo resultado —asegura— se hará público una vez que se obtengan conclusiones claras.
Según Microsoft, sus políticas de uso prohíben expresamente que sus servicios —especialmente aquellos ligados a inteligencia artificial (IA) y almacenamiento en la nube— se utilicen para perjudicar a personas o vulnerar derechos. También se exige que cualquier aplicación de IA se implemente con supervisión humana y controles de acceso estrictos.
Este nuevo episodio ha reactivado la polémica que inició meses atrás, cuando empleados y exempleados de Microsoft —agrupados en el movimiento No Azure for Apartheid— comenzaron a exigir públicamente que la empresa rompiera relaciones contractuales con el Ejército israelí. Las protestas llegaron incluso a eventos corporativos de alto perfil, como el 50º aniversario de Microsoft, donde dos empleadas interrumpieron presentaciones del CEO Satya Nadella, del pionero Bill Gates y de otras figuras clave.
Una de ellas, Ibtihal Aboussad, fue despedida tras su protesta y acusó directamente a la empresa de estar colaborando con una estrategia bélica.
“Nos negamos a escribir código que mate a palestinos”, dijo entonces en una declaración que circuló ampliamente en redes.
En mayo pasado, Microsoft aseguró que no había encontrado evidencia de que Azure o sus herramientas de inteligencia artificial hubieran sido utilizadas directamente para provocar daño en el conflicto en Gaza, esto tras una revisión interna impulsada por las quejas de sus empleados.
Sin embargo, nuevas filtraciones y reportes en medios estadounidenses han vuelto a agitar el tema. Se señala que las Fuerzas de Defensa de Israel estarían utilizando tecnologías de Microsoft para transcribir, traducir y analizar comunicaciones telefónicas con ayuda de IA, algo que entraría en conflicto con las condiciones de uso impuestas por la empresa.
Aunque Microsoft aún no ha confirmado si estos contratos existen o qué datos fueron efectivamente alojados en sus servidores, este caso revive el debate sobre la ética en el desarrollo de tecnología, la responsabilidad de las grandes empresas de software en contextos bélicos, y los límites del uso de la inteligencia artificial.
La comunidad tecnológica, así como activistas por los derechos humanos, siguen de cerca la revisión anunciada por Microsoft, que podría marcar un precedente sobre la responsabilidad empresarial en el uso de tecnologías emergentes dentro de conflictos armados.
Deja una respuesta