Mercado
SciTech 2026: la IA sitúa a la industria aeroespacial ante el reto de las aeronaves autónomas y la nueva logística de los satélites
El evento, organizado por la American Institute of Aeronautics and Astronautics (AAIA), defiende que la industria debe asumir la responsabilidad de validar la IA y la autonomía, y que la colaboración con universidad y gobierno será clave para la seguridad en aeronaves y operaciones espaciales
El SciTech Forum 2026 de la American Institute of Aeronautics and Astronautics (AAIA) celebrado recientemente ha puesto sobre la mesa un desafío central para la aviación y la exploración espacial: cómo integrar de manera segura la inteligencia artificial y las aeronaves autónomas cuando la innovación avanza más rápido que los marcos de validación existentes. El encuentro ha reunido a líderes de la industria, la universidad y el gobierno de Estados Unidos para examinar los desarrollos más recientes en IA, operaciones autónomas y tecnología espacial.
Cuatro días de presentaciones y debates han mostrado que la colaboración entre sectores, junto con la adaptación a cambios regulatorios y presupuestarios, será decisiva para definir el futuro de estas tecnologías. Desde la validación de sistemas autónomos hasta la supervisión humana de drones y la logística de satélites en órbita, los expertos coinciden en que la velocidad de innovación supera los métodos tradicionales para garantizar seguridad y eficacia.
Durante una de las mesas redondas del evento, Mykel Kochenderfer, profesor de Stanford, destaca que “no existen metodologías bien establecidas para validar la inteligencia artificial, especialmente al integrar aeronaves autónomas o semiautónomas en el espacio aéreo nacional”. El académico recuerda la brecha entre investigación y práctica con un ejemplo. Aunque Standfor creó el Institute for Human-Centered Artificial Intelligence en 2019, solo en 2025 comenzaron a impartirse cursos sobre validación de sistemas. “La mayoría de las universidades aún no se han dado cuenta de la necesidad de educar a la próxima generación sobre metodologías de validación”, añade.
El profesor subraya que la universidad y los investigadores cumplen un rol fundamental al ayudar a los reguladores a determinar qué tecnologías emergentes serán viables en la práctica. “Los reguladores no necesariamente tienen la experiencia técnica profunda; dependen de centros federales de investigación y desarrollo y de instituciones académicas”, explica.
Al mismo tiempo, las empresas lideran gran parte del desarrollo tecnológico, por lo que el sector privado está mejor posicionado para caracterizar las limitaciones de las nuevas tecnologías. Sin embargo, Kochenderfer advierte sobre la necesidad de mantener independencia: “no es bueno que los ingenieros que están desarrollando el sistema sean los responsables de toda la validación”.
Seguridad e innovación podrían parecer fuerzas enfrentadas, pero algunas voces defienden que la experiencia demuestra lo contrario. Wes Ryan, exingeniero de la FAA y NASA, asegura que “pantallas de cristal, navegación GPS y pilotos automáticos inteligentes mejoran la seguridad, y cada uno de esos requiere encontrar un equilibrio entre la supervisión regulatoria adecuada, el nivel correcto de rigor e ingeniería y los procesos de aeronavegabilidad”.
Natasha Neogi, tecnóloga senior de la NASA en Sistemas de Vuelo Inteligente Asegurado, defiende que los desarrolladores deben identificar espacios seguros y limitados para implementar nuevas tecnologías, donde la reducción de riesgos sea evidente. Puso como ejemplo el uso creciente de drones y otras aeronaves autónomas en incendios, que disminuyen la necesidad de que los bomberos humanos entren en áreas peligrosas. Esta estrategia permite “obtener datos sobre reducción de riesgos antes de una adopción más amplia” en el Sistema Nacional de Espacio Aéreo. Además, Neogi pone en cuestión que el impacto potencial de la tecnología deba considerarse desde las primeras fases del desarrollo.
Kochenderfer señala la reciente asociación con la Escuela de Pilotos de Prueba de la Fuerza Aérea de EE. UU., donde evaluaron cómo un “copiloto” de IA podría asistir a pilotos humanos en momentos críticos de vuelo. “Queríamos ver qué se necesitaría para construir un sistema en el que podamos realmente confiar, que pueda intervenir cuando surjan casos imprevistos que no estén perfectamente contemplados en las listas de verificación”, explica. “Hay un largo camino por recorrer, pero hay mucho potencial para futuras innovaciones”, concluye.
Responsabilidad de la industria
Craig Martell, exdirector de inteligencia artificial y digital del Departamento de Defensa y actual director tecnológico de Lockheed Martin, instó durante su keynote a la industria a reforzar la verificación y validación de las capacidades de inteligencia artificial que desarrolla. “La industria ha delegado en el cliente la evaluación de estas tecnologías”, señala.
“Imaginen que construimos un F‑35 y decimos, ‘OK, depende de ustedes ver si funciona bien o no’. Imaginen que entregamos la cápsula Artemis y decimos, ‘depende de ustedes si funciona o no’. No lo haríamos. Eso no sería cumplir con nuestro trabajo”. Sin embargo, agrega, “en la IA, por alguna razón, existe la comodidad de poder trasladar esa responsabilidad al cliente”.
“Es solo una tecnología estadística. Con los datos y casos de uso correctos, funciona; de lo contrario, no”. El experto insiste en la necesidad de garantizar la precisión de las herramientas que se ofrecen.“No se puede implementar IA sin saber si se está obteniendo la respuesta correcta o incorrecta”, concluye. “Necesitamos formar a nuestro personal para evaluar cuándo y dónde esta herramienta realmente aporta valor”.

Límite de la atención
La operación de aeronaves autónomas requiere supervisores humanos capaces de monitorear múltiples vehículos desde estaciones de control. Investigaciones de NASA Langley y Florida Institute of Technology, presentadas durante el evento, muestran que superar un cierto número de aeronaves por operador compromete la seguridad. “Al escalar a 10 vehículos, los operadores expresaron preocupación por la magnitud de la información presentada”.
Michael Politowicz, investigador de NASA, explica que más de cuatro aeronaves por supervisor cambia fundamentalmente la tarea. “Los operadores solo pueden enfocarse en un tema crítico a la vez”, afirma. Así, la automatización se vuelve indispensable para cubrir tareas rutinarias y liberar atención ante emergencias.
