Claves para el reset (y III): hacia un mundo físico capaz de seguir la estela del digital
Uno de los desafíos de la innovación tecnológica es disponer de un hardware capaz de avanzar al ritmo al que lo hace el software en parcelas como el cloud, la inteligencia artificial, la robótica y la cibserseguridad, otro de los retos es disponer de las herramientas para orquestar todo a nivel incluso de ecosistemas
THOMAS CLAEYS / UNSPLASH
Tras la pandemia del COVID, aterrizamos en 2022 con un entorno de TI fragmentado en múltiples servicios en la nube, en centros de datos públicos y en el Edge, y uno de los desafíos de este 2023 era gestionar esa complejidad. De ahí que una de las tendencias tecnológicas recientes en el ámbito cloud sea la articulación de herramientas y capacidades para monitorizar y administrar este complejo entorno de TI multinube de manera consistente.
Recobra protagonismo un término que no es nuevo, metacloud, una nueva capa tecnológica que se sitúa por encima del concepto de multicloud, evita la necesidad de definir tecnologías específicas para cada nube pública y resuelve el problema de las tareas o procesos redundantes. Un único punto de control apoyado en APIs para gestionar capas de abstracción y automatización comunes a operaciones, gobernanza y seguridad.
En paralelo discurre otro proceso más ambicioso aún, el de interconectar nubes para facilitar la interoperabilidad y el intercambio de información en ecosistemas enteros, ya sean sectores económicos o áreas completas del ámbito público. La carrera de la innovación está en el software que debe orquestar todo el modelo, no tanto en la parte física de los servidores.
Hablamos de la industria 4.0 y edge computing, pero los microcentros de datos que tiene un gran fabricante del automóvil en su planta no pueden hablar entre sí. Como se está viendo en la invasión rusa de Ucrania, la victoria en la era digital depende de disponer de una representación global adecuada de los acontecimientos en tiempo real. Los países más lentos sucumbirán.
En ese sentido, Kubernetes ha pasado de ser una herramienta interna de orquestación de contenedores en Google a la tecnología nativa de la nube más importante del mundo. Su creciente popularidad la ha convertido en la forma preferida de crear nuevas experiencias de software y modernizar las aplicaciones existentes a escala y en todas las nubes.
Además de implantar esta tecnología hay que tener en cuenta que las instalaciones básicas de Kubernetes están plagadas de falta de visibilidad central, prácticas de seguridad inconsistentes y procesos de administración complejos. Una tendencia para afrontar este asunto son las tecnologías Serverless. Se crearon para agregar automatización sin la necesidad de tener que determinar previamente la cantidad de recursos informáticos necesarios para cada carga de trabajo.
En última instancia, la inteligencia artificial (IA) y la computación en la nube se alimentan recíprocamente. Los servicios de computación en la nube contribuyen a la democratización de la IA al llegar a un público más amplio y permitir a las pymes obtener paquetes mejorados con IA y capacidades informáticas avanzadas.
Asimismo, las empresas están expuestas a un número alarmante de vulnerabilidades asociadas al volumen de negocios que se realizan en la nube. Y habrá que prestar un mayor nivel de atención a la seguridad de la red distribuida. El emergente sector SASE (Secure Access Service Edge) combina las redes de área amplia definidas por software (SD-WAN) con el control de acceso y seguridad, como servicio en la nube.
De hecho, la operadora de telecomunicaciones AT&T quiere llevar redes inalámbricas privadas 5G a empresas, universidades y el sector público, utilizando tecnología de Microsoft, y ésta quiere ofrecer su propio 5G privado para clientes empresariales. Microsoft, que utilizará redes satelitales para proporcionar determinados servicios, también se está asociando con compañías como Swisscom AG, Telefónica, Intelsat y Northrop Grumman para el negocio del 5G ligado a la nube. Su principal rival en este campo Amazon Web Services ha estado vendiendo ideas similares durante los últimos años como parte de sus productos Outposts.
Inteligencia artificial
La tasa de fracaso de los proyectos de IA es definitivamente alta. La mayoría de las empresas se aventuran con objetivos muy claros en mente, como el de acelerar los tiempos de comercialización, pero sin una hoja de ruta estructurada y oportuna. Su propósito debería ser avanzar con IA en tres áreas a la vez: transformación empresarial, toma de decisiones mejorada y sistemas y procesos modernizados. Se necesita, además, disciplina para mantener el objetivo durante semanas o meses, al margen de la presión para demostrar el ROI y el valor comercial.
Si bien el aumento en el tamaño de los modelos de IA, en especial los de lenguaje extenso (LLM), basados en el creciente volumen de datos con los que son entrenados, conduce a un mejor rendimiento, introduce nuevos desafíos de complejidad. Uno de ellos consiste, precisamente, en hacer que sean asequibles y fáciles de implementar.
Las compañías de vanguardia están creando tecnologías para simplificar y automatizar las tareas más lentas relacionadas con el entrenamiento previo a grandes modelos de IA, con datos reales cada vez mayores, y lograr retornos de la inversión en plazos cortos.
En los últimos cuatro años, el tamaño de los parámetros de los modelos de lenguaje basados en IA ha crecido casi 2.000 veces: de alrededor de 100 millones de parámetros a casi 200.000 millones.
Por tomar prestada una analogía del mundo de la moda, la IA ahora tiene su alta costura y tiene un centro comercial, donde se encuentra con el mercado masivo. Las empresas de IA as a service están construyendo herramientas de low code y no code para usuarios sin experiencia previa en inteligencia artificial, que permiten ejecutar modelos sofisticados de IA en datos de texto, como conversaciones de servicio al cliente, sin necesidad de depender de equipos de ciencia de datos.
En cuanto al hardware, el coste de la IA generalizada supondrá un aumento exponencial en los requisitos de procesamiento de datos y eficiencia energética impuestos a los semiconductores que alimentan a los dispositivos inteligentes. Incluso el centro de datos más avanzado está alcanzando limitaciones físicas en el suministro de energía y gestión térmica, lo que impide una mayor escalabilidad de los recursos de hardware. Otro desafío para la innovación.
Para acortar el tiempo de entrenamiento de IA y combatir las limitaciones de potencia, las GPU se están volviendo cada vez más eficientes en el consumo de energía. Dado que los modelos más grandes simplemente no caben en una sola, las conexiones de GPU a GPU también están alcanzando un rango de terabytes por segundo con una latencia extremadamente baja.
IBM ha demostrado que los futuros chips analógicos eficientes podrán usarse para el aprendizaje profundo, tanto para entrenamiento como para inferencia. Crear sistemas que puedan entrenar a la IA es una tarea mucho más desafiante que construir sistemas que puedan inferir. Los investigadores de IBM, en colaboración con Tokyo Electron (TEL), han estado trabajando en cómo entrenar IA el hardware analógico.
Robótica
Los robots se están volviendo más autónomos, y el paso de la automatización a la autonomía es lo que impulsará la próxima década de casos de uso innovadores. NVIDIA está aportando mejoras en la tecnología de percepción, la conectividad y la computación perimetral de alto rendimiento. La potente computación en el edge basada en GPU se combinará con un espectro completo de sensores, con el impulso de la IA y el deep learning.
Gracias a ello, con IA, los cobots tomarán decisiones en tiempo real para garantizar la seguridad en la fábrica del futuro, mientras mantienen y optimizan la productividad. Es previsible que vayan perdiendo sentido los robots de función fija. Serán cada vez más más habituales los modelos multifuncionales susceptibles de ser configurados dinámicamente para trabajar en diversas tareas. Se impone asimismo una experiencia de uso más sencilla, cada vez más asimilable a la del móvil.
La tecnología de simulación se utilizará en todos los ámbitos posibles: desde el diseño y desarrollo del robot mecánico, hasta su entrenamiento en navegación y comportamiento o la implementación de un “gemelo digital” en un entorno preciso y fotorrealista antes de operar de forma autónoma en el mundo real.
La automatización ágil creará herramientas que puedan ser instaladas y reconfiguradas por el personal interno de fabricación y control de calidad. El papel de los integradores de sistemas se verá claramente reducido. En ese nuevo mindset de colaboración con las máquinas, los procesos de inspección se enseñan en lugar de programarse. Las tiendas de aplicaciones completan los accesorios digitales de los robots.
Las tecnologías habilitadoras del IoRT (internet of robotic things) incluyen el control y aprendizaje de robots tanto simbólicos como sensoriales en el contexto de sistemas autónomos. Las inspiraciones biológicas, incluidas las características sociales de insectos y animales como parte del diseño de sistemas de robots múltiples, son clave para su desarrollo. La democratización de la robótica es una de las tendencias de mercado, lleva aparejada una mayor facilidad de configuración e instalación, con soluciones listas para usar.
Ciberseguridad
La nueva guerra cibernética global se parece mucho a la guerra fría de los años 50 a 80 y tiene que ver con la reserva global de vulnerabilidades, acumuladas ya sea por accidente, ya como un subproducto de las continuas innovaciones en conectividad. Las líneas borrosas entre ciberespías, ciberdelincuentes y ciberejércitos están transformando el panorama de la seguridad. Por si fuera poco, asistimos a una democratización del cibercrimen no sólo por el acceso a las herramientas tecnológicas, sino porque la propia IA generativa es capaz de escribir código con fines maliciosos.
Los gobiernos se han dado cuenta tarde de que necesitan proporcionar un grado de protección mucho mayor para los servicios públicos y los ciudadanos que hasta ahora. Para ello están obligados a trabajar cada vez más con proveedores de soluciones del sector privado y con los usuarios finales para crear un entorno de seguridad que le permita hacer frente a las acciones de otros Estados.
En marzo, la Administración Biden lanzó su esperada Estrategia Nacional de Ciberseguridad en la que eleva la seguridad cibernética a la categoría de componente crítico de la prosperidad económica y la seguridad nacional de los EEUU. Y plantea un asunto fundamental, muy en línea con la directiva NIS2 publicada recientemente por Europa: el sector privado, con sus empresas de software, pymes, proveedores de banda ancha y empresas de servicios públicos, tiene la clave para asegurar el bien público de la ciberseguridad.
El tiempo para que las empresas opten voluntariamente por la ciberseguridad ya ha pasado. El sector de la ciberseguridad empieza a convencerse de que, dado que no será posible formar al personal necesario para vencer a los piratas informáticos, necesitará de soluciones más inteligentes, basadas en datos e impulsadas por IA.
La idea del perímetro de seguridad está definitivamente muerta. El desafío es implementar soluciones de Zero Trust Network Access (ZTNA) y de Secure Access Service Edge (SASE) sobre tecnología heredada, ese legacy al que las empresas, especialmente las industriales, con ciclos de amortización largos, no pueden renunciar. No querrán despertar un día con un ataque al software de la cadena de suministro.