El riesgo de burbuja que viene: un motor tecnológico excelso sin el combustible de los datos

El 6G necesitará una generación de nubes diferente a la que se está construyendo para el 5G, la tensión para orquestar a los mundos del hardware y el software en la transformación digital no se va a detener, pero crecen las inversiones sin que estén resueltas las grandes cuestiones pendientes para poner a disposición de toda esa nueva y majestuosa infraestructura los datos que necesita para funcionar a la escala que se espera de ella
Eugenio Mallol
10 de agosto de 2025 | Compartir: Compartir en twitter Compartir en LinkedIn
El riesgo de burbuja que viene: un motor tecnológico excelso sin el combustible de los datos

Acaba de participar Roch H. Glitho, de la Cátedra Ericsson/ENCQOR y profesor de la Universidad Concordia, en el Symposium on Computers and Communications (ISCC) organizado por el IEEE en Bolonia (Italia). Dice que cada generación de sistemas de telecomunicaciones aporta niveles adicionales de sofisticación a los usuarios finales.

En el caso del 5G, un ejemplo de ello serían los servicios de Comunicaciones Ultra Confiables de Baja Latencia (URLLC), que superan ampliamente a los SMS ofrecidos por el 2G y a los sencillos servicios multimedia impulsados por el 3G y el 4G. El despliegue de sistemas 6G, previsto para la década de 2030 (si así lo quiere un mercado que todavía no acaba de despegarse del 4G y que no está recibiendo con el entusiasmo que se esperaba los servicios de 5G stand alone), podría introducir servicios todavía mucho más sofisticados, como las comunicaciones holográficas inmersivas.

La clave, según Glitho, está en lo que sucederá en el ámbito cloud. “Las nubes son los pilares del 5G y más allá, gracias a características como la elasticidad, la escalabilidad y el aprovisionamiento bajo demanda. Pueden abordar con éxito desafíos constantes, como la falta de flexibilidad y el sobreaprovisionamiento, a los que se enfrentan los sistemas de telecomunicaciones”, ha dicho en Bolonia.

Pero los requisitos del 6G ya se conocen y son mucho más estrictos que los de sus contrapartes del 5G. Por ejemplo, la latencia de extremo a extremo esperada es de 0,1 milisegundos, en lugar de 1 milisegundo, que rara vez se alcanza hoy en día. Por eso, el investigador de la Cátedra Ericsson/ENCQOR advierte de que “las nubes para 5G sin duda no podrán afrontar los retos del 6G”.

Su vaticinio es que se necesitará una nueva generación de nubes para 6G, un camino que se presenta, en su opinión, “ciertamente accidentado debido a los numerosos desafíos”. Es más, Glitho cree que las nubes por sí solas no serán suficientes para aprovechar todo el potencial del 6G y deberán complementarse con otros paradigmas. “La computación en red (INC) es un buen candidato”, dice, “es probable que esto nos lleve a un paradigma de continuum nube-borde enriquecido por INC para el 6G”.

En mis conversaciones con directivos es muy habitual que aflore esa tensión entre hardware y software, entre información, operaciones y comunicaciones, que está en la esencia de la transformación digital de cualquier organización. No es fácil identificar, en cada momento, qué parte debe llevar la batuta en esta apasionante labor de orquestación. Si la respuesta es que promover un estado de equilibrio en el sistema, la pregunta que surge a continuación es: ¿cómo demonios se consigue eso y, de nuevo, quién lo lidera?

En el mismo evento de Bolonia, Burak Kantarci, de la Universidad de Ottawa, ha anunciado que “a medida que avanzamos hacia la era del 6G y la hiperconectividad, la inteligencia ya no está centralizada”. Apuesta por técnicas como la ingeniería rápida, el aprendizaje federado y los modelos de lenguaje ligeros para llegar a “un ecosistema de borde integrado que integra inteligencia distribuida, datos multimodales y conectividad de última generación para respaldar soluciones de IA escalables y con capacidad de respuesta”. Si alguien dudaba de que las barreras dentro de las organizaciones deben ser demolidas cuanto antes, más le vale ir abriendo los ojos, y deprisa.

No obstante, la clave sigue estando en ese combustible esencial para que todo el ecosistema, actual y futuro, funcione: los datos. Y no andamos nada bien de datos para tanta sofisticación como se avecina. No vamos bien de datos para tanta GPU como se está comprando, en el sector público y en las grandes corporaciones privadas. No está la cosa lista a nivel de datos realmente aprovechables, interoperables y accesibles para tanto data center como se está proyectando.

No hay ganas de compartir los datos que tanto tiempo ha costado reunir y que constituyen hoy una ventaja competitiva para muchas compañías, por mucha Data Act que ponga en marcha la Unión Europea en septiembre. No se van a poner a disposición los datos que impliquen riesgos para la seguridad nacional. No hemos resuelto ni siquiera la propiedad de los datos que generan las máquinas que compra la industria. No están sobre la mesa todos los estándares que se necesitan para tanta maravilla tecnológica que estamos anunciando. No sabemos cómo monetizar el intercambio de datos de los vehículos con su entorno. No hay datos compartidos en sectores clave como la salud y la energía. No.

¿Mira que si la burbuja explota porque estamos construyendo un motor excelso, pero no hemos resuelto de dónde saldrá el combustible?

Scroll al inicio
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad