Las Claves de los Expertos
De herramienta a ‘coworker’, llega el empleado artificial
Enrique López (HP), Christoph Scweizer (BCG), Kate Killough (Amani AI), Manjal Shah (Hippocratic AI) y Kian Katanforoosh (Workera) subrayan que la adopción de la IA requiere rediseñar procesos, seguridad y afrontar las brechas de datos, talento y cómputo
La inteligencia artificial atraviesa una transición profunda en el mundo empresarial. Lo que durante años fue concebido como una herramienta de apoyo comienza a ocupar un lugar más activo en los flujos de trabajo. Surge entonces un debate sobre si se trata de un software avanzado o de un nuevo compañero de trabajo.
Kian Katanforoosh, fundador y CEO de Workera, aclara que prefiere no llamar la coworker: “La IA es buena en tareas específicas, pero eso no equivale a que pueda asumir un trabajo completo”. Señala que muchas predicciones recientes sobre la automatización han fallado, ya que roles como traductores o gestores de atención al cliente siguen existiendo.
Para el fundador de Workera, el desafío real es organizacional y humano: “Para que un trabajo cambie, necesitas que las personas y las organizaciones cambien”. Advierte que los cambios estructurales son lentos y pueden tomar décadas, por lo que propone pensar en la IA como par te de “agentic workflows”, integrándose de manera gradual y estratégica en los procesos, más allá de reemplazar empleos completos.
Enrique Lores, presidente y CEO de HP, coincide: “Cuando uso IA para prepararme los resultados financieros, la estoy usando como una herramienta; pero cuando reemplaza y cambia la forma en que hacemos la planificación de la cadena de suministro, se siente más como un compañero de trabajo”.
Desde la consultoría estratégica, Christoph Schweizer, CEO de BCG, explica cómo la IA transforma la gestión del conocimiento corporativo: hoy es posible pedirle a la IA que “extraiga todos los benchmarks de millones de archivos”. Este cambio marca una nueva etapa en la adopción tecnológica, y asegura que “se siente como un compañero de trabajo, lo llames así o no”. En BCG, “construimos nuestros propios agentes”, integrando la IA de manera activa y estratégica.
Manjal Shah, fundador y CEO de Hippocratic AI, propone una clasificación más granular del impacto de la IA. “Desmantelamos el framework de co-trabaja dor en tres bloques, copiloto, autopiloto e infinito piloto”. Los copilotos acompañan al humano; los autopilotos ejecutan tareas de manera autónoma; pero el verdadero quiebre aparece en el tercer nivel.
“El infinito piloto es esta idea de cosas que nunca podrías hacer hasta que tuvieras una suma infinita o tuvieras un coste muy, muy bajo”, explica. En ese mundo, anticipa, “habrá 80 trillones de inteligencias artificiales. “Por primera vez en la historia humana podríamos tener abundancia infinita”. Ese concepto de abundancia ya tiene aplicaciones reales. Shah relata cómo, durante una ola de calor, su empresa llamó a 16.000 personas para educarlas sobre riesgos y cuidados. “Eso es algo que nunca habrías hecho”, subraya.
Shah también advierte una visión ingenua de la inteligencia artificial. Cita un concepto acuñado por Andrej Karpathy: “inteligencia artificial irregular” (AJI). La IA, dice, puede ser extraordinaria en tareas complejas y sorprendentemente mala en otras aparentemente simples. Su sistema, por ejemplo, logró convencer a 250 pacientes “perdidos en el seguimiento” de realizarse tomografías críticas, pero al enfrentar algo tan cotidiano como agendar citas, su desempeño se desplomó: “Probamos GPT-4.0 en precisión de programación de citas. El 23% de las veces alucina”. En otras palabras, lo que es difícil para los humanos, como persuadir a alguien, puede ser sencillo para la IA; y lo que nos parece trivial, como la logística básica, sigue siendo un desafío.
Shah desmonta una creencia extendida: “si entrenas tu IA con los datos correctos, entonces es segura”. Como ejemplo, recuerda el caso de PubMed GPT, entrenada exclusivamente con literatura médica de alta calidad y que, aun así, “se inventaba cosas”.
Frente a eso, “lo primero que hay que hacer para garantizar la seguridad y una IA responsable es hacer pruebas de salida (output testing)”. Este modelo empírico, subraya, solo es viable en casos de uso acotados, “no se puede hacer real mente con un modelo horizontal, porque hay un número infinito de salidas” y requiere arquitecturas de control en capas: “tenemos modelos que revisan modelos que revisan modelos”.
Manjal Shah advierte de los riesgos de la ‘inteligencia artificial irregular’, capaz de ser extraordinaria en tareas complejas y sorprendentemente mala en otras que parecen simples
Kate Killough, fundadora y CEO de Amini AI, traza una línea ética clara: “La inteligencia artificial siempre es una herramienta, no un coworker”. Advierte sobre los riesgos de delegar decisiones basadas en valores humanos: “no tiene ese contexto todavía”, y agrega que “no deberíamos permitir que la IA decida qué ciudadanos o comunidades merecen más recibir capital”. Además, señala que en muchas regiones, especialmente en África, los sistemas siguen operando en formato analógico, con datos fragmentados, lo que aumenta el riesgo de decisiones sesgadas: “si no proveemos infraestructura y acceso, la brecha digital se convierte en brecha de empleo en IA”.
Empresa como sistema humano
Christoph Schweizer coincide en que “la tecnología no es el cuello de botella”. El éxito, dice, depende de transformar procesos, incentivos, habilidades, liderazgo y cultura. Por eso insiste en “convertir esto en un problema del CEO y no delegarlo”.
Medir el impacto real de la IA sigue siendo complejo. “El sueño de todo CEO es poder medir perfectamente la productividad”, admite Schweizer. Sin embargo, hay señales claras.
“Si la gente usa un agente una vez por semana, es una distracción”, pero cuando el uso es diario, “se convierte en una norma”. Enrique Lores, presidente y CEO de HP, refuerza ese hallazgo: “Quienes usan IA regularmente tienen un nivel de satisfacción más alto” y “no solo se sienten más productivos, sino también mejor con lo que hacen”.
Para Kian Katanforoosh, la clave de la adopción de IA es la agencia humana: “Un mentor debe establecer objetivos claros, recompensas y evaluar eficaz mente las brechas de cada trabajador”. Ante la falta de talento nativo, las empresas deben formarlo internamente, repensando Recursos Humanos y Desarrollo, y diferenciando entre habilidades duraderas, como pensamiento crítico, y habilidades perecederas. “Hoy todos deberían saber programar, ya sea con IA o por su cuenta”, subraya.
Manjal Shah advierte que el desafío no radica sólo en quién toma las decisiones, sino en cómo se despliega la tecnología. Muchas empresas siguen tratando la IA como software tradicional, extrapolando pilotos pequeños a toda la organización, cuando en realidad la situación exige experimentación paralela, múltiples casos de uso y la aceptación de que no todos funcionarán desde el inicio.
En la misma línea, Kate Killough cuestiona la idea de que la IA sea una “varita mágica” capaz de transformar organiza ciones por sí sola.
Enrique Lores (HP): “Cuando uso IA para preparar los resultados financieros, es una herramienta; pero cuando cambia la cadena de suministro, se siente más como un compañero
Christoph Schweizer coincide en que uno de los errores más comunes es reducir la adopción de IA a un problema puramente tecnológico, ignorando lo que hace singular al ser humano. Enrique Lores añade que el debate sobre la IA no debe centrarse únicamente en costes, sino también en sus efectos positivos. El CEO de HP invita a aprovechar de mane ra estratégica las nuevas oportunidades que ofrece la IA.

