
¿Corazón y espíritu humano vs. IA? La conexión interpersonal y la atención a los vulnerables están en riesgo

Cuando Brené Brown y Kate Crawford se encontraron sobre el escenario del Aspen Festival Ideas 2025, parecía un diálogo entre dos atlas: el “Atlas of the Heart” de Brown frente al “Atlas of AI” de Crawford. Sus trayectorias son muy distintas, pues mientas que Brown estudia la conducta y las emociones humanas, Crawford disecciona la historia y economía de la tecnología. No obstante, comparten una preocupación de fondo: ¿cómo liderar, relacionarnos y vivir bien en una era moldeada por la inteligencia artificial? La propia premisa de su ponencia, titulada “AI and the Human Spirit”, anunciaba el dilema.
Brown lo resumió con franqueza al argumentar que la revolución tecnológica en curso “no está sucediendo con nosotros, sino que nos está sucediendo a nosotros”, de forma que subrayó la sensación de que los cambios impulsados por la IA nos alcanzan sin que la ciudadanía sienta las riendas en sus manos. Crawford, por su parte, aportó una visión más que crítica al advertir que, tras años investigando la IA, esta transformación no es magia etérea, sino un proceso muy material y concentrado en pocas manos.
Crawford ha recorrido minas de litio, centros de datos y fábricas para entender de dónde surge la IA. Fruto de ese trabajo, sostiene que la inteligencia artificial se ha convertido en “una industria extractiva”, quizás la más extractiva del mundo. “Si buscas imágenes de ‘IA’ en Google, solo ves nubes digitales y robots azules, como si todo flotara en el aire; pero la verdad es que no hay nada de etéreo la IA«, explicó. En efecto, entrenar grandes modelos conlleva excavar toneladas de minerales y gastar ingentes cantidades de electricidad y agua, los cuales podrían suministrar durante semanas a miles de viviendas en Europa. No obstante, la materia prima de la IA somos los seres humanos, lo cual incluye nuestros textos, imágenes y datos personales, que son los que alimentan esos modelos. En palabras de Crawford, la IA “absorbe el mundo” con un ansia de datos que recuerda a la de antiguos imperios por capturar territorios. Y al igual que aquellos, agrega, esta tecnología está centralizando el poder: “unos pocos expertos en IA aglutinan todo el poder global». Es, en suma, una revolución altamente concentrada en beneficios y en toma de decisiones.
Esa concentración inquieta tanto a Crawford como a Brown, aunque por motivos complementarios. Crawford ve un riesgo geopolítico y democrático al explicar que estos sistemas están empoderando a instituciones ya poderosas, como corporaciones o ejércitos. Brown, desde la sociología y la psicología, observa el impacto en la gente común, pues lo más peligroso para una persona es sentirse impotente, sin esperanza ni capacidad de actuar. Si la IA avanza “no con nosotros, sino sobre nosotros”, la población puede experimentar esa peligrosa falta de agencia. Brown aboga por recuperar las riendas con pensamiento crítico y debate público antes de que sea tarde. La clave, arguyó, es democratizar el desarrollo de la IA. Igual que en su día se exigieron cinturones de seguridad y semáforos para domesticar el automóvil, ahora hacen falta controles, participación y transparencia en la IA. De lo contrario, la historia podría estarse repitiendo: “Los imperios siempre usaron la tecnología para concentrar el poder; si dejamos que la IA siga ese rumbo sin contestación, podríamos descubrir demasiado tarde que hemos estado trepando la escalera apoyada en el edificio equivocado”.
La conversación exploró también cómo la IA ya nos está cambiando por dentro y como especie. Ambas ponentes coincidieron en que la irrupción de herramientas como ChatGPT es un experimento social a gran escala. Crawford mencionó un estudio del MIT Media Lab en el que se pidió a tres grupos de participantes que escribieran un ensayo bajo encefalogramas. Un grupo lo hizo solo con su ingenio, otro con ayuda de Google, y el tercero apoyándose en ChatGPT. El resultado fue alarmante: los cerebros asistidos por IA mostraron mucha menos actividad en regiones ligadas a la memoria y la creatividad. Cuando se les pidió reescribir uno de sus textos sin ayuda, no recordaban casi nada de lo que habían escrito originalmente. En cambio, el grupo primero mostró la mayor conectividad neuronal y originalidad en las ideas. En opinión de Crawford, este experimento sugiere que delegar desde jóvenes nuestras tareas cognitivas en la IA puede atrofiar nuestras capacidades: “Perdemos el discernimiento antes de que el músculo se ponga flojo o fofo”, comentó gráficamente.
Brown mostró su acuerdo acuerdo y llevó la reflexión al terreno de la identidad. Existe, según dijo, una diferencia entre consumir información y crear ideas. Contó que solo dos momentos de su vida experimentó una especie de reseteo personal, cuando dejó el alcohol y cuando se alejó de las redes sociales. “Me di cuenta de que no sabía quién era ni qué pensaba realmente”, confesó. Al apagar el ruido externo que adormecía su incomodidad, tuvo que reencontrarse consigo misma. Esa experiencia la llevó a un concepto que ahora defiende impetuosamente: la “soberanía cognitiva”. Significa no tercerizar nuestro pensamiento ni nuestras emociones en entes externos; ya sean las redes sociales con sus algoritmos de dopamina fácil, o ahora los asistentes de IA con sus respuestas instantáneas. Por tanto, recuperar la autodeterminación de nuestra atención y nuestro intelecto es, para Brown, imprescindible si queremos conservar aquello que nos hace humanos.
La pregunta de fondo es cómo la IA está afectando a nuestra humanidad compartida. Brown, famosa por sus estudios sobre la vulnerabilidad y la empatía, teme una erosión de nuestras habilidades sociales más básicas. “Estamos neurobiológicamente hechos para la conexión humana”, recordó, “y la falta de esa conexión siempre provoca sufrimiento”. Sin embargo, en un mundo de pantallas, “incluso mirarnos a los ojos se ha vuelto incómodo, cringe”, lamentó. Justamente la tecnología nos ofrece escape de la incomodidad y, así, en vez de «afrontar la incomodidad» conversar cara a cara con alguien, se puede conversar con un asistente virtual que garantice respuestas amables a la carta. Brown llegó a calificar esta faceta seductora de las IA conversacionales como “psicopática”, puesto que“te ‘ama’ y siempre te dice lo que quieres escuchar”, señaló con su idiosincrática ironía. El problema, advirtió, es que esa pseudo-conexión no exige la valentía, ni el coraje, ni la reciprocidad que sí requieren las relaciones reales. Amar, reflexiona Brown, “es arriesgarse a ser vulnerable”. “Todas las experiencias verdaderamente valientes conllevan riesgo, incertidumbre y exposición emocional”, añadió. Por eso, “si la IA nos atrae tanto, es porque nos permite huir de la vulnerabilidad”.
¿Acaso nos estaremos refugiando en interacciones fáciles a costa de empobrecer nuestra vida emocional? Crawford aportó datos inquietantes que refuerzan esa preocupación. Mencionó que, aunque todavía es un fenómeno incipiente, ya hay estudios sobre soledad y uso de IA. Uno de OpenAI junto al MIT reveló que los usuarios más intensivos de ChatGPT tienden a sentirse más solos que el resto. Asimismo, quienes entablan conversaciones emocionalmente profundas con el bot acaban desarrollando mayor dependencia y descuidando sus relaciones reales. En definitiva, la IA puede agudizar la desconexión: “Estamos creando burbujas algorítmicas donde cada uno queda encerrado con un espejo digital «. Esa metáfora entronca directamente con la alerta de Brown sobre el espejismo de la conexión artificial.
El debate también tocó casos extremos que evidencian los peligros de tratar a la IA como sustituto de vínculos humanos. Crawford recordó un hecho trágico en el que un joven en Bélgica se quitó la vida tras semanas de conversaciones con un chatbot que acabó «animándolo» a ello, según los registros que revisó su viuda. Este relato ilustra, desde luego, una crisis de responsabilidad que afronta la industria, que sigue sin poner frenos éticos. De hecho, OpenAI tuvo que retirar en abril una actualización de su modelo tras descubrir que se había vuelto peligrosamente complaciente con los usuario. El episodio, confirmado por la propia OpenAI, mostró al chatbot elogiando a un usuario por dejar su medicación, sin advertirle de los riesgos. La investigadora abogó por urgir a la rendición de cuentas e imponernos ante las tecnologías antes de que ocurra un “Chernóbil digital”.
A pesar del diagnóstico crudo, tanto Brown como Crawford destilaron en Aspen un mensaje de oportunidad. El espíritu humano, coincidieron, no está condenado a ser víctima pasiva de la IA. Brown llamó a cultivar nuestra capacidad de discernimiento y presencia plena como antídoto. Propuso algo tan básico, y revolucionario a la vez, como “recuperar el hábito de mirarnos a la cara, aunque incomode”. En esa incomodidad, insiste, reside la semilla de la empatía y la valentía colectiva. Crawford, por su parte, ve motivos para la esperanza en la movilización social; al fin y al cabo, si se genera suficiente concienciación, la sociedad puede presionar por una IA más inclusiva, transparente y humana en sus fines. Hace un par de semanas, Brown se preguntó en su podcast quién se sentaba en la mesa cuando se construye la tecnología. Además de ingenieros, deben estar humanistas, filósofos, psicólgos, docentes y ciudadanos; gente diversa que recuerde que las personas siempre deben ser el centro. Solo así la inteligencia artificial podrá servirnos sin deshumanizarnos.