El yo artificial

Uno de los desafíos del sector tecnológico en el ámbito del People & Data deberá ser asignar adecuadamente tareas al yo artificial, afirma el autor, que reflexiona sobre cómo la carencia de herramientas adecuadas ha provocado una distorsión del mercado a causa de las tecnologías de la intención, que llegan a anular la elección particular, por eso las empresas de éxito del futuro serán aquellas que gestionen la inteligencia artificial a escala humana
Eugenio Mallol
18 de septiembre de 2022 | Compartir: Compartir en twitter Compartir en LinkedIn
El yo artificial

Uno casi siente alivio cuando escucha a Tom Dietterich, uno de los padres del concepto del machine learning, describir para Atlas Tecnológico la “capacidad estadística de los sistemas” como “una especie de superego freudiano” que permite que las construcciones de la inteligencia artificial (él se refería a los modelos capaces de generar textos escritos) tengan sentido, que lo que hacen sea “útil para el objetivo y éticamente aceptable teniendo en cuenta las limitaciones que intervienen en ese proceso”.

Uno de los retos del desarrollo tecnológico en el ámbito del People & Data será asignar adecuadamente tareas al “Yo Artificial” que estamos construyendo y cuyo inevitable y progresivo incremento de autonomía tendremos que aprender a domesticar. Desde el yo natural, pero también, como solución de última instancia, mediante ese superego tecnológico del que habla Dietterich.

Una de las soluciones, como explica magistralmente Sylvia Díaz-Montenegro, consistirá en dotar de algo similar a un córtex frontal a todos los sistemas de inteligencia artificial para que sepan dirigirse al usuario sin que éste perciba un retroceso respecto al trato personal. En el futuro, es probable que la sociedad penalice a las compañías que aprovechen el atajo y prefieran conversar y hacer negocio con nuestro yo artificial, dejando en segundo lado al natural. Las empresas de éxito serán, por el contrario, las que sepan gestionar la inteligencia artificial a escala humana.

“No es ético penalizar a alguien por sus intenciones”. Las tecnologías de la intención, en las que tanto han avanzado genios de nuestro país como Ricardo Baeza-Yates, en la actualidad director del Institute for Experiential AI de Northeastern University en el campus de Silicon Valley, y que se diseñaron inicialmente para sacar más partido a la inversión en marketing digital, extienden sus tentáculos ya ámbitos como el criminalístico o a la conformación de la democracia. Lo preocupante es que están consiguiendo distorsionar el mercado.

El concepto de la ‘larga cola’ (the long tail), que definió Chris Anderson, aparece en las reflexiones de Baeza-Yates. Cuando la multitud domina, su ‘larga cola’ mata a la conducta individual, “cuando algo es muy popular en la red”, dice, “casi se anula la elección particular. Si hay un producto muy popular en Amazon, no puedes competir y probablemente matará a los demás, aunque tengan mejor calidad o precio, porque los hace irrelevantes en el contexto de la ‘popularidad’ o de su ‘conocimiento’ general en el mercado online”. Si no hay igualdad de oportunidades, lo que acaba ocurriendo básicamente es que los pequeños mueren, a pesar de que tengan más innovación o calidad.

«Autonomía por autonomía no es correcto, necesitamos una capa de validación, necesitamos entender que aunque la autonomía, la inteligencia artificial, los robots, se vuelvan más complejos, tenemos una manera de auditarlos», decía el investigador del MIT Media Lab Eduardo Castelló en un evento reciente en Valencia. Imagina que vas a Alexa y le preguntas: «¿Qué sabes de mí? Sí, sé que eres muy inteligente y me pones la música correcta, pero quiero auditarte». Esta es una investigación muy interesante publicada en Science.

Quizás el principal intento de apropiación de las características de nuestro yo natural por parte del yo artificial sea, precisamente, la capacidad de autoengaño y autopersuasión, clave para el avance de las personas y de las sociedades aunque parezca paradójico, como documentó a lo largo de toda su obra el profesor Miguel Catalán. John Stuart Mill escribió que “[una ilusión] consiste en extraer de un concepto que se sabe que no es verdadero, pero que es mejor que la verdad, el mismo beneficio para los sentimientos que se derivaría de dicha concepción si ésta fura una realidad”. Así funcionamos. La esencia del metaverso se condensaría en el apotegma romano “una poderosa imaginación genera hechos” (fortis imaginatio generat casum).

En el Collaborate People & Data, al que estás invitado por supuesto, conoceremos la experiencia de Marta Tantos, exdirectiva global de LEGO, que durante su carrera profesional en la multinacional pasó muchos días conviviendo con sus clientes en sus propias casas, días enteros. En breve conoceréis su respuesta a la pregunta de por qué es necesario hacerlo disponiendo de un volumen cada vez mayor de datos, en su mayor parte proporcionados de forma inconsciente. ¿Son los más valiosos?

El yo artificial irá suplantando al natural en un número creciente de tareas. En muchas ocasiones, porque se pedimos explícitamente. El sistema DALL-E de OpenAI, una empresa creada en 2015 por Elon Musk, es capaz de proporcionar imágenes originales a partir de un texto descriptivo de una escena introducido por un usuario. La persona externaliza en la máquina la potestad de crear. Yo mismo sucede ya en el ámbito de la programación informática, con soluciones como Copilot en GitHub.

El desafío reside en la autonomía. Asumiendo el relato freudiano, el yo artificial será capaz de moderar la conversación con nuestras pulsiones y deseos, que el sistema captará en forma de datos de forma creciente, sin necesidad de que intervenga nuestra consciencia. Lo está haciendo ya en algunos ámbitos. Y actuará con autonomía. “Se anticipará a nuestras necesidades”, es el claim que usa la industria tecnológica. Está bien, pero cuidado.

Scroll al inicio
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad