La curiosidad, el pensamiento crítico y el autocontrol se antojan más importantes que nunca en la era de la inteligencia artificial
Hace tiempo que los economistas reconocieron la importancia del capital humano, esto es, las aptitudes y los conocimientos inherentes a las personas. Hace más de un siglo, Alfred Marshall escribió que “el capital más valioso es el que se invierte en los seres humanos”. Estudiosos ajenos al mundo de la economía han llegado a la misma conclusión. El filósofo Michel Foucault, en sus reflexiones sobre el auge económico registrado en Occidente en los siglos XVI y XVII, planteó la siguiente pregunta: “¿Acaso (dicho auge) no se debió, precisamente, a la acumulación acelerada de capital humano?”. No resulta exagerado pensar que la mejora del nivel de vida que se experimenta de una generación a otra en las sociedades modernas tiene su origen en el capital humano.
Los avances recientes en la esfera de la inteligencia artificial (IA) han despertado una serie de temores en torno al desplazamiento del capital humano. ¿Se complementarán la IA y el capital humano para hacerse más productivos el uno al otro? ¿O serán sustitutos? El capital humano consta de tres componentes fundamentales que, aunque en ocasiones se pasen por alto, pueden ayudar a responder a estas complicadas cuestiones: la curiosidad, el pensamiento crítico y el autocontrol.
Curiosidad
Imaginemos que tomamos todos los datos jamás registrados por los humanos hasta el año 1939, y los incorporamos a un modelo grande de lenguaje. El año 1939 es significativo, porque poco tiempo después nacieron Paul McCartney y John Lennon. De hecho, es poco antes de que fueran concebidos. Supongamos que, a continuación, le pedimos a dicho modelo que cree canciones que puedan describirse con los adjetivos que emplearon los críticos musicales que escucharon a los Beatles. ¿El modelo sería capaz de producir “Yesterday”?
Hay dos razones que explican por qué no. En primer lugar, no habría suficiente información para predecir el producto creativo de los dos muchachos de Liverpool, aún no nacidos. Al escribir las canciones, Lennon y McCartney se inspiraron en sus propias experiencias vitales. Sin embargo, antes de su existencia, no habría muchas pistas sobre cómo iban a ser esas experiencias. Es más, tampoco podríamos predecir con seguridad que John y Paul llegarían siquiera a existir; no podríamos saber cuáles de los millones de espermatozoides de sus padres acabarían fertilizando los óvulos de sus madres.
En segundo lugar, al no aportar ningún detalle específico de las canciones, nuestras instrucciones resultarían demasiado ambiguas. “Yesterday” ha sido descrita como melancólica, atemporal, elegante, lírica e íntima. Estas palabras pueden parecer adecuadas, pero no acotan demasiado las posibilidades. Por lo tanto, antes de que existieran los Beatles, la IA no podría haber creado su música por predicción y, en consecuencia, nos habríamos perdido la que algunos consideran una de las mejores canciones de rock and roll de todos los tiempos. Y lo mismo ocurriría con las obras de cualquier pintor, escritor, escultor, etc., de su preferencia que haya nacido tras 1939.
Ahora, centrémonos en el presente, en lugar de en 1939. Por las mismas razones, un modelo grande de lenguaje que cuente con toda la información disponible hasta el día de hoy no podría reemplazar el talento, la creatividad y la curiosidad de los creadores del futuro. A pesar de que la IA puede hacer un trabajo decente cuando se trata de recombinar datos antiguos (libros, grabaciones e imágenes del pasado), es incapaz de imitar las creaciones humanas que aún están por venir.
Este concepto trasciende el mundo del arte. Por ejemplo, piense en la siguiente pregunta: “¿Qué se puede hacer para reducir la violencia armada en Chicago?”. Un modelo grande de lenguaje respondería con un resumen de los estudios ya publicados sobre la materia, destacando quizá los que fueran más aplicables a esa ciudad, pero no pondría a prueba de forma empírica nuevas ideas para ofrecer una respuesta completamente novedosa. Por sí misma, la IA no va a diseñar una intervención de política pública, ni a recaudar financiamiento, ni a formar a encuestadores, ni a visitar hogares, ni a persuadir a los participantes para que respondan, entre otras muchas cosas. Eso lo hacen los humanos, movidos por su curiosidad intelectual. Es nuestra curiosidad la que alimenta el acervo de conocimientos en el que se basa la IA.
Estamos destinados a alcanzar un punto en el que toda la información disponible esté incorporada en modelos grandes de lenguaje, una situación que se conoce como “pico de datos”. Llegados a ese punto, si no se dispone de información nueva (como estudios sobre nuevas estrategias para prevenir la violencia armada), el producto de los modelos grandes de lenguaje no mejorará mucho. Si todo el mundo decidiera basarse en lo que dice el modelo, en lugar de financiar y llevar a cabo nuevas investigaciones, pronto nos veríamos limitados a estudios obsoletos, una situación a todas luces indeseable. Este pico de datos entraña que, para que la IA siga mejorando sus respuestas, los humanos debemos seguir ampliando las fronteras del conocimiento, formulando nuevas preguntas y aportando nuevas respuestas. Debemos seguir siendo creativos y curiosos.
La analogía con el mercado financiero apuntala esta cuestión. Piense en la hipótesis del mercado eficiente, desarrollada, como es bien sabido, por Eugene Fama. Esta teoría se basa en la idea de que los precios incorporan toda la información disponible y que, por tanto, el mercado es imbatible (sin entrar a considerar los casos de información privilegiada). Posteriormente, este concepto fue perfeccionado por Sanford Grossman y Joseph Stiglitz, quienes plantearon la paradoja de la información, a saber: si los precios ya reflejan toda la información disponible, los inversionistas no tienen incentivos para recabar y analizar la información. Pero, si nadie recaba dicha información, ¿cómo puede esta verse reflejada en los precios? Los participantes en el mercado producen y procesan información porque obtienen beneficios de ello, y los precios reflejan dicha información, aunque no lo hagan de manera perfecta o instantánea.
Del mismo modo, la IA puede incorporar toda la información disponible en un momento dado, pero para poder conservar su pertinencia y seguir mejorando, necesita que las personas continuemos generando nuevos conocimientos. Desde esta perspectiva, la curiosidad y la IA son complementarias, no sustitutas. En el largo plazo, la IA solo mejorará si los humanos desarrollamos nuevas y mejores ideas.
Pensamiento crítico
En su obra de 1845, Sofismas económicos, Frédéric Bastiat presenta una interesante dicotomía entre las ciencias exactas y las ciencias sociales. Según él, tan solo los académicos pueden llegar a dominar las ciencias exactas y, “a pesar de su ignorancia, la gente común se beneficia de ellas”. En cambio, la aplicación práctica de las ciencias sociales afecta a todo el mundo y “su desconocimiento es inadmisible”. Si bien las personas tienden a aceptar sin dudar las palabras de los expertos en ciencias exactas, pocas veces es así cuando se trata de ciencias sociales. El ciudadano de a pie no pretende conocer una manera mejor de fabricar chips informáticos o motores aeronáuticos, pero no es raro escuchar a personas que creen saber cómo mejorar el sistema tributario o combatir la pobreza de manera más eficaz. La dicotomía de Bastiat se extiende a nuestra interacción con la IA.
Si usted le pide a un modelo grande de lenguaje que resuelva un problema matemático, obtendrá una respuesta clara y directa. No será necesario ningún juicio por su parte. Sus ideas preconcebidas no repercutirán en la interpretación que haga de la información recibida. En cambio, en las ciencias sociales y las humanidades, no suele ocurrir lo mismo. Plantéese, por ejemplo, hacerle al modelo las siguientes preguntas: ¿Cómo sé si alguien está enamorado de mí? ¿Dios existe? ¿Debería tener hijos? ¿A quién debería votar en las próximas elecciones generales? Los modelos grandes de lenguaje responderán a esas preguntas, pero para ello combinarán lo que otros han dicho en el pasado, sin llegar a dar nunca una respuesta definitiva. Nos toca a nosotros sopesar los argumentos y tomar una decisión. En ese sentido, el pensamiento crítico resulta fundamental.
Hay otra razón por la que el pensamiento crítico reviste especial importancia. El psicólogo Donald Campbell advirtió que “cuanto más se use un indicador social cuantitativo en la toma de decisiones, más proclive será a corromperse”. La ley de Campbell también se aplica a la IA. Al haber tantas personas que utilizan los modelos grandes de lenguaje, los malhechores se ven motivados a contaminar los datos de entrenamiento con desinformación, un proceso que se conoce como “envenenamiento de datos”. En consecuencia, incluso al nivel más básico, la información que brindan los modelos grandes de lenguaje puede ser errónea. Sabiendo eso, es preciso mantener la guardia y, para ello, el pensamiento crítico resulta fundamental.
Autocontrol
La IA puede resumir cantidades ingentes de información para orientar nuestras decisiones, pero no tiene control sobre lo que realmente hacemos. Somos falibles y, a menudo, sucumbimos a nuestras emociones. Un modelo grande de lenguaje es capaz de generar un plan de entrenamiento personalizado perfecto para usted, pero los resultados dependerán de lo disciplinado que sea: ¿será capaz de ceñirse al plan incluso cuando no tenga ganas de entrenar? La IA puede decirle a su compañera de trabajo cuánto dinero debería ahorrar cada mes para su jubilación, o indicarle a su vecino cuánto alcohol debe beber en las fiestas, pero es posible que ellos no sigan sus consejos, incluso sabiendo que es lo correcto.
Desde Adam Smith, los economistas reconocen la falibilidad humana. En su libro de 1790, La teoría de los sentimientos morales, Smith explica lo siguiente: “Las cualidades más útiles para nosotros son, en primer lugar, la razón en grado superior y el entendimiento (...) y, en segundo lugar, el dominio de sí mismo, que permite abstenernos del placer del momento o soportar el dolor de hoy, a fin de obtener un mayor placer o evitar un dolor más grande en lo futuro”. Así que no se trata únicamente de saber qué nos conviene, sino también de tener el suficiente autocontrol y hacer lo necesario para conseguirlo.
El argumento de Smith se antoja especialmente importante al examinar la gran variedad de actividades humanas que los economistas denominan “producción doméstica”. Este término implica que, por lo general, no consumimos lo que compramos “tal cual”, sino que lo transformamos con tiempo, esfuerzo y habilidad. Podemos comprar una bicicleta estática, pero tenemos que montar en ella. Y lo mismo ocurre con un libro, los ingredientes de una comida, e incluso las relaciones. Debemos dedicar tiempo, esfuerzo y habilidades para poder obtener de ellos lo que realmente queremos. Este proceso queda sujeto al problema del eslabón más débil que definió Michael Kremer en su teoría O-Ring (nombrada así por la pieza de un cohete espacial que falló hace 40 años). En este contexto, ningún otro insumo puede sustituir el esfuerzo, el tiempo y la habilidad que aportan las personas. No importa lo bien equipado que esté su gimnasio, si usted nunca va. Este principio también puede aplicarse a la IA: a medida que esta vaya mejorando, el eslabón más débil será nuestra capacidad para escoger lo que sabemos que es mejor para nosotros. Por lo tanto, los beneficios del autocontrol aumentarán conforme vaya mejorando la capacidad de la IA para brindarnos información.
Capital humano
La curiosidad, el pensamiento crítico y el autocontrol son elementos del capital humano que aumentan cuando se nos alienta —de forma repetida y deliberada— a ser curiosos, pensar de manera crítica y a ejercer el autocontrol. Si acaso duda de que estas habilidades puedan desarrollarse, imagínese el caso contrario: es indudable que los sistemas de enseñanza o los lugares de trabajo que desincentivan los cuestionamientos, la reflexión y la autonomía contribuyen a su erosión.
Es posible que a los lectores preocupados por la singularidad —esto es, el momento en que la IA supere la inteligencia humana y empiece a ser capaz de mejorarse a sí misma— les parezca ingenuo hablar de modelos grandes de lenguaje. Llegados a ese punto, la IA podría convertirse en una nueva especie sobre el planeta. Podemos especular con dos posibles escenarios en lo que respecta a la interacción entre los humanos y la IA. En uno, los humanos y las máquinas son enemigos, como ocurre en la película Matrix, de la dupla Wachowski. El capital humano aportado por cada generación sería el único medio para defenderse, por lo que su acumulación pasaría a ser una prioridad. En el otro escenario, la IA y los humanos coexistirían en paz. ¿Cómo serían nuestras interacciones con seres superinteligentes?
En cierto modo, los humanos ya hemos experimentado este tipo de interacciones al trabajar para grandes organizaciones. Estos “seres superiores” tienen intereses propios y abarcan una capacidad cerebral mucho mayor que la de cualquier humano por sí solo. Aun así, nos ofrecen una retribución a cambio de utilizar nuestros conocimientos y habilidades para alcanzar sus objetivos. Si nuestra relación con la IA, una vez alcanzado el punto de singularidad, se pareciera a nuestra relación con este tipo de organizaciones, la inversión en capital humano seguiría resultando provechosa. En este escenario de coexistencia, algunas personas podrían optar por crear comunidades libres de IA. Este tipo de lugares, con escasa presencia tecnológica, dependerían del capital humano de sus miembros. Por lo tanto, tanto si uno adopta una postura apocalíptica como si no, sigue pareciendo recomendable invertir en el capital humano.
Volviendo al presente, las interesantes iniciativas llevadas a cabo por Meta para contratar talento humano con vistas a desarrollar tecnologías más potentes relacionadas con la IA —a cambio de una remuneración exorbitante— ponen de relieve la importancia del capital humano hoy en día. La era del capital humano no ha llegado a su fin, sino que sigue evolucionando. Piense en la mecanización de la agricultura, en la automatización de la industria manufacturera y, ahora, en la “algoritmización” de los servicios. En cada una de estas etapas se ha reducido el capital humano empleado en algunas esferas, al tiempo que ha sido necesario aumentarlo en otras.
Sin embargo, estas fases no deberían verse como procesos independientes. El capital humano desplazado por los tractores, los sistemas de riego y los fertilizantes hizo que fuera posible el crecimiento manufacturero. Las cadenas de producción con procesos automatizados dieron lugar al auge de los servicios. La IA nos conducirá al próximo boom. Solo porque no podamos imaginarlo a día de hoy no significa que no vaya a ocurrir. Imagínese a nuestros tataratatarabuelos intentando vislumbrar lo que hacen Google o Nvidia hoy en día. Como ya ocurrió en el pasado, el capital humano seguirá siendo pertinente, solo que de una forma distinta y, quizá, difícil de anticipar. En el futuro surgirán nuevos sectores, y gran parte del valor que se genere en ellos provendrá de las habilidades y los conocimientos inherentes a las personas.Las opiniones expresadas en los artículos y otros materiales pertenecen a los autores; no reflejan necesariamente la política del FMI.







