Antes de trabajar en inteligencia artificial ¿por qué no hacemos algo sobre la estupidez natural?
Steve Polyak, neurólogo y neuroanatomista
En el siglo XV la imprenta de tipos móviles marcó el inicio del fin de la Edad Media y desató los cambios que antecedieron a la Modernidad (el Renacimiento, la reforma religiosa, la Ilustración). En el siglo XXI estaría ocurriendo un fenómeno similar impulsado por la inteligencia artificial (IA), vanguardia de la tecnología digital. ¿Incidirá la IA en la historia de la humanidad tan profundamente como en su momento lo hizo la imprenta?
En El momento Gutenberg de la IA (I) se ilustró el concepto de la IA y, desde una perspectiva más amplia que la del «excepcionalismo algorítmico», se señaló cómo y dónde se la produce. A largo plazo, la dinámica de la IA, se señaló, desembocaría en un capitalismo especulativo dirigido por el capital financiero, concentrador e inequitativo, y de lento crecimiento.
Esas reflexiones no son suficientes para corroborar o negar la presencia de un segundo momento Gutenberg. Para avanzar en esa dirección, este artículo compara la forma en la que se ha gestionado el conocimiento en cada uno de esos momentos (suponiendo que la IA está provocando el segundo). Luego se propone una discusión más amplia sobre las implicaciones de la IA. A continuación se mencionan algunos campos de aplicación, así como algunas advertencias a tomar en cuenta en lo inmediato. Se concluye con una breve discusión en torno a la ley de Amara y sus alcances.
Momentos distintos y similares
El conocimiento siempre ha sido valioso, aunque los referentes de su valoración han cambiado conforme ha evolucionado la sociedad a lo largo de la historia. En el siglo XV esa valoración estaba determinada por el poder de la Iglesia Católica, mientras que en el XXI está definida por el poder del dinero, expresión del derecho de propiedad privada.
Cuando el taller de Gutenberg imprimía las primeras 180 biblias, faltaban más de cuatro décadas para que la expedición de Cristóbal Colón llegue a la isla Guanahani en las Indias Occidentales, en octubre de 1492. El 2022, año del lanzamiento de ChatGPT, también fue el año con más lanzamientos espaciales en la historia, la mayoría de SpaceX y de la República Popular China.
En el siglo XV Europa vivió una etapa de transición. La expansión del comercio impulsó el desarrollo de la banca y el crédito; la monarquía, dispuesta a desafiar el dominio papal, preparaba el aparecimiento del mercantilismo. En el primer tercio del siglo XXI se vive otra transición, liderada por el capital financiero y la tecnología; la globalización liquidó el fordismo conducido por Estados Unidos. La República Popular China tomó el liderazgo económico y el eje dinámico de la economía mundial se desplazó del Atlántico norte hacia la cuenca del Pacífico.
Son épocas diferentes, pero con procesos similares. En ambas el poder central se vio asediado. En el siglo XV, los reyes europeos fortalecieron su autoridad y el control de sus reinos; decidieron nombrar a la jerarquía eclesiástica y gravar las propiedades y las rentas de las órdenes religiosas. Los intereses de la nobleza feudal y de la Iglesia Católica se vieron afectados. En el siglo XXI China y Rusia, secundados por los BRICS, también desafían el orden unipolar usufructuado por EE.UU. La polarización social y económica, la desigualdad y el desprecio al multilateralismo que caracterizan al EE.UU. actual han contribuido a minar una hegemonía incontestable hasta hace dos décadas.
En ambas épocas se cuestionó la ideología dominante. En el siglo XV la disipación, la venta de cargos y el nepotismo eclesiales, y las herejías de Juan Wycliffe en Inglaterra; Jan Hus en Bohemia y Girolamo Savonarola en Florencia socavaron la autoridad del papado. En el siglo XXI la crisis financiera mundial de 2008-2009, y las secuelas de la pandemia de 2019-2020 evidenciaron los límites del neoliberalismo, extendido en el planeta entero por casi medio siglo.
En ambas épocas el factor desencadenante del «momento» (la imprenta en el siglo XV y la IA en el XXI) surgió en medio de estructuras institucionales diseñadas para controlar y monopolizar el conocimiento. En el Medioevo las artes liberales (gramática, retórica, lógica, aritmética, geometría, astronomía y música), la medicina, el derecho y la arquitectura estuvieron condicionados por el dogma religioso y la escolástica. En la era de la IA el conocimiento es un bien intangible privado protegido por derechos de propiedad intelectual. Esta protección cubre los algoritmos, el software y el hardware, y es global desde enero de 1995, fecha en la que entró en vigor el Acuerdo sobre los aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (ADPIC), contenido en el Anexo 1C del Acuerdo de Marrakech que estableció la Organización Mundial de Comercio (https://bit.ly/4ezMJsL). Durante tres décadas los ADPIC han contribuido a ampliar la brecha tecnológica y a transferir recursos desde los países menos desarrollados hacia los desarrollados.
Más aún, por sobre las competencias de la OMC, EE.UU. se arroga jurisdicción extraterritorial para sancionar unilateralmente a quienes considere infractores, según lo determine el United States Trade Representative (USTR), empeñado en que «los titulares estadunidenses de derechos de propiedad intelectual tengan acceso abierto y oportunidades justas para usar y beneficiarse de su propiedad intelectual en todo el mundo» (https://bit.ly/4kGCDbj).
En el siglo XV la imprenta, aunque en un principio dedicada básicamente a imprimir biblias y textos religiosos, vulneró irreversiblemente el poder de la Iglesia Católica para controlar el conocimiento y posibilitó su crecimiento y expansión al margen de los cánones eclesiásticos. ¿Podrá la IA replicar una transformación liberatoria equivalente? ¿Servirá para impulsar la reforma de los ADPIC y/o desvanecer el poder del USTR requeridos imperiosamente para democratizar el conocimiento? En fin, ¿para transparentar los modelos de deep learning, auténticas cajas negras de algoritmos condicionantes de la conducta humana?
Ética y paradoja
Tras el colapso del fordismo, la automatización y la digitalización contribuyeron a reestructurar la producción de bienes y dotaron al sistema financiero de las herramientas para acelerar su dominio mundial. Recién nacido, el Internet se convirtió en la red de información y en metáfora de un orden social alternativo, asediado por el caos. Florecieron plataformas de economía colaborativa (Uber, Airbnb, …), software de código abierto (Linux, Mozilla…), crowdsourcing y crowdfunding, y comunidades de contenido generado por los usuarios (Wikipedia). Fueron intentos por eludir el poder y derribar barreras.
Con el surgimiento de la IA, el capital financiero se dio cuenta de que podía ser un instrumento de control, y que los algoritmos tenían potencial para engañar y persuadir. Las plataformas ajustaron sus estructuras para facilitar la captura de datos (data scraping) y maximizar los ingresos por publicidad. Rápidamente el poder corporativo convirtió a los enemigos del orden fordista en sus aliados.
El mundo llegó a la era de la IA desprovisto de valores que pudieran trascender lo puramente pecuniario y productivo. Una era dominada por lo que la filósofa y poeta Alejandra Pizarnik llama «mirada comerciante», que lo mercantiliza todo, instrumentalizándolo para extraer rendimiento. Carlos Javier González, filósofo y psicólogo del trabajo, lo expresa con claridad: «… la realidad humana ha sido mediatizada por los engranajes y la retórica del mercado, hasta el punto de que incluso nos referimos a nuestra vida anímica con terminología empresarial: ‘rentabilidad de las emociones’, ‘gestionar los afectos’ o ‘maximizar las potencialidades’» (https://bit.ly/3IbPQLp).
Ante esta realidad el Foro Global sobre la Ética de la IA 2024, organizado por la Unesco, advirtió que, como ninguna otra especialidad, la IA necesita una «brújula ética». La tecnología de la IA está redefiniendo el trabajo, las relaciones sociales y la forma de vivir. Puede aportar grandes beneficios en muchos ámbitos, «… pero sin unas barreras éticas corre el riesgo de reproducir los prejuicios y la discriminación del mundo real, alimentar las divisiones y amenazar los derechos humanos y las libertades fundamentales» (https://bit.ly/3TqxE3a).
Esta retórica resulta insignificante y estéril en un mundo en el que el poder económico abandonó la competencia para edificar estancos, perseguir rentas y especular. Poder que emana del «…control de los algoritmos, los datos y las plataformas que ayudan a que nuestras vidas sean más eficientes, pero también más opacas, desconcertantes y destructivas», dicen Peter Tornberg y Justus Uitermark, científicos sociales de la U. de Ámsterdam en un artículo publicado recientemente en Noema (https://bit.ly/4ktZ82J).
La IA se ha convertido en algo equivalente a la carrera armamentista de la guerra fría. La confianza mutua es uno de los valores a punto de desaparecer; ya nadie concibe contratar de palabra; el poder del dinero exige cláusulas y avales. No obstante, los apologistas de la IA piden confiar. En cualquier proyecto de IA habita una paradoja: a pesar de los riesgos, se prioriza el avance propio, antes de que el otro lo logre y domine el mundo. Los científicos y técnicos de la IA, empeñados en acelerar la carrera, desconfían de los otros, pero confían en sus modelos.
Hace poco Jeremy Shapiro, director de investigación del Consejo Europeo de Relaciones Exteriores, publicó en Persuasion un artículo escrito con ChatGPT, en el que la conclusión resulta menos desesperanzadora pero igualmente inquietante. La Máquina, dice Shapiro, refiriéndose a ChatGPT, podía mejorar todos sus trucos de escritor y ensayista. Pero no tiene ego, no pasa tiempo pensando en una metáfora, no necesita impresionar a quien le paga ni le asalta la urgencia de limpiar la cocina a medio escribir. El Pensador dice, refiriéndose a sí mismo, conoce los argumentos. «…La Máquina no entiende nada. Es solo reconocimiento de patrones disfrazado de inteligencia. Carece de juicio. No tiene experiencia; simplemente refleja un modelo estadístico de lo que todos los demás han experimentado. Por lo tanto, no puede pensar» (http://bit.ly/45WHqS3).
La IA es un ente extraño no confiable. En el China Development Forum 2025 (Beijing, 23-24 de marzo de 2025) Yuval Noah Harari reiteró que la IA es un agente no orgánico, un alien dotado de inteligencia –no humana– que pronto podría tomar decisiones y concebir objetos nunca imaginados. Podría inventar nuevas armas, modelos financieros y hasta nuevas ideologías y religiones (http://bit.ly/YNH-CDF). Esta es la disyuntiva ética crucial que plantea la IA. Nadie tiene la menor idea de qué ocurrirá cuando millones de agentes de IA interactúen con millones de seres humanos. Es más difícil todavía predecir qué sucederá cuando esos millones de agentes interactúen entre ellos, prescindiendo de sus creadores.

La visión optimista
La visión optimista de la IA se sustenta en las expectativas de sus efectos en productividad y eficiencia. Como se está convirtiendo en una tecnología multipropósito, sus más precisas predicciones, recomendaciones y decisiones prometen mejorar el bienestar, ayudar a resolver desafíos complejos y, sobre todo, a obtener más ganancias optimizando la producción de bienes y servicios en cualquier actividad.
Pero incorporarla –en cualquier actividad– depende de muchos factores. La Federación Internacional de Futbol Asociado (FIFA) demoró años en aceptar el VAR (video assistant referee). No pocos directivos, aficionados y jugadores creían que los errores arbitrales eran parte de la esencia del juego, que las revisiones interrumpirían el ritmo de los partidos y que su implementación implicaba costos derivados del cambio tecnológico (cámaras de alta definición, salas de video, equipos de comunicación, capacitación…). El VAR emplea IA para detectar los offside y los goles fantasma, y para procesar estadísticas en apoyo a las decisiones del árbitro central. Luego de un largo periodo de prueba, finalmente se lo usó en el campeonato mundial de Rusia (2018) y desde entonces parece imposible no anular un gol como el de la mano de dios (Maradona, Copa del Mundo de 1986).
La IA ya está transformando el mundo, pero los resultados y la velocidad con la que lo haría todavía son un albur. PricewaterhouseCoopers (PwC) vaticina que en 2030 la economía mundial será 14% mayor a lo que sería sin IA, gracias a un incremento absoluto adicional del PIB mundial de USD 15,7 billones (http://bit.ly/4lIJRw8). Pero no explicita los supuestos subyacentes sobre factores clave: velocidad de adopción de la IA en las empresas, capacitación de la mano de obra, los próximos avances de esta tecnología, el grado de integración con la robotización para las tareas mecánicas, las políticas públicas para promover o retrasar su adopción, etc. (http://bit.ly/40ar8kY).
Desde 2016 la adopción de IA ha demandado un incremento sustancial de la inversión de capital en tecnología y automatización. Para aprovecharla se requiere inversiones complementarias en datos, talento y procesos digitalizados, así como cambiar la estructura organizacional de las empresas. Por lo tanto, su adopción variará entre empresas (OECD, Artificial Intelligence in Society, 2019). En todo caso, las ramas de actividad en las que la adopción de la IA parece más atractiva son las siguientes:
- Transporte: vehículos autónomos, mapas de alta definición y optimización de rutas;
- Salud: diagnóstico y prevención de enfermedades, nuevos tratamientos y drogas, intervenciones personalizadas y herramientas de monitoreo muy precisas;
- Seguridad pública: vigilancia preventiva y evaluación de riesgos de reincidencia;
- Seguridad digital: detección automatizada y respuesta en tiempo real;
- Agricultura: monitoreo de cosechas y suelos, y predicción del impacto de los factores ambientales en el rendimiento de las cosechas; y
- Mercadeo y publicidad: personalizar contenidos, anuncios, bienes y servicios, precios y recomendaciones por medio de la minería de datos del comportamiento de los consumidores.
La captura y procesamiento de grandes cantidades de información acelerará los descubrimientos científicos. En áreas como la ingeniería de materiales la IA aumenta entre 13 y 15% la eficiencia de la productividad de I+D de los científicos norteamericanos y se descubre 44% más materiales, lo que ha generado un aumento de 39% en las solicitudes de patentes y de 17% en los prototipos de productos con esos nuevos compuestos. Algo similar ocurre en la industria farmacéutica (http://bit.ly/40ar8kY).
En el sector financiero puede acontecer una disrupción radical en cuanto a detección de fraudes, evaluación de riesgos de crédito, reducción de costos de los servicios, automatización de las transacciones y apoyo al cumplimiento normativo. Como la IA analiza grandes volúmenes de información en tiempo real, identificará patrones ocultos y mejorará la toma de decisiones de inversión, acelerará la innovación y eficiencia en los mercados financieros. Eventualmente, podría apoyar la identificación de organizaciones delictivas que operan en el denominado lavado de activos y fraudes financieros a personas, a empresas y al sector público.
Las primeras alertas
Las visiones eclécticas sobre la IA se basan en los efectos desplazamiento y concentración. Conforme avanza inexorablemente, también crece la preocupación por su potencial para concentrar la riqueza y el poder entre unos pocos y al mismo tiempo erosionar el valor económico del trabajo humano. Las alertas más inminentes se encuentran en los ámbitos del gobierno y la educación.
Peter Thiel, inversionista de Facebook, es cofundador y presidente de Palantir Technologies, especializada en el análisis de big data. El nombre de esta empresa habría sido tomado de El señor de los anillos de J.R.R. Tolkien: Sauron, el Señor Oscuro, utiliza un palantir (una piedra vidente) que le permite ver a distancia y distorsionar la verdad; lo usa para manipular y engañar.
Palantir Technologies analiza información sobre características físicas y otros datos personales de redes sociales para identificar y vigilar personas. Ha sido contratada por el gobierno norteamericano para que las agencias federales compartan sus datos (Stopping Waste, Fraud, and Abuse by Eliminating Information Silos, https://bit.ly/4nwDApe). Ahora la información personal de los norteamericanos –incluso cuentas bancarias y reclamos médicos– recopilada en los departamentos de Seguridad Nacional, Defensa, Salud y Servicios Humanos, Administración de Seguridad Social y el Servicio de Impuestos Internos están analizados en Palantir Technologies. El gobierno podría usar ese big data para impulsar su agenda política, perseguir y deportar migrantes, castigar a sus detractores, o espiar a sus enemigos. Palantir Technologies fue escogida por el Departamento de Eficiencia Gubernamental (DOGE) dirigido hasta hace poco por Elon Musk… fundador de Pay Pal junto a Thiel. (https://bit.ly/4keAZgE).
Un equipo de investigadores del MIT Media Lab publicó recientemente los resultados de un experimento con 54 estudiantes que debían redactar ensayos para sus exámenes de admisión a la universidad (https://bit.ly/40eJPUk). El objetivo era analizar la actividad cerebral cognitiva, el tipo de esfuerzo y las repercusiones conductuales derivadas del uso de ChatGPT. Un primer grupo redactó el ensayo sin ayuda, un segundo grupo lo hizo con un motor de búsqueda clásico (como Google) y un tercero con ChatGPT.
Nataliya Kosmyna, directora del equipo, concluye que la IA ofrece incalculables oportunidades para ampliar el aprendizaje y el acceso a la información, pero que su «impacto potencial en el desarrollo cognitivo, pensamiento crítico y autonomía intelectual demanda consideraciones muy cuidadosas e investigación continua» (https://bit.ly/3HPxLmc). Las conclusiones más relevantes, todavía pendientes de evaluación por pares, sugieren que el uso repetido de la IA sustituiría los procesos cognitivos exigentes, necesarios para pensar en forma autónoma. En particular:
- Cuanto mayor es el apoyo externo, menor es la amplitud de las zonas activas del cerebro: el primer grupo presentó las redes neuronales más extensas; el segundo mostró un compromiso intermedio; y el tercero expuso la menor conexión global.
- El uso de ChatGPT aumenta el rendimiento, pero tiene efectos en la arquitectura cognitiva: el primer grupo mostró un uso preponderante de amplias redes neuronales distribuidas; el segundo presentó estrategias híbridas de gestión de la información; y el tercero priorizó la optimización de la integración procedimental de las sugerencias generadas por la IA.
- El tercer grupo mostró una reducción de la conectividad cerebral (83% de ellos afirmó tener dificultades para citar su ensayo). Aparentemente, en este grupo la codificación de la memoria era superficial y posiblemente el contenido semántico no se habría internalizado plenamente.
- Cuando el tercer grupo fue obligado a prescindir de ChatGPT sus integrantes mostraron dificultades para recrear una actividad cerebral igual de rica y se concentraron en un conjunto más reducido de ideas.
La validación, prueba y desarrollo de la IA generativa (como ChatGPT) requiere inmensas cantidades de información acopiada mediante data scraping (extracción automática de información en sitios web, bases de datos o plataformas de terceros), que afecta directamente a creadores y propietarios de esos recursos, en especial cuando se los extrae sin consentimiento y sin pagar a sus propietarios. El data scraping ha vulnerado por décadas varios derechos de propiedad intelectual: copyright, derechos sobre bases de datos, marcas registradas, secretos comerciales, publicidad y derechos morales (OECD, Intellectual Property Issues in Artificial Intelligence Trained on Scraped Data, 2025).
Redefinir los derechos de propiedad intelectual en estos ámbitos es indispensable para acotar una rapiña violenta que ha durado décadas. La OECD sugiere «en forma internacionalmente coordinada», negociar un «código de conducta para el data scraping, con contratos y herramientas tecnológicas estandarizados, e iniciativas para construir conocimiento…» (OECD, op. cit.). Esto debería ser un apéndice de los ADPIC, bajo la competencia de la OMC. Pero en tiempos anti-multilateralismo sería como remar contracorriente.
La ley de Amara
Según el científico y futurólogo Roy Amara, presidente del Institute for the Future (1971-1990), a corto plazo se tiende a sobreestimar los efectos de una nueva tecnología y a subestimarlos en el largo plazo. El término inteligencia artificial se acuñó en 1956; pasaron 30 años más para el aparecimiento de los algoritmos para entrenar redes neuronales y una década más para que Deep Blue venza al ajedrecista Gary Kasparov (ver diagrama).
En el siglo XXI el avance de la IA ha sido explosivo. En noviembre de 2022 se lanzó ChatGPT, modelo generativo de IA que en dos meses captó 100 millones de usuarios (http://bit.ly/4f1LeEc). En 2025 han aparecido los agentes IA (como Operator Agent de OpenAI o Jules de Google) capaces de responder, planificar, tomar decisiones y ejecutar tareas de manera autónoma. Sin duda estamos en la era de la IA.
En el corto plazo los detractores y los partidarios de la IA estarían sobrestimando sus consecuencias. El Boston Consulting Group predijo en 2015 que hasta 2025 el stock mundial de robots se cuadruplicaría, lo que según estimaciones de D. Acemoglu y P. Restrepo provocaría en EE.UU. una reducción en la relación empleo/población de 1% y una ralentización del crecimiento de la masa salarial de 2% entre 2015 y 2025 (Robots and Jobs: Evidence from US Labor Market, Journal of Political Economy 2020). Pero el World Economic Forum sostiene que la IA creará más empleos de los que podría destruir (http://bit.ly/4nSXgDO). Estas opiniones no consideran los efectos del envejecimiento de la población en todo el mundo.
Los partidarios de la IA afirman que la optimización de los procesos productivos reducirá las emisiones de gases de efecto invernadero (GEI) y al mismo tiempo incrementará la producción de bienes y servicios. Si la reducción de GEI resulta proporcionalmente menor al crecimiento del producto, la IA se convertiría en un factor acelerador del calentamiento global.
Ray Dalio, fundador de Bridgewater (fondo de gestión de activos), anticipa que en las próximas dos décadas ocurrirá un desacoplamiento del empleo: la IA acelerará la productividad, pero desplazará a los trabajadores más rápido de lo que surgirán nuevos empleos. (http://bit.ly/3Iphvsu). Según Forbes en un plazo de 30 años la IA habrá remodelado la mayoría de los empleos, y Goldman Sachs predice que desaparecerían unos 300 millones de puestos de trabajo. 14% de la fuerza laboral mundial se verá obligada a cambiar de ocupación debido a la automatización, según McKinsey (http://bit.ly/4eMBSfp).
Tal vez la mejor forma de auscultar lo que podría ocurrir en el largo plazo sea recapitular sobre la personalidad y comportamientos que identifican a quienes gerencian el avance de la IA: Jen-Hsun Huang (Nvidia), Satya Nadella (Microsoft), Tim Cook (Apple), Sundar Pichai (Google-Alphabet), Elon Musk (Tesla), Sam Altman (OpenAi), Ren Zhengfei (Huawei), Wang Chuanfu (BYD), Lei Jun (Xiaomi), Pony Ma (Tencent), C.C. Wei (TSMC), y Han Jong-hee (Samsung Electronics). Probablemente –considerando su ethos cultural– gestionarán un sistema social dirigido por un pequeñísimo grupo de privilegiados inmensamente ricos y poderosos, mientras la gigantesca mayoría sin las habilidades, el capital o el acceso a la nueva infraestructura no participará de manera significativa de los frutos de la nueva era.
Harari, por lo general optimista, en esta ocasión avizora un peligro mayor. En su opinión, la humanidad incurriría en un gran error si persiste la desconfianza entre unos y otros y, al mismo tiempo, se decide confiar en un agente alienígena. La única manera en la que la humanidad podría florecer en la era de la IA es controlándola en forma conjunta, sostiene. Pero si seguimos peleando entre nosotros (se refiere a la especie humana), la IA nos controlará. Antes de proseguir la carrera de la IA superinteligente, sería más prudente reconstruir la confianza. «Por desgracia, estamos haciendo exactamente lo contrario», concluye (http://bit.ly/YNH-CDF).
Al terminar la Edad Media y dar paso a la Edad Moderna, el primer momento Gutenberg convirtió la idea del progreso en algo real. El segundo momento Gutenberg está terminando con la Edad Moderna para dar paso a una nueva era. Las expectativas son extraordinarias, pero sin una brújula ética que marque la ruta para escapar de la mirada mercantilista y al mismo tiempo establecer un nuevo orden mundial que garantice una gestión democrática y transparente del conocimiento, en el mejor de los casos la era de la IA proveerá vidas opacas, desconcertadas y destructivas. Y en el peor, millones y millones de vidas irrelevantes y prescindibles.
[1] Este artículo ha sido elaborado con la ayuda de dos modelos de inteligencia artificial: Gemini (Google) y Perplexity (Perplexity AI Inc.). Gemini es un LLM competidor directo de GPT4, capaz de generar textos, analizar imágenes, procesar y generar audio, de comprender el contenido de videos y de depurar diversos lenguajes de programación. Perplexity también utiliza LLM combinado con su propio modelo. Fue fundada en 2022 por técnicos que trabajaron en Google AI y Open AI, con una inversión proporcionada por varias firmas de capital de riesgo y Jeff Bezos.