IA generativa: ¿Demasiado gasto para poco beneficio?
Goldman Sachs ha publicado un informe titulado «IA generativa: ¿demasiado gasto para poco beneficio?» que cuestiona la inteligencia artificial generativa.
El 25 de junio de 2024, Goldman Sachs ha publicado un informe de 31 páginas (titulado «Gen AI: Too Much Spend, Too Little Benefit?«) que es la crítica más dura a la inteligencia artificial generativa que se ha publicado hasta ahora.
El informe cubre los beneficios de la productividad de la IA (que Goldman señala que probablemente sean limitados), los beneficios de la IA (que probablemente sean significativamente más limitados de lo previsto) y las demandas de energía de la IA (que probablemente sean tan significativas que las empresas de servicios públicos tendrán que gastar casi un 40% más en los próximos tres años para mantenerse al día con la demanda de hiperescaladores como Google y Microsoft).
Este informe es tan importante porque a Goldman Sachs, como a cualquier banco de inversión, no le importan los sentimientos de nadie a menos que le resulte rentable. Está dispuesto a promocionar cualquier cosa con tal de ganar dinero. En mayo, se afirmaba que la IA (no sólo la generativa) estaba «mostrando signos muy positivos de impulsar eventualmente el PIB y la productividad»»», a pesar de que dicho informe enterraba en su interior constantes recordatorios de que la IA aún no había impactado en el crecimiento de la productividad, y afirma que sólo alrededor del 5% de las empresas informan que utilizan IA generativa en la producción regular.
El hecho de que Goldman se vuelva de repente contra el movimiento de la IA sugiere que están muy preocupados por el futuro de la IA generativa, y casi todo el mundo está de acuerdo en un punto fundamental: cuanto más tarde esta tecnología en hacer ganar dinero a la gente, más dinero tendrá que ganar.
El informe incluye una entrevista con el economista Daron Acemoglu, del MIT (página 4), catedrático del Instituto que publicó en mayo un artículo titulado «The Simple Macroeconomics of AI» (La simple macroeconomía de la IA) en el que sostenía que «las ventajas de la IA generativa para la productividad de EE.UU. y, en consecuencia, para el crecimiento del PIB serán probablemente mucho más limitadas de lo que esperan muchos analistas». Un mes más tarde, Acemoglu se ha vuelto más pesimista y ha declarado que «los cambios verdaderamente transformadores no se producirán rápidamente y que probablemente pocos -si es que se produce alguno- se producirán en los próximos 10 años», y que la capacidad de la IA generativa para afectar a la productividad global es baja porque «muchas de las tareas que los humanos realizan actualmente… son polifacéticas y requieren una interacción con el mundo real, que la IA no podrá mejorar materialmente a corto plazo».
Lo que hace que esta entrevista -y, en realidad, este documento- sea tan notable es lo exhaustiva y agresivamente que ataca cada pedacito de marketing colateral que tiene el movimiento de la IA. Acemoglu cuestiona específicamente la creencia de que los modelos de IA simplemente se volverán más potentes a medida que les arrojemos más datos y capacidad de GPU, y plantea específicamente una pregunta: ¿qué significa «duplicar las capacidades de la IA»? ¿Cómo mejora eso algo como, por ejemplo, un representante de atención al cliente?
Y este es un problema específico del discurso de los fantasiosos de la IA. Se basan en gran medida en la idea de que estos grandes modelos lingüísticos (LLM) no sólo serán más potentes, sino que el hecho de serlo les otorgará de algún modo la capacidad de hacer… algo. Como dice Acemoglu, «¿qué significa duplicar las capacidades de la IA?».
No, en realidad, ¿qué significa «más»? Aunque se podría argumentar que significará procesos generativos más rápidos, en realidad no hay un barómetro de lo que significa «mejor», y tal vez por eso ChatGPT, Claude y otros LLM todavía tienen que dar un salto más allá de ser capaces de generar cosas. Puede que el LLM Claude de Anthropic sea «el mejor de su clase», pero eso sólo significa que es más rápido y preciso, lo cual es genial pero no es el futuro ni revolucionario ni necesariamente bueno.
Hay que añadir que estas son las preguntas que deberíamos haber estado haciendo todo el tiempo. La IA genera resultados a partir de entradas y peticiones basadas en texto, peticiones que pueden ser igualmente específicas e intrincadas, pero la respuesta es siempre, por obvio que parezca, generada en el momento, lo que significa que no hay «conocimiento» real o, de hecho, «inteligencia» operando en ninguna parte del proceso. Como resultado, es fácil ver cómo esto mejora, pero mucho, mucho más difícil -si no imposible- ver cómo la IA generativa nos lleva más lejos de donde ya estamos.
¿Cómo puede GPT -un modelo basado en transformadores que genera respuestas probabilísticas (es decir, que la siguiente parte de la generación tiene más probabilidades de ser la correcta) basándose por completo en datos de entrenamiento- hacer algo más que generar párrafos de texto ocasionalmente precisos? ¿Cómo se diferencian estos modelos cuando la mayoría se entrenan con los mismos datos de entrenamiento que ya se están agotando?
No se presta suficiente atención a la crisis de los datos de entrenamiento, pero es tan grave que podría detener (o ralentizar drásticamente) el desarrollo de la IA en un futuro próximo. Según un artículo publicado en la revista Computer Vision and Pattern Recognition, para conseguir una mejora lineal en el rendimiento de un modelo se necesita una cantidad de datos exponencialmente grande.
O, dicho de otro modo, cada paso adicional resulta cada vez más caro (y exponencialmente). Según Dario Amodei, Director General de Anthropic, el entrenamiento de los modelos de IA actualmente en desarrollo costará hasta 1.000 millones de dólares, y dentro de tres años podríamos ver modelos que cuesten hasta «diez o cien mil millones» de dólares, es decir, aproximadamente tres veces el PIB de Estonia.
Acemoglu duda de que los LLM puedan llegar a ser superinteligentes, y que incluso sus estimaciones más conservadoras de aumento de la productividad «pueden resultar demasiado grandes si los modelos de IA tienen menos éxito a la hora de mejorar tareas más complejas». Y creo que esa es realmente la raíz del problema.
Todo este entusiasmo, cada segundo de bombo y platillo se ha construido sobre la idea de que la industria de la inteligencia artificial -liderada por la IA generativa- revolucionará de algún modo todo, desde la robótica hasta la cadena de suministro, a pesar de que la IA generativa no va a resolver realmente estos problemas porque no está hecha para ello.
Aunque Acemoglu tiene algunas cosas positivas que decir -por ejemplo, que los modelos de IA podrían entrenarse para ayudar a los científicos a concebir y probar nuevos materiales (lo que ocurrió el año pasado)- su veredicto general es bastante duro: que el uso de IA generativa y «demasiada automatización demasiado pronto podría crear cuellos de botella y otros problemas para las empresas que ya no tienen la flexibilidad y la capacidad de resolución de problemas que proporciona el capital humano». En esencia, sustituir a los humanos por IA podría romperlo todo si eres uno de esos jefes que en realidad no saben de qué coño están hablando.
En la página 6, Joseph Briggs de Goldman Sachs argumenta que la IA generativa «probablemente conducirá a un aumento económico significativo» basado enteramente en la idea de que la IA sustituirá a los trabajadores en algunos trabajos y luego les permitirá conseguir empleos en otros campos. Briggs también sostiene que «la automatización total de las tareas expuestas a la IA que probablemente se produzca en un horizonte más largo podría generar un ahorro de costes significativo», lo que supone que la IA generativa (o la propia IA) sustituirá realmente estas tareas.
También hay que añadir que, a diferencia de todas las demás entrevistas del informe, Briggs confunde continuamente IA e IA generativa, y en un momento dado sugiere que «los recientes avances de la IA generativa» están «presagiando la aparición de una superinteligencia».
Francois Chollet, investigador de IA en Google, argumentó recientemente que los LLM no pueden conducir a la AGI, explicando (en detalle) que los modelos como GPT simplemente no son capaces del tipo de razonamiento y teorización que hace funcionar a un cerebro humano. Chollet también señala que incluso los modelos construidos específicamente para completar las tareas del Corpus de Abstracción y Razonamiento (una prueba de referencia para las habilidades de IA y la verdadera «inteligencia») sólo lo hacen porque han sido alimentados con millones de datos de personas que resuelven la prueba, que es algo así como medir el coeficiente intelectual de alguien basándose en que estudian muy duro para completar una prueba de CI, excepto que aún más tonto.
La razón por la que hay que mencionar las superinteligencias -o AGI (inteligencia general artificial)- es porque toda defensa de la IA generativa es un intento deliberado de eludir el problema de que la IA generativa no automatiza realmente muchas tareas. Aunque es buena generando respuestas o creando cosas a partir de una petición, no hay una interacción real con la tarea, ni con la persona que le encarga la tarea, ni considera en absoluto lo que la tarea necesita: sólo la abstracción de «cosa dicha» a «salida generada».
Tareas como tomar el pedido de alguien y transmitirlo a la cocina de un restaurante de comida rápida pueden parecer elementales para la mayoría de la gente (no voy a escribir fácil, trabajar en comida rápida apesta), pero no lo son para un modelo de IA que genera respuestas sin entender realmente el significado de ninguna de las palabras. El año pasado, Wendy’s anunció que integraría su sistema generativo de pedidos «FreshAI» en algunos restaurantes, y hace unas semanas se reveló que el sistema requiere intervención humana en el 14% de los pedidos. En Reddit, un usuario señaló que la IA de Wendy’s requería regularmente tres intentos para que les entendiera, y te cortaba si no hablabas lo suficientemente rápido.
A White Castle, que implantó un sistema similar en colaboración con Samsung y SoundHound, no le fue mucho mejor: el 10% de los pedidos requirieron intervención humana. El mes pasado, McDonald’s suspendió su propio sistema de pedidos con inteligencia artificial, que había desarrollado con IBM y desplegado en más de 100 restaurantes, probablemente porque no era muy bueno: un cliente pidió literalmente cientos de nuggets de pollo. Sin embargo, para que quede claro, el sistema de McDonald’s no se basaba en IA generativa.
Por lo menos, esto ilustra la desconexión entre quienes crean sistemas de IA y lo mucho (o, más bien, lo poco) que entienden los trabajos que desean eliminar.
Otra cosa a tener en cuenta es que, además de que la IA generativa se equivoque con estos pedidos, Wendy’s sigue necesitando seres humanos para hacer la comida. A pesar de todo este bombo, toda esta atención mediática, toda esta increíble inversión, las supuestas «innovaciones» ni siquiera parecen capaces de sustituir los puestos de trabajo para los que están pensadas.
La realidad es que la IA generativa no sirve para reemplazar puestos de trabajo, sino para mercantilizar distintos actos de trabajo y, en el proceso, los primeros trabajos creativos que ayudan a la gente a construir carteras para avanzar en sus industrias.
Los autónomos cuyo medio de vida está siendo sustituido por jefes que utilizan IA generativa no están siendo «sustituidos» tanto como se les está mostrando el poco respeto que muchos jefes tienen por su oficio o por el cliente al que supuestamente sirven. Los redactores publicitarios y los artistas conceptuales realizan un trabajo mucho más valioso que cualquier IA generativa, pero una economía dominada por directivos que no aprecian el trabajo (o no participan en él) significa que estos puestos de trabajo están siendo asaltados por LLM que producen material que parece y suena igual, hasta el punto de que ahora se paga a los redactores publicitarios para que les ayuden a sonar más humanos.
Uno de los malentendidos fundamentales de los jefes que sustituyen a estos trabajadores por IA generativa es que no sólo estás pidiendo una cosa, sino externalizando el riesgo y la responsabilidad. Cuando se contrata a un diseñador para que haga un logotipo, esperamos que nos escuche, que añada su toque personal y que haga borradores hasta que quede algo que nos guste. Se le paga no sólo por su tiempo, sus años de aprendizaje de su oficio y el resultado en sí, sino para que la carga final de la producción no sea nuestra, y su experiencia significa que pueden adaptarse a circunstancias que a nosotros no se nos habrían ocurrido. No son cosas que se puedan entrenar en un conjunto de datos, porque derivan de experiencias dentro y fuera del proceso creativo.
Aunque se puede «enseñar» a una IA generativa cómo son mil millones de imágenes, la IA no tiene calambres en las manos, no tiene estados de ánimo, ni puede inferirlos a partir de medios escritos o visuales, porque las emociones humanas son extremadamente raras, al igual que nuestros estados de ánimo, nuestros cuerpos y nuestras existencias en general. Incluso el texto más mediocre jamás escrito es, en algún nivel, una colección de experiencias. Y sustituir por completo a cualquier creativo es muy poco probable si lo haces a base de copiar un millón de trozos de la tarea de otro.
La parte más fascinante del informe (página 10) es una entrevista con Jim Covello, Jefe de Investigación de Renta Variable Global de Goldman Sachs. Covello no es una persona que le suene al normal de los mortales a menos que seas, por la razón que sea, un gran aficionado a los semiconductores, pero siempre ha estado en el lado correcto de la historia, nombrado el mejor analista de semiconductores por II Research durante años, detectando con éxito el deterioro de los fundamentos de varias de las principales empresas de chips mucho antes que otros.
Y Jim, en términos inequívocos, cree que la burbuja de la IA generativa está llena de mierda.
Covello cree que el gasto combinado de todas las partes del boom de la IA generativa -centros de datos, servicios públicos y aplicaciones- costará un billón de dólares sólo en los próximos años, y plantea una pregunta muy sencilla: «¿qué problema de un billón de dólares resolverá la IA?». Señala que «sustituir puestos de trabajo con salarios bajos por tecnología tremendamente costosa es básicamente el polo opuesto de las transiciones tecnológicas anteriores [que él ha] presenciado en los últimos treinta años.»
Uno de los mitos que Covello desmonta es la comparación de la IA generativa «con los primeros días de Internet», señalando que «incluso en su infancia, Internet fue una solución tecnológica de bajo coste que permitió al comercio electrónico sustituir a las costosas soluciones tradicionales», y que «la tecnología de la IA es excepcionalmente cara, y para justificar esos costes, la tecnología debe ser capaz de resolver problemas complejos, algo para lo que no está diseñada«.
Covello también rechaza la sugerencia de que la tecnología empieza siendo cara y se abarata con el tiempo como «historia revisionista», y que «el mundo de la tecnología es demasiado complaciente en la suposición de que los costes de la IA disminuirán sustancialmente con el tiempo». En concreto, señala que la única razón por la que la ley de Moore fue capaz de permitir chips más pequeños, más rápidos y más baratos fue porque competidores como AMD obligaron a Intel (y a otras empresas a competir), algo que no parece estar ocurriendo realmente con Nvidia, que tiene un dominio casi absoluto de las GPU necesarias para manejar la IA generativa.
Aunque hay empresas que fabrican GPU destinadas al mercado de la IA (especialmente en China, donde las restricciones comerciales de EE.UU. impiden a las compañías locales comprar tarjetas de alta potencia como la A100 por temor a que se destinen al ejército), no lo hacen a la misma escala, y Covello señala que «el mercado es demasiado complaciente con la certeza de la disminución de costes».
También señala que los costes son tan altos que, incluso si bajaran, tendrían que hacerlo drásticamente, y que la comparación con los primeros días de Internet (donde las empresas a menudo dependían de servidores de 64.000 dólares de Sun Microsystems y no había AWS, Linode o Azure) «palidece en comparación» con los costes de la IA, y eso incluso sin incluir la sustitución de la red eléctrica, una necesidad para mantener este auge.
Covello añade que el adagio común de que la gente no creía que los smartphones fueran a ser grandes era falso. A principios de la década de 2000 asistió a cientos de presentaciones, muchas de las cuales incluían hojas de ruta que se ajustaban con precisión al desarrollo de los teléfonos inteligentes, y no se ha encontrado ninguna hoja de ruta (o aplicación asesina) para la IA.
Señala que a las grandes empresas tecnológicas no les queda más remedio que lanzarse a la carrera armamentística de la IA, dado el bombo que se le ha dado (que continuará la tendencia de gasto masivo), y cree que hay «pocas probabilidades de que aumenten los ingresos relacionados con la IA», en parte porque no cree que la IA generativa haga a los trabajadores más inteligentes, sino sólo más capaces de encontrar mejor información con mayor rapidez, y que cualquier ventaja que la IA generativa te proporcione puede ser «arbitrada» porque la tecnología puede utilizarse en todas partes y, por tanto, no puedes, como empresa, subir los precios.
En pocas palabras: la IA generativa no hace ganar dinero a nadie porque en realidad no hace ganar dinero extra a las empresas que la utilizan. La eficiencia es útil, pero no define a la empresa. También añade que los hiperescaladores como Google y Microsoft «también obtendrán ingresos incrementales» de la IA, pero no los enormes beneficios con los que quizás cuentan, dado su enorme gasto relacionado con la IA en los últimos dos años.
Esto es condenable por muchas razones, la principal de las cuales es que la inteligencia artificial está pensada para ser inteligente y hacernos más inteligentes. Ser capaz de acceder a la información más rápidamente puede hacernos mejores en nuestro trabajo, pero eso es eficiencia más que permitirnos hacer algo nuevo. La IA generativa no está creando nuevos puestos de trabajo, no está creando nuevas formas de hacer tu trabajo y no está haciendo ganar dinero a nadie, y el camino para aumentar los ingresos no está claro.
Covello concluye con una observación importante y brutal: cuanto más tiempo pase sin aplicaciones significativas de la IA, más difícil será «la historia de la IA», y es probable que la rentabilidad empresarial haga flotar esta burbuja tanto tiempo como tarde la industria tecnológica en atravesar un periodo económico más difícil.
También añade su propia predicción: «el entusiasmo de los inversores puede empezar a desvanecerse» si «los casos de uso importantes no empiezan a hacerse más evidentes en los próximos 12-18 meses».
Y está siendo optimista.
Un tema que se menciona repetidamente en el informe es la idea de que la red eléctrica estadounidense no está literalmente preparada para la IA generativa. En una entrevista al ex vicepresidente de Energía de Microsoft Brian Janous (página 15), el informe detalla numerosos problemas de pesadilla que el crecimiento de la IA generativa está causando a la red eléctrica, tales como:
Los hiperescaladores como Microsoft, Amazon y Google han aumentado su demanda de energía de unos pocos cientos de megavatios a principios de la década de 2010 a unos pocos gigavatios en 2030, suficiente para abastecer a múltiples ciudades estadounidenses.
La centralización de las operaciones de los centros de datos de varias grandes empresas tecnológicas en el norte de Virginia podría requerir duplicar la capacidad de la red en la próxima década.
Los servicios públicos no han experimentado un periodo de crecimiento de la carga -es decir, un aumento significativo del consumo eléctrico- en casi 20 años, lo cual es un problema porque la construcción de infraestructuras eléctricas es lenta e implica onerosos permisos y medidas burocráticas para garantizar que se hace correctamente.
La capacidad total de los proyectos energéticos que esperan conectarse a la red creció un 30% en el último año y los tiempos de espera son de 40-70 meses.
Ampliar la red eléctrica no es «una tarea fácil ni rápida», y Mark Zuckerberg dijo que estas limitaciones energéticas son el mayor obstáculo para la inteligencia artificial, lo cual es… más o menos cierto.
En esencia, además de que la IA generativa no tiene ninguna aplicación asesina, no aumenta significativamente la productividad o el PIB, no genera ingresos, no crea nuevos puestos de trabajo ni cambia masivamente las industrias existentes, también requiere que Estados Unidos reconstruya totalmente su red eléctrica, algo que, lamentablemente, añade Janous, Estados Unidos ha olvidado cómo hacer.
Tal vez el gran avance energético de Sam Altman podría ser que estas malditas empresas de IA tuvieran que pagar por una nueva infraestructura energética.
La razón por la que hay que analizar tan a fondo este informe es que si Goldman Sachs está diciendo esto, las cosas están muy, muy mal. También ataca directamente las tácticas publicitarias específicas de los fanáticos de la IA: la sensación de que la IA generativa creará nuevos puestos de trabajo (no lo ha hecho en 18 meses), la sensación de que los costes bajarán (no lo han hecho, y no parece haber un camino para que lo hagan de una manera que importe), y que hay una demanda increíble para estos productos (no la hay, y no hay camino para que exista).
Incluso Goldman Sachs, al describir los beneficios de eficiencia de la IA, añadió que, aunque fue capaz de crear una IA que actualizaba los datos históricos en los modelos de su empresa más rápidamente que haciéndolo manualmente, costaba seis veces más hacerlo.
La defensa restante es también una de las más molestas: que OpenAI tiene algo que desconocemos. Una tecnología grande, sexy y secreta. Sin embargo, hay un contrapunto: no, no lo tiene. En serio, Mira Murati, CTO de OpenAI, dijo hace unas semanas que los modelos que tiene en sus laboratorios no son mucho más avanzados que los que están a disposición del público.
No hay ningún truco de magia. No hay ningún secreto que Sam Altman nos vaya a revelar dentro de unos meses o alguna herramienta mágica que Microsoft o Google «saquen a la luz y que haga que todo esto merezca la pena».
La IA generativa está llegando a su punto álgido, si es que no lo ha alcanzado ya. No puede hacer mucho más de lo que está haciendo actualmente, aparte de hacer más de lo mismo más rápido con algunas entradas nuevas. No se está volviendo mucho más eficiente. David Cahn, el publicista de Sequoia, mencionó alegremente en un blog reciente que el B100 de Nvidia «tendrá un rendimiento 2,5 veces superior por sólo un 25% más de coste», lo que no significa una maldita cosa, porque la IA generativa no va a ganar sensibilidad o inteligencia y conciencia porque sea capaz de correr más rápido.
La IA generativa no se va a convertir en AGI, ni en el tipo de inteligencia artificial que hemos visto en la ciencia ficción. Los asistentes ultrainteligentes como Jarvis, de Iron Man, requerirían una forma de conciencia que ninguna tecnología tiene actualmente -o podrá tener nunca-, que es la capacidad tanto de procesar y comprender información de forma impecable como de tomar decisiones basadas en la experiencia, que, por si no he sido lo suficientemente claro, son cosas totalmente distintas.
La IA generativa, en el mejor de los casos, procesa información cuando se entrena con datos, pero en ningún momento «aprende» o «comprende», porque todo lo que hace se basa en ingerir datos de entrenamiento y desarrollar respuestas basadas en un sentido matemático o de probabilidad más que en cualquier apreciación o comprensión del material en sí. Los LLM son piezas tecnológicas totalmente diferentes a la de «una inteligencia artificial» en el sentido que la burbuja de la IA está exagerando, y es vergonzoso que la industria de la IA haya acaparado tanto dinero y atención con una mentira tan flagrante y ofensiva.
El mercado laboral no va a cambiar a causa de la IA generativa, porque la IA generativa en realidad no puede hacer muchos trabajos, y es mediocre en las pocas cosas que es capaz de hacer. Si bien es una herramienta de eficiencia útil, dicha eficiencia se basa en una tecnología que es extremadamente cara, y creo que en algún momento las empresas de IA como Anthropic y OpenAI tendrán que aumentar los precios – o empezar a colapsar bajo el peso de una tecnología que no tiene camino hacia la rentabilidad.
Si hubiera alguna forma secreta de que todo esto se arreglara, ¿no la habrían aprovechado Microsoft, o Meta, o Google, o Amazon -cuyo CEO de AWS comparó el bombo de la IA generativa con la burbuja Dotcom en febrero-? ¿Y por qué OpenAI ya está intentando recaudar otra ronda multimillonaria después de haber recaudado una cantidad indeterminada con una valoración de 80.000 millones de dólares en febrero? ¿No son sus ingresos anualizados de 3.400 millones de dólares? ¿Por qué necesita más dinero?
La IA generativa cuesta demasiado, no se abarata, consume demasiada energía y no hace lo suficiente para justificar su existencia. No hay aplicaciones revolucionarias, ni aplicaciones revolucionarias en el horizonte.
Información basada en la publicación de Goldman Sachs «GenAI: Too Much Spend, Too Little Benefit?» y en el genial artículo de Edward Zitron «Pop Culture» publicado en su newsletter «Where’s Your Ed At«. Se hace referencia al paper de Daron Acemoglu «The Simple Macroeconomics of AI«, al anuncio de Wendys de Fresh AI y al sistema de pedidos de Castle por IA generativa.