La ambiciosa visión del CEO de Openai Sam Altman para la inteligencia artificial, que potencialmente requiere 100 millones de GPU y una inversión estimada de $ 3 billones, destaca la creciente demanda de energía informática en el panorama de IA en rápido evolución. Esto se produce después de que los ejecutivos de TSMC denominaron a Altman un “podcasting Bro” para un plan anterior e igualmente audaz que involucra $ 7 billones para construir 36 plantas semiconductoras y centros de datos.
La IA generativa está demostrando ser una tecnología intensiva en recursos, lo que requiere una gran potencia informática e infraestructura de enfriamiento para respaldar sus avances. Según los informes, Openai ha expresado insatisfacción con la incapacidad de Microsoft para satisfacer sus demandas de computación en la nube, un componente clave de su acuerdo multimillonario. El fabricante de chatgpt incluso sugirió que las deficiencias de Microsoft podrían llevar a una empresa de IA rival que logra primero la inteligencia general artificial (AGI).
A principios de este año, Openai presentó el “Proyecto Stargate”, una iniciativa de $ 500 mil millones destinada a construir centros de datos en los Estados Unidos para reforzar sus capacidades de IA. Según los informes, el anuncio de este proyecto llevó a que Microsoft perdiera su estado como proveedor de nube principal de OpenAI. Sin embargo, un informe reciente del Wall Street Journal indica que el proyecto Stargate enfrenta dificultades para despegar, con OpenAi ahora con el objetivo de construir un centro de datos más pequeño para fin de año.
A pesar de estos desafíos, Sam Altman declaró recientemente que Operai está en camino de traer “más de 1 millón de GPU en línea” al cierre del año en curso. Este desarrollo sigue a las revelaciones de que OpenAi se vio obligado a emprender “cosas antinaturales” debido a una escasez de GPU. Esta escasez fue exacerbada por el éxito viral de los memes de Studio Ghibli generados por su generador de imágenes GPT-4O, lo que llevó a la compañía a tomar prestada capacidad de las divisiones de investigación y frenar ciertas características.
Altman señaló con humor que cuando ChatGPT ganó más de un millón de nuevos usuarios en menos de una hora, el repentino aumento en la demanda casi causó que las GPU de la compañía se “derritieran”. Si bien es orgulloso de su equipo, Altman enfatizó la necesidad crítica de escalar la capacidad actual de GPU de Openai de un potencial de 1 millón a un asombroso 100 millones. El hardware de Tom estima que lograr esta escala podría costar OpenAi hasta $ 3 billones. Para poner esto en perspectiva, esta cifra es solo mil millones de dólares de la reciente capitalización de mercado de Microsoft, que alcanzó los $ 4 billones.
Esta creciente demanda de poder informático se alinea con las afirmaciones del investigador de seguridad de IA Roman Yampolskiy, director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville. Yampolskiy postula que AGI podría lograrse hoy si los recursos financieros y la potencia informática estaban disponibles. La trayectoria continua de IA sugiere que su evolución continuará requeriendo una potencia informática cada vez mayor para avances más sofisticados. Queda por ver si Operai puede asegurar los más de $ 3 billones requeridos para esta expansión masiva de GPU y si tal inversión sería suficiente para lograr hazañas monumentales como AGI o incluso superinteligencia.
Source: Operai necesita 100 millones de GPU. ¡Buena suerte con eso!





