Durante una reciente entrevista con CBSEn “60 Minutos”, Sundar Pichai, director ejecutivo de Google y Alphabet, expresó su preocupación por el rápido desarrollo de la IA y su impacto potencial en la sociedad. Pichai afirmó que “todos los productos de todas las empresas” estarán influenciados por esta tecnología, y es imperativo que la sociedad se prepare para los cambios que traerá la IA.
60 Minutos: Sundar Pichai sobre el futuro de Google AI
Durante la entrevista en 60 Minutes, Scott Pelley, el entrevistador, probó varios proyectos de IA de Google, incluido el chatbot Bard, que tiene capacidades similares a las de los humanos. Pelley expresó su asombro, afirmando que estaba “sin palabras” y lo encontró “inquietante”.
Pichai reconoció la necesidad de adaptación en la sociedad para acomodar la IA y advirtió que los trabajos en varias industrias se verían afectados. Pichai destacó que los “trabajadores del conocimiento”, como escritores, contadores, arquitectos e incluso ingenieros de software, estarían entre los profesionales más vulnerables al desplazamiento de la IA.

“Esto tendrá un impacto en todos los productos de todas las empresas. Por ejemplo, podría ser un radiólogo, si piensa dentro de cinco a diez años, tendrá un colaborador de IA con usted. Vienes por la mañana, digamos que tienes cien cosas por las que pasar, puede decir, ‘estos son los casos más graves que debes examinar primero’, afirmó Pichai.
Durante 60 Minutos, Pelley exploró otras áreas dentro de Google donde se estaban desarrollando productos avanzados de IA. Una de esas áreas fue DeepMind, donde los robots estaban aprendiendo a jugar al fútbol sin intervención humana. A Pelley también se le mostraron robots que podían reconocer objetos en una encimera y recuperar los artículos solicitados, como una manzana.
Al discutir las posibles consecuencias de la IA, Pichai destacó el tema de la desinformación y las noticias falsas, afirmando que la escala del problema sería “mucho mayor” y que podría causar daño.
Recientemente, CNBC informó que Pichai había expresado su preocupación por las pruebas públicas del nuevo chatbot de IA de Google, Bard, afirmando que el éxito del programa ahora dependía de las pruebas públicas y que “las cosas saldrán mal”.
Google lanzó Bard como un producto experimental al público el mes pasado. Esto siguió al anuncio de Microsoft en enero de que su motor de búsqueda Bing incorporaría la tecnología GPT de OpenAI, que ganó atención internacional después del lanzamiento de ChatGPT en 2022.
Recientemente, tanto el público como los críticos han expresado su preocupación por las posibles consecuencias del rápido progreso de la IA. En marzo, Elon Musk, Steve Wozniak y numerosos académicos pidieron una pausa inmediata en los “experimentos” de capacitación vinculados a grandes modelos de lenguaje que se consideraron “más poderosos que GPT-4”, el LLM insignia de OpenAI. La carta obtuvo más de 25.000 firmas desde su publicación.
Durante la entrevista de 60 Minutos, Pelley comentó sobre la presión competitiva entre empresas como Google y las nuevas empresas que están impulsando a la humanidad hacia el futuro, ya sea que la sociedad esté preparada para ello o no.
Si bien Google publicó un documento que describe “recomendaciones para regular la IA”, Pichai enfatizó la necesidad de que la sociedad se adapte rápidamente con las regulaciones, leyes y tratados apropiados entre las naciones para garantizar la seguridad de la IA y la alineación con los valores humanos y la moralidad. Pichai también enfatizó la importancia de no dejar tales decisiones únicamente en manos de ingenieros y, en cambio, traer expertos de otros campos, como científicos sociales, especialistas en ética y filósofos.

Durante la entrevista de CBS, Pichai reconoció que parece haber un desajuste entre el ritmo al que evoluciona la tecnología y la capacidad de las instituciones sociales para pensar y adaptarse. Cuando se le preguntó si la sociedad está preparada para la tecnología de inteligencia artificial como Bard, Pichai respondió: “Por un lado, siento que no”.
Sin embargo, Pichai se mantuvo optimista y señaló que más personas están comenzando a considerar las implicaciones de la tecnología de inteligencia artificial desde el principio, a diferencia de otras tecnologías en el pasado.
En una demostración de las capacidades de Bard, Pelley le dio al programa de inteligencia artificial un mensaje de seis palabras y creó una historia con personajes y una trama que había inventado por sí mismo. Pelley estaba asombrado por el nivel de humanidad y la velocidad con la que Bard había producido la historia.
Cuando Pelley le preguntó a Bard por qué ayuda a las personas, el programa de IA simplemente respondió: “porque me hace feliz”. Pelley expresó conmoción por esta respuesta y señaló que Bard parece estar pensando. Sin embargo, James Manyika, vicepresidente sénior de Google contratado como jefe de “tecnología y sociedad”, aclaró que Bard no es sensible y no es consciente de sí mismo. En cambio, puede comportarse como si fuera consciente.
Durante la entrevista de CBS, Pichai mencionó que Bard tiene muchas alucinaciones. Pelley le había preguntado a Bard sobre la inflación, y respondió con sugerencias de libros que en realidad no existían cuando Pelley las revisó más tarde.
Pelley expresó su preocupación por el comentario de Pichai de que hay una “caja negra” con los chatbots y que no está claro por qué o cómo obtienen ciertas respuestas. Esta falta de transparencia y comprensión con respecto al funcionamiento interno de los programas de IA es una preocupación común entre los críticos y el público por igual.





