El CEO de Openai, Sam Altman, ha observado que los usuarios de las redes sociales están adoptando cada vez más los estilos de escritura de grandes modelos de idiomas (LLM). En una publicación reciente sobre X, Altman describió una “experiencia más extraña” al revisar las publicaciones del foro sobre Codex, la herramienta de agente de OpenAI para desarrolladores. Señaló que si bien muchas publicaciones parecían potencialmente falsas o generadas por bot, la tendencia subyacente del fuerte crecimiento del códice era genuina. Altman sugirió varias explicaciones potenciales para la proliferación de contenido similar a LLM. Una posibilidad es que “las personas reales han recogido peculiaridades de LLM-speak”, imitando los patrones de lenguaje de los modelos de IA. También señaló la tendencia de la “multitud extremadamente en línea” a converger en estilos de comunicación similares. El ciclo exagerado que rodea las herramientas de IA, caracterizadas por reacciones extremas, y la “presión de optimización de las plataformas sociales sobre el compromiso del jugo” también se citó como factores contribuyentes. Altman expresó su preocupación de que el efecto general hace que “Reddit de AI Twitter/AI se sienta muy falso” en comparación con el entorno en línea de hace solo uno o dos años. Este sentimiento hace eco de una publicación anterior en la que notó un número significativo de “cuentas de Twitter de LLM-dirigida”, lo que lo lleva a reconsiderar la “teoría de Internet muerta”. Paul Graham, cofundador de Y Combinator, respondió a las observaciones de Altman, confirmando que también ha notado la misma tendencia en X. Graham señaló que el contenido generado por la IA no se limita a “cuentas falsas dirigidas por grupos y países que desean influir en la opinión pública”, sino que también está siendo producido por “muchos de los influyentes individuales de los deseos”. Las preocupaciones sobre el surgimiento del contenido generado por IA de baja calidad, a menudo conocido como “AI Slop”, se extienden más allá de Altman y Graham. El CEO de Sustack, Chris, abordó mejor el problema en “The A16Z Podcast”, advirtiendo que “Sophisticated Ai Goon Bots” inundará los medios de comunicación con cebo de compromiso. Mejor predijo un futuro en el que una abundancia de “AI Slop” mantendrá a los usuarios haciendo clic sin pensar, degradando potencialmente la calidad del discurso e información en línea.
