Artículo destacado
Fundador de ChatGPT alerta sobre creciente proliferación de IA en internet
Escrito por
MIIA
Publicado
9 de septiembre de 2025
Lectura
3 min
Sam Altman ha expresado su inquietud sobre el estado actual de internet. Hace unos días comentó en X que antes no tomaba en serio la idea de que internet estuviera “muerto”, pero ahora le parece que muchas cuentas en Twitter son administradas por bots. No se detuvo ahí: también señaló que varias publicaciones en Reddit parecen generadas por inteligencia artificial. Estas declaraciones han provocado que muchos usuarios le recuerden que él mismo ha tenido un papel importante en el aumento de bots y contenido generado por IA. Además, algunos creen que detrás de su preocupación hay motivos ocultos.
La teoría del “internet muerto” —que sostiene que la red está dominada más por bots, IA y algoritmos que por personas— empezó a resonar cuando Altman mencionó que empezaba a tomarla en serio. Sin embargo, su comentario fue recibido con burlas, incluso con respuestas que imitaban el estilo de ChatGPT o memes que lo culpan de este problema. Su publicación generó miles de respuestas, muchas señalándolo como responsable del aumento de contenido artificial en la red.
Aunque la teoría suena conspirativa, el problema de los bots es real y palpable, como descubrió Elon Musk tras adquirir Twitter. Según la empresa de ciberseguridad Imperva, en 2023 el 49% del tráfico en internet provenía de bots, y en 2024 esa cifra subió al 51%, superando al tráfico humano. Además, el 37% de estos bots tienen fines maliciosos, como difundir noticias o contenido falso. A esto se suma la proliferación de contenido generado automáticamente, conocido como AI Slop, que inunda la red.
Altman también compartió su impresión tras leer un subreddit dedicado a Claude Code, donde muchos usuarios elogiaban al asistente de programación Codex, de OpenAI, casi como si fuera lo mejor que les ha pasado. A pesar de que esto beneficia a su producto, Altman comentó que los mensajes parecen escritos por inteligencia artificial, y que tanto Twitter como Reddit últimamente se sienten “muy falsos”. Considera que las personas están empezando a escribir como si fueran IA, aunque olvidó mencionar que estos modelos están entrenados para imitar el lenguaje humano, usando precisamente contenido de Reddit.
Además, Altman hace referencia al “astroturfing”, una estrategia que busca simular opiniones genuinas para crear una falsa impresión de apoyo o rechazo hacia un producto. Él asegura haber sufrido esta práctica antes, y que por eso es especialmente sensible al tema.
Desde otro punto de vista, tal como señalan en TechCrunch, la repentina preocupación de Altman sobre bots, el internet muerto y el astroturfing podría tener un fin más estratégico: sembrar dudas sobre la autenticidad de las críticas que reciben sus productos. De esta forma, estaría sugiriendo que muchas opiniones negativas tras el lanzamiento de GPT-5 no son reales. En Reddit, otros usuarios sugieren que también podría ser un intento de restar credibilidad a sus competidores, especialmente si los rumores sobre una red social propia de OpenAI son ciertos.
En resumen, más allá de la preocupación genuina, hay quienes ven en las palabras de Altman una estrategia para manejar la percepción pública y desacreditar críticas adversas.