Sam Altman reabre el debate sobre la teoría de la "Internet muerta"

Sam Altman reabre el debate sobre la teoría de la "Internet muerta"

Foto: Sergio F Cara

Una publicación reciente de Sam Altman, director ejecutivo de OpenAI, volvió a poner en el centro del debate la teoría de la "Internet muerta". Esta hipótesis sostiene que gran parte del contenido en la web ya no es generado por personas, sino por sistemas automatizados y herramientas de inteligencia artificial.

 

El comentario fue publicado en la red social X, donde Altman escribió: "Nunca me tomé tan en serio la teoría de la Internet muerta, pero parece que ahora sí hay muchas cuentas de Twitter gestionadas por LLM". Esta declaración reactivó una teoría que hasta ahora era considerada marginal y sin mayor respaldo fuera de foros especializados.

 

De acuerdo con quienes promueven esta idea, la web "murió" entre 2016 y 2017, un período marcado por el crecimiento de algoritmos y el avance de tecnologías automatizadas. Sostienen que desde entonces, los contenidos más visibles en redes sociales, foros y secciones de comentarios son generados por bots o sistemas de inteligencia artificial, y no por usuarios humanos.

 

El planteamiento central sugiere que buena parte del tráfico en internet está impulsado por programas diseñados para simular comportamiento humano. Estos sistemas producen reseñas, publicaciones y debates automatizados que replican patrones de interacción real, pero en realidad estarían vacíos de participación genuina.

 

Algunos de los argumentos frecuentes incluyen el dominio de contenido creado por inteligencia artificial, el desplazamiento de la creatividad espontánea y la falta de interacción humana verificable. Según esta visión, la red se transformó en una estructura artificial, alimentada por algoritmos que priorizan el volumen y la eficiencia sobre la autenticidad.

 

La frase de Altman generó múltiples reacciones, en parte por su rol como responsable de una de las compañías más influyentes en el desarrollo de modelos de lenguaje. Desde el lanzamiento de ChatGPT en 2022, se incrementó el uso de sistemas capaces de generar textos, imágenes y otros formatos a gran escala, lo que facilitó la automatización del contenido digital.

 

Si bien la teoría conserva elementos propios de una narrativa conspirativa, existen datos que respaldan algunos de sus fundamentos. Reportes de firmas especializadas en ciberseguridad estimaron que hasta el 47% del tráfico en línea podría ser generado por bots. No todos esos sistemas tienen fines negativos, pero su presencia masiva dificulta distinguir entre lo auténtico y lo automatizado.

 

Además, en muchas plataformas digitales no es posible verificar si una publicación proviene de una persona o de un sistema automatizado. Esta falta de transparencia refuerza la percepción de que la web se volvió un entorno controlado por procesos que imitan, pero no reproducen, la participación humana. (NotiPress)

Notas Relacionadas