La mitad de internet ya es IA
La invasión de la IA: así ha pasado a firmar más de la mitad de los textos que se publican en la red
Un estudio de la firma de SEO Graphite intuye un futuro apocalíptico, pero la realidad muestra mucha cantidad, poca visibilidad… y un hueco para el periodismo
En diciembre de 2025 ya podemos decir (con datos) que navegamos por una red en la que la mayoría de los textos ya no los escriben personas, sino máquinas. Eso es, en esencia, lo que sostiene un análisis de la consultora SEO Graphite, que ha estudiado 65.000 artículos en inglés publicados entre 2020 y 2025 y concluye que el 52 % de los textos nuevos son generados por IA. El salto se dispara a partir de noviembre de 2022, con la irrupción de ChatGPT, cuando la proporción de artículos «automáticos» pasa de ser marginal a igualar e incluso superar puntualmente a los escritos por humanos.
Progreso del contenido generado por humanos y por IA en los últimos años
«La mitad de internet ya es IA», podía rezar el título de esta información. Sin embargo, los propios datos invitan a matizar. Lo que Graphite mide no es «todo internet», sino un subconjunto de artículos recientes publicados como noticia o post, rastreados a través del gigantesco archivo Common Crawl y clasificados con un detector automatizado. Es decir, hablamos de nuevos contenidos escritos, no de la vastísima hemeroteca de textos humanos acumulada en la red durante décadas que, en realidad, es lo que ha alimentado al monstruo de la IA y hace que tenga respuesta para todo.
Detector de texto de IA
Para separar lo humano de lo artificial, Graphite utiliza Surfer, un detector de texto de IA que analiza patrones estadísticos en el lenguaje. La empresa considera que un artículo es «de IA» cuando al menos la mitad de su contenido muestra rasgos de haber sido generado por un modelo de lenguaje. El propio informe reconoce que la herramienta no es infalible ya que estima una tasa de falsos positivos en torno al 4 %, lo que significa que una parte de textos humanos puede «parecer» escrita por una máquina.
La empresa considera que un artículo es «de IA» cuando al menos la mitad de su contenido muestra rasgos de haber sido generado por un modelo de lenguaje
A esa incertidumbre técnica se suma otra como es la frontera entre contenido humano y contenido de IA se vuelve cada vez más borrosa. Muchos textos se redactan hoy en un régimen híbrido, periodistas o redactores que piden un primer borrador a un chatbot, reescriben, reorganizan y completan con datos propios que difícilmente encaja en categorías binarias. Es decir, ya vivimos en la colaboración forzada entre personas y algoritmos.
Granjas de contenido, marketing y relleno
El estudio y los análisis posteriores coinciden en señalar que la gran avalancha de texto automático se concentra en un tipo muy concreto de páginas como son blogs comerciales, webs de afiliación, contenidos de marketing y esas content farms capaces de publicar miles de piezas al mes con un solo objetivo, atraer clics desde Google al menor coste posible.
Listas de destinos turísticos, reseñas superficiales, tutoriales genéricos o comparativas de productos se han convertido en el destino perfecto de la escritura artificial.
Las grandes cabeceras informativas y los medios de referencia apenas aportan una fracción de ese volumen
En el otro extremo, las grandes cabeceras informativas y los medios de referencia apenas aportan una fracción de ese volumen, aunque muchas redacciones ya usan IA para tareas internas como resumir documentos, transcribir entrevistas o proponer enfoques. La pieza final que llega al lector, sin embargo, sigue siendo mayoritariamente humana, sobre todo en géneros como la crónica, el reportaje, el análisis político o la opinión, donde lo determinante no es rellenar un hueco en Google, sino aportar criterio y contexto.
Mucho ruido, poca visibilidad
El dato más llamativo del trabajo de Graphite quizá no sea que la IA ya genere más de la mitad de los nuevos artículos, sino que esa marea casi no asoma en la superficie visible de la web. Según la propia compañía, apenas un 14 % de las páginas que logran posicionarse bien en Google son clasificadas como contenido de IA; el resto sigue siendo texto principalmente humano. Es decir, las máquinas escriben mucho, pero los algoritmos de búsqueda parecen premiar, por ahora, aquello que conserva voz propia, rigor y experiencia real.
Todo apunta a un cierto techo en la expansión de este tipo de contenido
Todo apunta a un cierto techo en la expansión de este tipo de contenido porque después del búm inicial, la curva de producción automatizada se habría estabilizado. La hipótesis es que quienes llenaron sus webs de textos generados en masa no vieron el retorno prometido en tráfico y posicionamiento, y han tenido que dejarlo o combinar IA con un mayor trabajo editorial humano.
Qué significa para la escritura (y para el periodismo)
Más allá de las cifras, el debate de fondo es en qué lugar queda la escritura humana en un ecosistema saturado de texto barato y casi infinito. Artículos y columnas académicas demuestran que, paradójicamente, cuanto más ruido genera la IA, más valor gana aquello que no puede automatizarse como la experiencia directa del periodista, la verificación, la mirada crítica y el estilo propio. En otras palabras, el problema no es tanto que las máquinas escriban, sino que los humanos renuncien a decir algo que valga la pena leer para que lo haga un chatbot.
Cuanto más ruido genera la IA, más valor gana aquello que no puede automatizarse
Para los medios, los datos de Graphite son una advertencia de que competir con la IA en cantidad es una batalla perdida; ningún departamento de redacción puede igualar la velocidad industrial de los modelos generativos. Pero hay una oportunidad porque en un océano de textos, la diferencia vuelve a estar en aquello que no se puede copiar ni predecir como el acceso a fuentes, el criterio, el contexto y una voz reconocible que el lector identifique como humana y, sobre todo, como fiable.