El contenido generado por inteligencia artificial se multiplica a un ritmo vertiginoso. La red está inundada por un verdadero tsunami de textos producidos por algoritmos, lo que hace cada vez más difícil distinguir entre lo escrito por un humano y lo creado por una máquina. Aunque existen herramientas de detección, estas suelen fallar, y la mejor defensa sigue siendo el ojo humano, entrenado para reconocer las señales —sutiles y no tan sutiles— de la escritura artificial.
Wikipedia, una de las plataformas que libra la batalla más grande contra esta avalancha de textos, ha elaborado una guía práctica titulada Signs of AI writing. Este documento, basado en la experiencia de sus editores revisando decenas de miles de contribuciones automatizadas, ofrece claves valiosas para identificar lo que muchos llaman AI slop: ese contenido genérico, sin alma y con problemas de fondo que caracteriza a gran parte de la producción de los modelos de lenguaje.
Es importante subrayar que estos signos no son pruebas absolutas. Los modelos se entrenan con escritura humana, lo que hace borrosa la línea divisoria. Sin embargo, la repetición de ciertos patrones permite sospechar con bastante certeza cuándo estamos frente a un texto generado por inteligencia artificial.
1. Énfasis exagerado en el simbolismo y la importancia
Una de las señales más claras es la tendencia a inflar el valor de un hecho trivial. La IA suele describir un pueblo común como un “símbolo de resiliencia” o un evento menor como un “momento decisivo”. Frases como “representa un testimonio de”, “juega un papel vital” o “deja un impacto duradero” aparecen con frecuencia. Se trata de un intento mecánico de sonar profundo, pero sin aportar sustancia real.
2. Lenguaje vacío y promocional
La neutralidad es otro terreno en el que la IA tropieza. Cuando aborda temas culturales o turísticos, los textos parecen sacados de un folleto de viaje. Clichés como “herencia cultural rica”, “impresionante belleza natural” o “escondido en el corazón de…” son fórmulas repetidas que delatan su origen algorítmico.
3. Estructuras forzadas y abuso de conectores
Otra característica es el uso rígido de estructuras prefabricadas. Las construcciones en paralelo con “no solo…, sino también…” aparecen en exceso, así como la famosa “regla de tres”: enumerar tres adjetivos o frases cortas para aparentar un análisis completo. Además, los conectores “además”, “por otra parte” o “furthermore” se repiten de manera poco natural, dándole un tono ensayístico y acartonado al texto.
4. Análisis superficial y atribuciones vagas
Los finales de frase cargados con participios como “…destacando el crecimiento económico” son otro patrón común. A esto se suman las llamadas weasel words o palabras evasivas: expresiones como “algunos críticos sostienen” o “los expertos señalan” que buscan dar legitimidad sin citar fuentes verificables.
5. Errores de formato y citas inventadas
Las fallas técnicas suelen ser el indicio más contundente. Entre ellas destacan:
- Uso excesivo de negritas o listas: el texto se estructura de forma mecánica, con palabras resaltadas y numeraciones constantes.
- Código roto y marcadores vacíos: aparecen fragmentos como
:contentReference
o “[URL de fuente confiable]” sin completar. - Fuentes falsas o irrelevantes: la IA tiende a “alucinar” citas, inventando DOI o ISBN inexistentes, o refiriendo obras reales que no tienen relación con el tema.
6. Formato de correo o carta
Cuando un texto comienza con “Estimados editores de Wikipedia” o termina con fórmulas de despedida como “Gracias por su tiempo y consideración”, es muy probable que haya sido generado por una IA respondiendo a un prompt mal interpretado.
Más allá de lo superficial: los riesgos reales
Si bien los signos anteriores son útiles para sospechar del origen de un texto, el problema más grave no está en el estilo, sino en el fondo. La inteligencia artificial suele carecer de precisión factual, puede introducir sesgos, inventar referencias y, sobre todo, no es capaz de ofrecer pensamiento original. Limitarse a corregir errores de formato no basta: cuando estas señales aparecen, lo correcto es cuestionar críticamente todo el contenido.
En este nuevo escenario digital, donde lo humano y lo artificial se mezclan constantemente, la alfabetización crítica es la mejor defensa. Reconocer las huellas de la máquina no solo protege la calidad de la información en internet, sino que también fortalece nuestra capacidad de discernir entre datos fiables y ruido automatizado.