Detectar a la IA es cada vez más difícil: cambia su estilo con cada modelo

Reconocer si un texto o una voz fueron generados por inteligencia artificial (IA) ya no es tarea sencilla.

Especialistas reunidos en el AI Summit 2025 señalaron que los modelos actuales cambian tan rápido que los métodos para identificar su autoría se quedan obsoletos en poco tiempo.

Durante el encuentro, realizado por el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM junto con OpenAI y Fintual, la investigadora Helena Gómez Adorno explicó que hace tiempo se usaba la estilometría para detectar huellas de autoría, como el uso de comas o la elección de ciertas palabras. Sin embargo, los nuevos modelos de lenguaje superan fácilmente estas barreras.

“Cada vez que OpenAI lanza un nuevo modelo tiene un estilo diferente y los patrones anteriores ya no funcionan”, dijo Gómez Adorno. Por eso, los sistemas deben reentrenarse constantemente y no hay un modelo que funcione para todas las IA.

La académica destacó que en el ámbito educativo existe preocupación sobre cómo esta tecnología puede afectar el pensamiento crítico o los procesos de evaluación. Por ello, propuso fomentar desde edades tempranas un uso ético y pedagógico de estas herramientas.

¿Quién es el autor si intervino una IA?

Jorge Pérez González, de la Unidad Yucatán del IIMAS, planteó que la autoría también se ha vuelto un tema complejo en la generación de imágenes.

Actualmente, participan múltiples actores: desarrolladores que crean algoritmos, generadores de datos y usuarios que escriben los comandos.

“En Estados Unidos y Europa un algoritmo de IA no puede ser autor único de una creación; tiene que venir de la mano de la creatividad humana”, aclaró.

Para detectar imágenes falsas se usan algoritmos de machine learning que analizan patrones derivados de los procesos de compresión y filtros. “Es un tipo de firma”, explicó el experto. También se utilizan metadatos para rastrear la creación.

Voces artificiales, emociones sintéticas

Fernanda López Escobedo, de la Escuela Nacional de Ciencias Forenses, habló sobre los riesgos del uso de sintetizadores de voz.

Aunque estas tecnologías permiten imitar dialectos o emociones, también se han empleado en fraudes telefónicos o para propagar desinformación.

Uno de los principales retos es saber si una voz “dubitada” (de origen desconocido) fue creada por IA o es humana.

“Antes era fácil distinguirlas por el tono plano, pero hoy los sintetizadores logran simular emociones”, explicó.

Para López Escobedo, el desafío está en encontrar lo que aún no se puede imitar, como la duración de las vocales o ciertos relajamientos lingüísticos.

No obstante, advirtió que eventualmente estas barreras también podrían superarse.

Con información de la UNAM.

Salir de la versión móvil