¿Puede la inteligencia artificial generar predicciones fiables sobre el mercado bursátil?

La rápida evolución de la inteligencia artificial está empezando a cambiar las reglas del juego en los mercados financieros. Herramientas como los modelos de lenguaje (LLMs), capaces de procesar grandes volúmenes de datos, analizar información y generar recomendaciones, prometen acercar al inversor minorista capacidades que antes estaban reservadas a los profesionales. Pero ¿pueden realmente estas tecnologías anticipar el comportamiento de la bolsa?

Un estudio reciente de la Comisión Nacional del Mercado de Valores (Large Language Models and Stock Investing: Is the Human Factor Required?) trata de dar respuesta a esta cuestión analizando el rendimiento de varios modelos avanzados de IA en un entorno de inversión real. Durante diez meses, los investigadores evaluaron si herramientas como ChatGPT, Gemini, DeepSeek o Perplexity eran capaces de generar recomendaciones sobre acciones del IBEX 35que superaran al mercado.

Los resultados muestran una realidad compleja. Por un lado, los modelos consiguen construir explicaciones coherentes, bien estructuradas y aparentemente sofisticadas. Sin embargo, esa capacidad es precisamente uno de sus mayores riesgos. El estudio identifica lo que denomina una “trampa de fluidez”, respuestas que suenan convincentes pero que pueden estar basadas en errores de cálculo, interpretaciones incorrectas o incluso datos inventados. Esto es especialmente problemático en un entorno como el financiero, donde pequeños fallos pueden traducirse en decisiones de inversión equivocadas.

De hecho, cuando se utilizan de la forma más habitual, es decir, con preguntas simples y sin contexto, los modelos apenas aportan valor. Las recomendaciones generadas en este escenario ofrecen resultados muy similares a invertir sin criterio, con rentabilidades prácticamente indistinguibles del azar. Esto sugiere que el uso intuitivo de la inteligencia artificial, tal y como lo haría un inversor minorista sin experiencia, no solo es limitado, sino potencialmente peligroso.

Sin embargo, el panorama cambia de forma significativa cuando se introducen instrucciones más estructuradas. Al guiar a los modelos con criterios financieros claros, variables específicas y marcos de análisis definidos, su capacidad predictiva mejora de manera notable. En estos casos, los resultados empiezan a mostrar rentabilidades superiores al mercado, lo que indica que la IA sí puede aportar valor cuando se utiliza correctamente.

El mayor salto de calidad se produce cuando entra en juego la supervisión humana. Cuando los analistas revisan, corrigen y refinan las respuestas generadas por los modelos (Chain-of-thought o Razonamiento-en-cadena), el rendimiento mejora aún más y se vuelve más consistente. Este enfoque, basado en la colaboración entre humano e inteligencia artificial, permite detectar errores, validar supuestos y evitar que fallos en el razonamiento se traduzcan en decisiones equivocadas.

Otro aspecto clave del estudio es la importancia de la calidad de la información utilizada. Cuando los modelos basan sus análisis en fuentes oficiales, como los registros obtenidos de la CNMV (OIRs, IPs, Informes Anuales o Semestrales de las compañías cotizadas), su precisión aumenta y los resultados mejoran. Esto demuestra que no solo importa la tecnología en sí, sino también los datos que la alimentan.

En conclusión, el informe apunta a una idea clara: la inteligencia artificial tiene potencial para generar valor en los mercados financieros, pero todavía no es una herramienta fiable de forma autónoma. Su uso efectivo requiere estructura, validación y, sobre todo, criterio humano (Human-in-the-loop).

Lejos de sustituir al inversor, la IA parece destinada a convertirse en un aliado potente, pero que necesita supervisión. Así que la ventaja será no para quien tenga acceso a la tecnología sino para quien sepa utilizarla con inteligencia.

-

Daniel Campoy Silva

Socio fundador de Sigma Rocket