Metodología y estándares editoriales

Cómo trabajamos

La metodología es la credencial. Cada informe aplica el mismo método estructurado: análisis de doble vía del gap, etiquetado de fuentes, señales de riesgo observables. Esta página documenta el sistema.

El método de doble vía

Cada informe de Clave se estructura alrededor de una sola pregunta: ¿cuál es la distancia entre lo que un actor declara públicamente y lo que verificablemente hace? Ese gap — puntuado de 0 a 10 por dominio — es donde se genera el riesgo geopolítico y donde ocurre la mala valoración del mercado.

01
Mapeo de dominios
Cada país se analiza en 4-6 dominios estructurales seleccionados por apalancamiento analítico — no por exhaustividad.
02
Puntuación del gap
Cada dominio recibe una puntuación de gap de 0 a 10. Cada celda REALIDAD debe contener un número específico, una fecha o un valor de contrato — no un adjetivo.
03
Bucles de retroalimentación
Las contradicciones estructurales se modelan como bucles autorreforzantes. Cada uno termina con una frase de veredicto: el mecanismo que hace la contradicción duradera.
04
Psicología política
Competencia por estatus, aversión a la pérdida, captura de coalición, Prospect Theory — aplicadas como herramientas diagnósticas para explicar por qué los actores mantienen posiciones que contradicen sus intereses declarados.
05
Señales de riesgo
Umbrales observables que traducen el análisis en inteligencia accionable. Si X supera Y, Z es el resultado esperado para los siguientes sectores. No se hacen recomendaciones de inversión.
06
Arquitectura de escenarios
Tres escenarios ponderados por probabilidad que suman 100%. Disparados por eventos observables específicos. Exposición sectorial nombrada por escenario.

Cómo se produce un informe

Cada informe de Clave se produce mediante un pipeline híbrido: recuperación y generación automatizadas, seguidas de revisión editorial humana. Lo declaramos explícitamente porque la transparencia sobre el método es parte de la credibilidad.

El pipeline

1. Recuperación — RAG sobre un corpus curado. Una base vectorial que indexa aproximadamente 11.000 fragmentos en más de 50 documentos fuente (Informes Anuales de la NATO, IMF World Economic Outlook, IEA WEO, BIS, Stanford HAI AI Index, investigaciones de red de ENTSO-E, textos regulatorios de la UE, briefings de defensa industrial de EPRS / MERICS / Carnegie / Bruegel / Atlantic Council / CSIS, USGS Mineral Commodity Summaries, Cochilco, gacetas de MOFCOM, entre otros) se consulta para encontrar evidencia relevante por tema. Los fragmentos mejor recuperados se convierten en contexto para la siguiente capa.

2. Generación — API de LLM frontera con un prompt editorial versionado. Los fragmentos del corpus recuperados más un prompt editorial estructurado — que define la estructura del informe ejecutivo, las secciones de doble vía, los escenarios, las predicciones formales y las convenciones de etiquetado de fuente — se envían a una API de modelo grande de lenguaje de un proveedor externo. El prompt está versionado en git y se refina con cada lección por informe; hoy contiene un conjunto versionado de reglas editoriales — entre ellas: cada informe debe contener predicciones falsables, debe articular su contribución primaria, y el encuadre estructural sigue prioridades de inversor europeo. El modelo escribe el borrador en prosa en inglés y español.

3. Aseguramiento de calidad — seis capas, heurísticas por diseño. La veracidad se aborda en capas, no en un único disparo. Cada capa atiende a un modo de fallo distinto y cada una tiene varianza medible:

El runner aplica mecánicamente múltiples capas de controles bloqueantes y de advertencia en cada borrador. Los borradores que pasan aterrizan en staging. El editor humano revisa entonces cada informe antes de promover staging → published: lee el resumen ejecutivo entero, verifica las cifras más importantes contra fuentes primarias, confirma que las predicciones son falsables, firma.

Honestidad sobre los límites

Los modelos grandes de lenguaje pueden alucinar — inventar cifras concretas, atribuir afirmaciones a fuentes que no las hicieron, o desalinear fechas. La pila de calidad de seis capas captura la mayor parte de esto. Algo se escapa. La capa LLM-judge en particular tiene varianza medible: cuando el mismo borrador se juzga varias veces, los veredictos pueden variar, por lo que publicamos el ledger de veredictos y tratamos el gate como heurística con telemetría en lugar de pass/fail determinista. Cuando algo se escapa, publicamos una errata sobre el informe afectado y registramos el incidente; las correcciones pasadas son visibles en el historial de git de /briefs/.

El mecanismo duradero de credibilidad no es la pila de gates — los gates son andamiaje necesario — sino el ledger público de predicciones, donde cada umbral observable que publicamos se rastrea contra su resultado y el Brier score acumulado se calcula a medida que las predicciones se resuelven. Un lector que quiera evaluar esta publicación debería mirar el ledger, no el número de gates.

Declaramos el pipeline no como disculpa sino como contrato: la automatización en capas aporta consistencia y cobertura a escala que ningún analista individual puede igualar; el revisor humano aporta juicio de dominio y rendición de cuentas que ningún modelo puede aportar; y el ledger de predicciones aporta la única credencial que no se puede fabricar — el marcador público de aciertos pasados. Para los decisores institucionales, este marcador junto con el ledger público de veredictos y el CHANGELOG constituyen el rastro de evidencia para decisiones: los artefactos que hacen defendible la dependencia analítica frente a LPs, consejos y auditorías.

Jerarquía de fuentes

Cada afirmación factual en un informe de Clave lleva una etiqueta de fuente estructurada adyacente a la afirmación — antes de la puntuación de cierre de la frase. La etiqueta permite la verificación post-publicación sin mediación editorial. Las fuentes se ponderan en este orden de prioridad:

  1. Corpus autoritativo. Documentos primarios indexados — BIS, IMF, NATO, IEA, ENTSO-E, OECD, publicaciones de bancos centrales, registros de reguladores, gacetas oficiales. Mayor peso. Citados en línea como [SOURCE | DOC | PAGE].
  2. Fuentes web de autoridad. Sitios oficiales de reguladores y actores primarios consultados en la fecha del análisis — DG COMP / EUR-Lex, La Moncloa, BOE, Bundesanzeiger, MOFCOM, Federal Register, etc. Citados como [WEB: fuente] con URL.
  3. Prensa financiera Tier-1. FT, Reuters, Bloomberg, Wall Street Journal — cuando adelantan un desarrollo regulatorio o corporativo antes de la publicación primaria. Citados como [WEB: medio] con URL.
  4. Datos de encuestas. Encuestadora nombrada, fecha nombrada, metodología verificada cuando es ambigua. Citados como [POLL: encuestadora].
  5. Inferencia a partir de las anteriores. Juicio del analista derivado de las capas superiores. Menor autoridad. Citada como [INFERENCE: based on X + Y] con la base nombrada explícitamente. Una etiqueta [INFERENCE] sin base declarada es rechazada por el runner.

El runner aplica un límite máximo a la proporción de afirmaciones etiquetadas como inferencia respecto al total de números-ancla. Si la proporción supera el umbral, el informe no puede promover — un análisis dominado por inferencia es estructuralmente indistinguible de comentario, y mantenemos la línea sobre esa diferencia.

Etiquetas de fuente

[SOURCE | DOC | PAGE N]
Corpus autoritativo. Copiado exactamente de la cabecera del documento recuperado. Fuentes primarias indexadas: NATO Annual Report 2025, IMF WEO April 2026, IEA World Energy Outlook 2025, WEF Global Risks Report 2026, Eurasia Group Top Risks 2026.
ej. [NATO | NATO_Annual_Report | p.34] · [IMF | WEO_April_2026 | p.12]
[WEB: source]
Fuentes web en tiempo real recuperadas en la fecha del análisis — noticias, anuncios gubernamentales, registros oficiales. URL proporcionada en la sección Fuentes de cada informe.
ej. [WEB: FT] · [WEB: Reuters] · [WEB: Global Times]
[POLL: pollster]
Datos de encuestas. Encuestadora y fecha nombradas — CIS (España), Forschungsgruppe Wahlen (Alemania), YouGov (Reino Unido).
ej. [POLL: CIS] · [POLL: YouGov] · Fecha citada
[INFERENCE: based on X + Y]
Razonamiento analítico a partir de las fuentes anteriores — el juicio del analista, identificado claramente como tal. Una etiqueta [INFERENCE] sin descripción de la base no está permitida.
Juicio del analista · No verificable directamente

Una afirmación etiquetada [INFERENCE] es el juicio del analista — puede estar equivocada. Una afirmación etiquetada [WEB] con URL puede verificarse en 30 segundos. El sistema de etiquetado existe para que los lectores puedan cuestionar cada afirmación de forma independiente.

Transparencia

Cada capa descrita arriba es verificable. El código fuente del runner y los judges, el registro de veredictos que registra cada decisión de gate, el registro de predicciones con fechas de falsabilidad, y el CHANGELOG con cada cambio metodológico están servidos desde el endpoint público de archivos del sitio en /api/file/<ruta> (manifiesto completo en /api/files). Los recibos son la credencial. Ver Acerca → Lo que es público para la lista completa y la lista (más corta) de lo que es deliberadamente no público.

Historial de predicciones

Cada umbral observable publicado en un informe de Clave se rastrea contra resultados. Para los primeros informes — el inicio de esta serie — no existen predicciones previas que verificar. A medida que la serie se desarrolla, esta sección acumulará tanto predicciones verificadas como fallidas. Ambas se publican.

El registro también es un canal de retroalimentación. Cuando una clase de predicciones falla sistemáticamente — tres o más fallos con una característica común, no ruido — se examina la causa y se aplica una de cuatro correcciones: se revisa una regla del prompt editorial, se añade una entrada al registro de hechos críticos, la clase de predicción se retira por no ser falsable en la forma previamente usada, o el gate que debería haberlo detectado se recalibra. Sin tuning automático; cada ajuste es revisado por el editor y fechado. El CHANGELOG público registra cada modificación, de modo que los lectores pueden verificar que las mejoras siguieron a los fallos, no los precedieron.

Esta publicación es solo con fines informativos. No constituye asesoramiento de inversión ni una recomendación personal. Clave no es un asesor de inversión regulado. Este contenido no constituye investigación de inversión bajo MiFID II, FINRA ni regulaciones equivalentes. Los lectores deben buscar asesoramiento financiero independiente regulado antes de tomar decisiones de inversión.