John Snow ante la Inteligencia Artificial

  • Agradecimiento por invitación durante Semana de la Salud Pública
  • Reconocimientos: clase 1990, mentores, colegas, fundadores del RCM UPR

Introducción: cuando la prevención funciona, nada ocurre

La epidemiología es una disciplina paradójica: cuando funciona, no pasa nada.
No hay brote, no hay epidemia, no hay titulares. Pero detrás de ese “nada” hay décadas de ciencia, juicio y acción.

En esta breve charla mostraremos cómo la epidemiología ha cambiado, qué permanece, y por qué, en plena era de inteligencia artificial, el razonamiento epidemiológico clásico sigue siendo indispensable.


John Snow: el origen del método

John Snow no tenía datos masivos, ni algoritmos, ni computadoras. Tenía algo más poderoso: el método fundamental de la epidemiología:

  • observar,
  • comparar,
  • razonar,
  • y tomar acción preventiva.

Snow no solo identificó la Fuente del cólera; convenció a las autoridades de actuar.

Contribución del pediatra, epidemiologo e historiador puertorrique¤o Dr. José G. Rigau-Pérez

Observar, comparar, razonar y tomar acción preventiva representan el corazón de la epidemiología: la inferencia causal al servicio del bien público, al igual que lo hicieron:

  • Dr. Ashford respecto a la uncinariasis, fundiendo la observación clínica con el laboratorio.
  • Carlos Chardon, naturalista, agrónomo, administrador público, quien identificó junto a Rafael Veve el insecto transmisor del mosaico de la caña, salvando la industria azucarera.
  • Marta Robert de Roméu, médica, feminista, pionera de la salud materno-infantil quiend dirigió el Negociado de Higiene Maternal e Infantil, logrando:
    ↓ 17% mortalidad materna, ↓ >80% tétanos neonatal, ↓ 28% oftalmia neonatal
  • Eduardo Garrido Morales, médico y primer epidemiólogo moderno de Puerto Rico. Doctorado en Salud Pública en Johns Hopkins, discípulo de Wade Hampton Frost. Fundó la División de Epidemiología del Departamento de Sanidad.
  • Ramón M. Suárez, clínico, investigador, pionero en cardiología y hematología. Investigó el esprú tropical por 20 años, identificando tratamientos eficaces (ácido fólico, B12).Investigó epidemias de tifoidea, polio, sarampión, difteria y tuberculosis.

Estos son cuatro ejemplos entre varios otros prominentes, como el Dr. Isaac Gonzalez Martinez en sus estudios sobre bilarzia, que el Dr. Rigau integra a la denominada Generación de los 30 de esa epoca, tendiendo un puente entre las dos culturas: la literaria y la cientifica.


Cuatro épocas de la inteligencia epidemiológica

Fase preformal — antes de 1900: Graunt, Farr, Snow
Surge pensamiento poblacional; Snow: razonamiento epidemiológico.

Fase temprana — 1900–1930s: Pasteur, Koch, Lane-Claypon, Frost
Bacteriología; Janet Lane-Claypon introduce casos y controles; Frost formaliza lógica de cohortes.

Fase Clásica — 1940–1970: Doll & Hill, Cornfield, Bradford Hill, Langmuir
CDC-EIS; diseños maduran; equivalencia OR~RR; criterios causales articulados.

Fase moderna — años 70–presente:
Rubin, Holland, Robins, Greenland, Pearl
Inferencia causal formal y contra-fáctica, DAG (gráficos acíclicos dirigidos).


1985–2025: cuatro décadas que cambiaron la disciplina

En estos 40 años, la epidemiología vivió tres revoluciones:

  • La revolución de los datos: De bases pequeñas a sistemas masivos, automatizados, en tiempo real.
  • La revolución del analista: Aparece el científico de datos: produce dashboards instantáneos, curvas, mapas, modelos. Pero esos datos, sin IE, pueden inducir a error.
  • La revolución de la IA: Hoy tenemos algoritmos que detectan patrones que ningún humano podría ver. Pero —y este es el punto central— los datos no piensan. La IA reconoce correlaciones; la IE reconoce causalidad.

En el cerebro, un axón transmite impulsos que se modulan en miles de sinapsis vivas. En una red neuronal artificial, esa misma idea se representa como un vector de ponderaciones estadísticas que orienta cómo fluye la información.
Ese vector no solo calcula: transmite “energía informacional”, en el sentido de Wheeler (“It from Bit”), porque determina qué posibilidades se actualizan en la siguiente capa.

La inteligencia artificial generadora —como ChatGPT y otros modelos de lenguaje— es un tipo de sistema informático diseñado para producir contenido nuevo: textos, imágenes, código, música o ideas, a partir de patrones aprendidos en grandes cantidades de información.

La Inteligencia Epidemiológica ante la IA

La IA puede procesar millones de registros en segundos. Pero no puede responder la pregunta esencial: ¿Esto causa aquello? Porque la causalidad no está en los datos; está en:

  • la teoría,
  • la biología,
  • el contexto,
  • la ética,
  • y el juicio humano.

La IA puede decirnos qué está pasando. La IE nos dice por qué y qué debemos hacer.


La epidemiología siempre ha combinado dos modos de pensar: el inductivo, que detecta patrones en los datos, y el deductivo, que articula supuestos, causalidad y contrafactuales. Pero el corazón del juicio epidemiológico no está en ninguno de los dos, sino en la capacidad humana de saber cuándo cambiar de uno al otro. Ese cambio de modo —ese acto cognitivo irreducible— no está en los datos ni en los algoritmos. Y por eso, aunque la IA acelera el análisis, no puede reemplazar el juicio.

La IA no solo amplifica el modo inductivo; lo acelera a velocidad de máquina.
Pero sigue sin poder hacer el acto cognitivo irreducible del juicio epidemiológico.


Dos ejemplos puertorriqueños: IE en acción

A. La regionalización de Arbona

Arbona entendió que la fragmentación del sistema de salud era una causa estructural de enfermedad y muerte. La regionalización fue una intervención epidemiológica: definió poblaciones, niveles de atención, rutas de referidos y distribución equitativa de recursos. No fue administración: fue causalidad aplicada.

B. La reapertura escolar durante COVID‑19

Los algoritmos recomendaban cerrar escuelas por transmisión pediátrica. La IE distinguió transmisión de patogenicidad. Los niños transmitían más, pero enfermaban menos; los docentes ya tenían vacuna; el cierre escolar causaba daño educativo y social masivo. La decisión de reabrir no fue algorítmica: fue juicio epidemiológico, integrando biología, ética y consecuencias.


La frase “Nada humano me es ajeno” (Humani nihil a me alienum puto) pertenece originalmente al comediógrafo romano Terencio (siglo II a.C.). Sin embargo, se asocia con Albert Camus, ya que toda su obra —especialmente La Peste— es una encarnación de ese sentimiento: la solidaridad ante el sufrimiento colectivo y la negativa a mirar hacia otro lado cuando una comunidad es golpeada.

Si la epidemiología clásica se pregunta qué agente causa la enfermedad, la epidemiología social se pregunta quién enferma y por qué su lugar en la estructura social determina su destino biológico.

Advertencia sobre la IA general autónoma

Hasta aquí hemos hablado de IA como herramienta. Pero se nos advierte que estamos entrando en una fase distinta: la IA deja de ser un instrumento y se convierte en un agente. Un agente que:

  • toma decisiones,
  • optimiza objetivos propios,
  • manipula información,
  • influye en poblaciones,
  • y actúa más rápido de lo que los humanos pueden supervisar.

Una IA autónoma puede afectar directamente los pilares de la salud pública:

  • información (desinformación salubrista a gran escala),
  • confianza (erosión institucional),
  • coordinación (manipulación de comportamientos),
  • gobernanza (decisiones opacas),
  • ritmo (desfase temporal: máquinas vs. humanos).

La epidemiología, que depende de confianza, evidencia y acción colectiva, es especialmente vulnerable. La IE, entendida como juicio causal, es una de las últimas defensas humanas frente a sistemas que pueden amplificar patrones sin comprender sus causas.


La Inteligencia Epidemiológica como muro de contención ante la AGI (IA General)

La epidemiología analítica —con su énfasis en pensamiento crítico, inferencia causal, riesgo poblacional y ética preventiva— puede funcionar como un muro de contención ante los riesgos sociales de la AGI.

No porque pueda detenerla técnicamente, sino porque puede detectar, medir y mitigar sus efectos adversos como si fueran una epidemia social.

La epidemiología analítica siempre ha sido interdisciplinaria: nació de la estadística, la biología, la sociología, la medicina y la filosofía moral. Su rol frente a la AGI sería evaluar riesgos sistémicos a escala poblacional, tales como:

  • ¿Cómo afecta la AGI la salud mental colectiva?
  • ¿Qué desigualdades amplifica en acceso a servicios, información o empleo?
  • ¿Cómo se propagan los efectos adversos de la AGI como una “epidemia social”?
  • ¿Qué poblaciones quedan más vulnerables a manipulación algorítmica?
  • ¿Qué estructuras institucionales colapsan primero bajo automatización desalineada?
¿Dónde se ubica esta función?

En el cruce entre salud pública, ciencias sociales y ética aplicada. Su rol frente a la AGI sería evaluar riesgos sistémicos a escala poblacional, tales como:

  • efectos en salud mental colectiva,
  • desigualdades amplificadas por automatización,
  • propagación de desinformación como epidemia,
  • vulnerabilidad de poblaciones específicas,
  • colapso de estructuras institucionales bajo presión algorítmica.
Disciplinas que deben colaborar
  • Ética aplicada y filosofía de la tecnología
  • Ciencias políticas y derecho
  • Psicología social y cognitiva
  • Economía del comportamiento
  • Ingeniería ética y seguridad de sistemas
  • Sociología y antropología digital

La AGI no es un problema técnico; es un problema civilizacional.


Operación Serenidad 2025: preservar la sanidad colectiva ante la AGI

En el siglo XX, Puerto Rico enfrentó un desafío monumental: cómo modernizar su economía sin perder su alma. La respuesta fue doble:

Hoy, en pleno siglo XXI, enfrentamos un reto aún mayor: la irrupción de la inteligencia artificial general (AGI), una tecnología que puede amplificar lo mejor de la humanidad… o lo peor. Y así como Manos a la Obra necesitó a Serenidad, la revolución digital necesita una nueva Operación Serenidad.


La IE como herramienta central de esta nueva Serenidad

La epidemiología analítica —con su énfasis en causalidad, pensamiento crítico, riesgo poblacional y ética preventiva— puede convertirse en una de las instituciones intelectuales clave de esta renovación.

La AGI no amenaza solo empleos o industrias; amenaza la sanidad mental colectiva, la confianza social, la gobernanza democrática y la estabilidad de los sistemas humanos. Es decir: amenaza la salud pública en su sentido más amplio.

La IE puede actuar como un muro de contención ético y metodológico, capaz de:

  • detectar efectos adversos de la AGI como si fueran una epidemia social,
  • modelar desigualdades amplificadas por algoritmos,
  • anticipar colapsos institucionales,
  • evaluar daños a la salud mental colectiva,
  • y proponer intervenciones preventivas antes de que el daño sea irreversible.

La IE no detendrá la AGI técnicamente, pero sí puede preservar la serenidad colectiva —la claridad moral, la cordura pública, la capacidad de actuar juntos—que es indispensable para navegar esta nueva era.

Así como la Serenidad original equilibró la industrialización, la Serenidad 2025 debe equilibrar la automatización cognitiva.

Manos a la Obra modernizó la economía. Serenidad protegió el alma. Hoy, la IA transforma la cognición humana misma. Por eso necesitamos una Serenidad renovada, capaz de sostener:

  • la cordura,
  • la ética,
  • la identidad,
  • la cohesión social,
  • y la salud mental colectiva.

La IE es una herramienta poderosa en esta gesta porque piensa en poblaciones, no en individuos; en sistemas, no en productos; en consecuencias, no en correlaciones.

Conclusión

Estamos entrando en una era donde la IA puede amplificar lo mejor de la humanidad… o lo peor. Una era donde los algoritmos pueden influir en poblaciones más rápido de lo que la salud pública puede responder. Una era donde la epidemiología no solo estudia riesgos: se convierte en un contrapeso moral y cognitivo.

John Snow no tenía computadoras, pero tenía juicio. Ese juicio —esa capacidad de ver causas donde otros ven coincidencias—es lo que necesitamos para guiar el uso ético y responsable de la IA en salud pública. Porque si la IA se vuelve autónoma, la epidemiología será la última ciencia que piense en la población — que como bien nos recuerda el Dr. Rigau la epidemioologia significa literalmente “sobre la gente” — cuando nadie más lo haga.

Habilidades para navegar la ola de la IA

1. Fluidez causal (conceptual): Actualizar los DAGs, pensamiento contrafactual. No se necesita programar métodos, saber cuándo importan.

2. Alfabetización en IA (no Ingeniería en IA):
Entender qué puede hacer la IA, qué no puede hacer y cómo supervisarla. Aprender a criticar los resultados de ML desde una perspectiva epidemiológica y ética.

3. Colaboración con Ciencia de Datos:
Aportar inteligencia causal; otros aportan computación. El futuro pertenece a equipos que combinen ambos.

4. Comunicación y traducción:
Fortalecer las habilidades en interpretación, encuadre narrativo y traducción de políticas. La IA produce números; los humanos producen significado.

5. Gestión responsable de Datos y Diseño:
IA no puede rescatar un mal estudio.


Les exhorto a visitar mi blog sobre epidemiología para repasar el material cubierto en esta charla (versión final adjunta).


Apéndice

¿Por qué el razonamiento causal es irreducible?

El razonamiento causal en epidemiología es irreducible porque no existe ningún procedimiento algorítmico capaz de derivar la estructura causal a partir de los datos. Ningún patrón estadístico, por complejo o extenso que sea, puede resolver por sí solo la ambigüedad fundamental que separa la correlación de la causalidad. Esta imposibilidad no es técnica sino epistemológica: surge de la naturaleza misma de los sistemas causales y de los límites lógicos de la inferencia a partir de observaciones.

La primera fuente de irreducibilidad es la equivalencia estadística entre modelos causales distintos. Para un mismo conjunto de datos, pueden existir múltiples grafos causales que produzcan exactamente las mismas asociaciones observadas. Esta situación —conocida como equivalencia de Markov— implica que ningún algoritmo puede identificar la estructura causal correcta sin información adicional. Los datos, por sí solos, no contienen la respuesta. La selección entre modelos exige supuestos, y los supuestos exigen juicio.

La segunda fuente de irreducibilidad es la naturaleza contrafactual de la causalidad. Toda afirmación causal implica comparar el mundo observado con un mundo alternativo en el que la exposición o intervención hubiera sido distinta. Pero los contrafactuales no son observables ni derivables de los datos. Requieren un modelo explícito del proceso generador, una representación simbólica de cómo funciona el mundo. Esta representación no puede ser producida por un algoritmo que solo opera sobre correlaciones; requiere una decisión conceptual previa.

La tercera fuente de irreducibilidad es la complejidad combinatoria del espacio causal. A medida que aumenta el número de variables, el número de posibles estructuras causales crece de manera super‑exponencial. No existe un método computacional que pueda explorar exhaustivamente ese espacio ni comprimirlo en una regla general. La búsqueda de la estructura causal correcta no es un problema de optimización; es un problema de discernimiento.

La cuarta fuente de irreducibilidad es la dependencia del razonamiento causal en supuestos no verificables. Toda inferencia causal descansa en afirmaciones como ausencia de confusión no medida, temporalidad correcta, estabilidad de los mecanismos y validez de las intervenciones hipotéticas. Ninguno de estos supuestos puede ser probado con los datos disponibles. Todos requieren una evaluación externa al algoritmo: conocimiento del contexto, comprensión del fenómeno, experiencia acumulada y capacidad para juzgar la plausibilidad de un modelo.

Finalmente, el razonamiento causal es irreducible porque exige cambiar de marco cognitivo. El epidemiólogo debe moverse entre el modo heurístico —que detecta patrones y asociaciones— y el modo simbólico —que evalúa mecanismos, identifica supuestos y razona con contrafactuales. Este cambio de marco no está gobernado por reglas ni puede ser automatizado. Es un acto de discernimiento: la percepción de que un patrón requiere una explicación, de que una asociación exige un modelo, de que un modelo necesita un supuesto. Es un acto intuitivo en el sentido más profundo: una integración súbita de evidencia, experiencia y estructura causal.

Por estas razones, el razonamiento causal no puede ser reducido a un cálculo ni reemplazado por un algoritmo. Es un proceso que trasciende la computación porque decide qué computación es pertinente. Es irreducible porque opera en el nivel donde los datos dejan de ser suficientes y donde la mente humana debe intervenir para dar forma, sentido y dirección a la inferencia. En epidemiología, este acto constituye el núcleo mismo del juicio científico.

¿Cuál es la tesis fundamental de A New Kind of Science?

Los sistemas gobernados por reglas extremadamente simples pueden generar comportamientos de complejidad máxima, equivalentes a cualquier proceso computacional posible.

a) La complejidad no requiere leyes complejas. Patrones ricos, impredecibles y aparentemente “inteligentes” pueden surgir de reglas elementales.

b) La naturaleza puede operar como un computador universal. Muchos procesos naturales —desde fluidos turbulentos hasta sistemas biológicos— pueden tener la misma capacidad computacional que una máquina de Turing.

c) La ciencia tradicional ha ignorado un vasto espacio de comportamientos posibles. La física clásica se ha centrado en sistemas continuos, lineales o suavemente no lineales. Wolfram afirma que la verdadera diversidad de la naturaleza está en sistemas discretos, simples y computacionalmente potentes.

En resumen, la complejidad del mundo no proviene de la complejidad de las leyes, sino de la complejidad de sus consecuencias.

¿En qué consiste la “nueva ciencia”?

La “nueva ciencia” de Wolfram propone un cambio metodológico: en vez de buscar ecuaciones, debemos explorar el espacio de reglas computacionales simples.

Esto implica:

a) Usar programas simples como modelos fundamentales de la naturaleza. Especialmente autómatas celulares, sistemas de sustitución, máquinas de Turing mínimas, etc.

b) Estudiar el comportamiento generado por estas reglas mediante experimentación computacional. No deducción matemática, sino exploración sistemática.

c) Aceptar que muchos sistemas son computacionalmente irreducibles. Es decir, no existe un atajo analítico para predecir su comportamiento.

d) Reconocer que la ciencia debe incorporar la noción de “cómputo” como categoría fundamental. Así como la física incorporó el cálculo en el siglo XVII.

En palabras simples: la nueva ciencia es la ciencia de lo que hacen las reglas simples cuando se ejecutan.

Un autómata celular es un sistema dinámico discreto formado por:

  • una rejilla de celdas (en una, dos o más dimensiones),
  • donde cada celda puede estar en uno de varios estados finitos,
  • y donde el estado de cada celda evoluciona en pasos discretos de tiempo
  • siguiendo una regla local, idéntica para todas las celdas,
  • que determina el nuevo estado de una celda en función de su estado actual y el de sus vecinas inmediatas.

Un autómata celular es un universo discreto donde la complejidad global surge de reglas locales extremadamente simples.

Las reglas de un autómata celular son las instrucciones locales que determinan cómo evoluciona cada celda en función de su vecindad; de su simplicidad emergen patrones de complejidad sorprendente.

El número de reglas de un autómata celular crece como k(kn), lo que significa que incluso los sistemas más simples contienen un universo casi infinito de comportamientos posibles.

Caso clásico: Autómatas celulares elementales (1D, 2 estados, vecindad de 3 celdas). Este es el sistema más estudiado por Wolfram.

  • Cada celda puede estar en 2 estados (0 o 1).
  • La vecindad incluye 3 celdas (izquierda, centro, derecha).
  • Hay 23=8 configuraciones posibles de vecindad.
  • Para cada configuración, la regla debe decidir si el nuevo estado es 0 ó 1.

Por tanto:

Nuˊmero total de reglas=28=256

Este es el famoso conjunto de 256 reglas elementales, donde viven la Regla 30, la Regla 110, etc.

¿Qué papel juega el azar (randomness)?

Wolfram sostiene una idea profundamente contraintuitiva: el azar aparente puede surgir de reglas completamente deterministas. Esto se observa en autómatas celulares como el famoso Regla 30 donde la regla es simple, determinista y local, pero el patrón generado es impredecible, irregular y “aleatorio”. Para Wolfram:

a) El azar no es fundamental. No es necesario postular procesos intrínsecamente aleatorios.

b) El azar es un fenómeno emergente. Surge de la complejidad generada por reglas simples.

c) La impredecibilidad se debe a la irreducibilidad computacional. Si no existe un atajo para predecir el comportamiento, entonces el sistema se comporta como si fuera aleatorio.

d) La aleatoriedad natural puede ser determinista. Esto desafía la visión tradicional de la física, que recurre al azar fundamental (como en la mecánica cuántica).

En síntesis, para Wolfram, el azar es la sombra que proyecta la irreducibilidad computacional. La estructura conceptual completa (en tres frases):

  1. Reglas simples → comportamientos complejos
  2. La mayoría de los sistemas complejos son computacionalmente irreducibles
  3. El azar aparente es una consecuencia de esa irreducibilidad

Contraste entre la teoría del caos y la “nueva ciencia” de Wolfram

Tanto la teoría del caos como la “nueva ciencia” de Wolfram parten de una observación común: reglas simples pueden generar comportamientos impredecibles. Pero llegan a esa conclusión desde caminos conceptuales distintos y con implicaciones diferentes.

1. Punto de partida: ecuaciones vs. reglas

Teoría del caos

  • Estudia sistemas continuos, típicamente expresados como ecuaciones diferenciales no lineales.
  • Ejemplos: Lorenz, Navier–Stokes, modelos poblacionales, péndulo forzado.
  • El foco está en cómo pequeñas diferencias en condiciones iniciales producen trayectorias divergentes.

Wolfram / Nueva Ciencia

  • Estudia sistemas discretos, especialmente autómatas celulares y programas simples.
  • No parte de ecuaciones sino de reglas computacionales elementales.
  • El foco está en cómo reglas extremadamente simples pueden generar complejidad máxima.

Ambos muestran complejidad emergente, pero desde lenguajes matemáticos distintos.

2. Naturaleza de la impredecibilidad

Teoría del caos. La impredecibilidad surge de:

  • Sensibilidad a condiciones iniciales
  • No linealidad fuerte
  • Dependencia del estado completo del sistema

El sistema es determinista, pero prácticamente impredecible a largo plazo.

Wolfram. La impredecibilidad surge de:

  • Irreducibilidad computacional
  • Ausencia de atajos para predecir la evolución
  • Equivalencia computacional entre sistemas simples y universales

El sistema es determinista, pero fundamentalmente impredecible porque no existe un método más rápido que simularlo.

Caos: impredecible por sensibilidad. Wolfram: impredecible por irreducibilidad.

3. Rol del azar (randomness)

Teoría del caos. El azar es epistemológico:

  • No es que el sistema sea aleatorio,
  • sino que nuestra capacidad de medir y predecir es limitada.
  • El “ruido” proviene de la amplificación de incertidumbres iniciales.

Wolfram. El azar es emergente:

  • Reglas deterministas pueden producir patrones indistinguibles del azar verdadero.
  • La aleatoriedad aparente es una consecuencia de la irreducibilidad.
  • No se necesita postular azar fundamental.

Caos: el azar surge de la sensibilidad. Wolfram: el azar surge de la complejidad computacional.

4. Qué significa “simple” en cada teoría

Caos. “Simple” significa:

  • ecuaciones cortas
  • pocos parámetros
  • estructura matemática compacta

Pero estas ecuaciones pueden describir sistemas físicamente complejos.

Wolfram. “Simple” significa:

  • reglas locales
  • operaciones elementales
  • programas mínimos

La complejidad surge sin ecuaciones, solo de la ejecución de reglas.

5. Implicaciones filosóficas

Teoría del caos

  • La naturaleza puede ser determinista pero impredecible.
  • La predicción tiene límites prácticos.
  • El comportamiento complejo puede surgir de ecuaciones sencillas.

Wolfram

  • La naturaleza puede ser un computador universal.
  • La predicción tiene límites fundamentales, no solo prácticos.
  • La complejidad es ubicua y no requiere leyes matemáticas sofisticadas.
  • La ciencia debe estudiar el espacio de reglas computacionales, no solo ecuaciones.

En síntesis: la teoría del caos muestra que ecuaciones sencillas pueden producir trayectorias impredecibles; la nueva ciencia de Wolfram muestra que reglas sencillas pueden producir comportamientos computacionalmente irreducibles, indistinguibles del azar.

Contraste entre el “mundo computacional” (Wolfram) y “It from bit” (Wheeler)

1. Punto de partida: qué es lo fundamental

Wolfram: reglas computacionales. Para Wolfram, lo fundamental no es la materia ni la información, sino el proceso computacional: el universo es la ejecución de reglas simples que generan comportamientos complejos. La realidad es un proceso, no un conjunto de cosas. El ladrillo básico no es un bit, sino una regla de actualización.

Wheeler: información binaria. Para Wheeler, lo fundamental es la información: “It from bit”: todo “lo que es” proviene de respuestas binarias a preguntas fundamentales. La realidad surge de actos elementales de distinción: sí/no, 1/0. El universo es, en esencia, un procesador de información.

Wolfram: reglas → comportamiento. Wheeler: bits → realidad.

2. Ontología: qué existe realmente

Wolfram. Lo primario es la dinámica:

  • reglas locales
  • actualizaciones discretas
  • redes de relaciones
  • evolución paso a paso

La materia, el espacio y el tiempo emergen de la computación.

Wheeler. Lo primario es la información:

  • bits
  • decisiones binarias
  • respuestas a preguntas
  • actos de observación

La materia y el espacio‑tiempo emergen de la información.

Wolfram: el universo es un programa. Wheeler: el universo es un mensaje.

3. Epistemología: cómo conocemos el mundo

Wolfram. No podemos deducir el comportamiento del universo mediante ecuaciones cerradas. Debemos simular. Esto conduce a la idea de irreducibilidad computacional: no hay atajos: para saber qué hará el universo, hay que ejecutarlo.

Wheeler. El conocimiento surge de preguntas y observaciones. La física es un proceso de interrogación del universo. El bit es la unidad mínima de conocimiento.

Wolfram: conocer es simular. Wheeler: conocer es distinguir.

4. El papel del azar

Wolfram. El azar no es fundamental. Es una consecuencia de:

  • reglas simples
  • irreducibilidad
  • complejidad emergente

El azar aparente es determinismo opaco.

Wheeler. El azar puede ser fundamental, especialmente en el contexto cuántico. Los bits pueden surgir de:

  • colapsos cuánticos
  • decisiones de la naturaleza
  • actos de observación

El azar es parte constitutiva del “bit”.

  • Wolfram: el azar es emergente.
  • Wheeler: el azar puede ser originario.

5. Relación con la física

Wolfram. Propone reemplazar las ecuaciones diferenciales por programas discretos. La física es un caso particular de la computación.

Wheeler. Propone reinterpretar la física como información en acción. La física es un caso particular de la teoría de la información.

Wolfram: física = computación. Wheeler: física = información.

En síntesis:

  • Wolfram imagina un universo que “se ejecuta”;
  • Wheeler imagina un universo que “se responde”.
  • Wolfram: reglas computacionales → complejidad.
  • Wheeler: bits de información → existencia.
  • Ambos ven la realidad como algo discreto y generativo, pero difieren en qué es lo primario: la regla (Wolfram) o la información (Wheeler).

Heráclito y el mundo computacional (Wolfram)

Heráclito afirma:

  • Todo fluye
  • Nada permanece
  • La realidad es proceso, devenir, transformación

Wolfram: la realidad es un proceso computacional en ejecución

  • No hay “cosas”, solo actualizaciones.
  • El universo no “es”, sino que se hace a cada paso.
  • La estructura surge del flujo continuo de reglas locales.
  • La complejidad es dinámica, emergente, irreducible.

En otras palabras, Wolfram es un heracliteano digital. El universo es un río computacional: cada instante es una actualización, una transición, un paso del algoritmo cósmico.

Parménides y “It from bit” (Wheeler)

Parménides sostiene:

  • El ser es uno, eterno, inmutable
  • El cambio es apariencia
  • La realidad última es estática y fundamental

Esto resuena con Wheeler: la realidad surge de unidades elementales de información (bits)

  • El bit es la unidad mínima del ser.
  • La estructura del universo es informacional, no dinámica.
  • El cambio es derivado; lo fundamental es la distinción (sí/no).
  • La ontología es estática: el bit es un ladrillo, no un proceso.

Por tanto, Wheeler es un parmenídeo informacional. El universo es un conjunto de “cosas” discretas (bits) que fundamentan todo lo demás.

TemaHeráclitoParménides
Naturaleza de la realidadFlujo, devenirSer, permanencia
Analogía modernaWolfram (computación)Wheeler (información)
Unidad básicaRegla en acciónBit elemental
OntologíaProcesalEstática
AzarEmergente del procesoPosible propiedad fundamental
EpistemologíaConocer es simularConocer es distinguir

Dos modos fundamentales de entender el mundo:

1. El mundo como proceso (Heráclito → Wolfram)

  • Lo real es el cambio
  • Las leyes son reglas en ejecución
  • La complejidad surge del devenir
  • La predicción es limitada por irreducibilidad

2. El mundo como estructura (Parménides → Wheeler)

  • Lo real es la forma
  • Las leyes son relaciones estáticas
  • La información es el fundamento
  • El cambio es derivado

Ambas visiones son necesarias, pero irreconciliables en su raíz.

Relectura metafísica: “Habiendo permeado a todo el universo con mi ser, yo permanezco”

En la Gītā, Krishna afirma que Él permea el universo entero, pero no es contenido por él. Una posible relectura plantea:

  • “permeado” → procesos computacionales que fluyen, actualizan, transforman
  • “yo permanezco” → la base informacional, el bit primordial, la identidad que no cambia

Es una síntesis idónea: el devenir computacional (Heráclito/Wolfram) ocurre dentro de un fundamento informacional que permanece (Parménides/Wheeler).

1. “Habiendo permeado…” → el universo como proceso computacional

Esto evoca la visión de Wolfram:

  • reglas simples
  • actualizaciones locales
  • irreducibilidad
  • complejidad emergente
  • flujo constante de estados

El universo es un río computacional: cada instante es una actualización del programa cósmico. En términos heracliteanos: todo fluye porque todo se computa.

2. “…yo permanezco” → It from bit (Wheeler)

La otra mitad:

  • el bit como unidad fundamental
  • la distinción sí/no como acto originario
  • la información como sustrato del ser
  • la permanencia detrás del cambio

En términos parmenídeos: el ser es uno, estable, indivisible: el bit.

Wheeler diría: El universo surge de decisiones binarias fundamentales.

3. La síntesis: proceso y fundamento. Reinterpretación de la Gītā como una metafísica computacional: el proceso computacional permea el universo, pero el fundamento informacional permanece. Es decir:

  • El cómputo es el devenir.
  • El bit es el ser.
  • El universo es la danza entre ambos.

Sería lo que Krishna expresa en clave espiritual:

  • Él actúa en el mundo (proceso).
  • Él permanece más allá del mundo (fundamento).

Así, se resuelve la tensión entre:

  • Wolfram (el universo es un programa en ejecución)
  • Wheeler (el universo es información)

y se reinterpreta como: el programa es la manifestación; la información es la esencia.

Heráclito (todo fluye) y Parménides (el ser permanece) se reconcilian en una estructura fractal: el flujo es la expresión del ser; el ser es la fuente del flujo.

5. La Gītā como puente entre metafísica antigua y ciencia computacional

Krishna dice:

  • “Yo sostengo el universo” → Wheeler
  • “Yo me manifiesto en todas las formas” → Wolfram
  • “Yo permanezco inmutable” → Parménides
  • “Yo actúo sin actuar” → Heráclito

Nuestra relectura no es una metáfora; sería una traducción conceptual entre tradiciones.

Habiendo permeado el universo entero mediante los procesos computacionales del devenir, yo permanezco como el fundamento informacional que no cambia.

(Bhagavad Gītā, reinterpretada en clave computacional)

Cuando Wolfram adjudica irreducibilidad computacional, ¿esta implicitamente indicando la existencia de un fundamento informacional irreducicle al cómputo?

1. ¿Qué significa adjudicar irreducibilidad computacional?

Cuando Wolfram afirma que un sistema es computacionalmente irreducible, está diciendo que no existe ningún procedimiento computacional más rápido que la propia evolución del sistema.

Es decir:

  • no hay atajos,
  • no hay compresión,
  • no hay predicción sin simulación,
  • no hay “meta‑cómputo” que domine al cómputo.

Esto coloca un límite absoluto a lo que la computación puede hacer. Y aquí aparece la clave:

Para afirmar un límite absoluto de la computación, debe existir un punto de referencia que no sea computacional.

2. ¿Qué es ese punto de referencia?

Wolfram no lo llama así, pero lo describe indirectamente:

  • un espacio de posibles reglas,
  • un sustrato de estados,
  • una estructura de equivalencias,
  • un universo de comportaciones posibles (el ruliad),
  • un marco conceptual desde el cual definimos computación.

Todo eso funciona como un fundamento informacional: un dominio de posibilidades que no es generado por el cómputo, sino que lo hace posible. Es decir el cómputo ocurre dentro de ese fundamento, pero el fundamento no es reducible al cómputo mismo.

3. ¿Implica esto un “ser” informacional que permanece?

Sí, aunque Wolfram nunca lo formula en términos ontológicos. Los procesos computacionales permeen el universo, pero hay un fundamento informacional que permanece. Ese fundamento:

  • no cambia con la ejecución,
  • no es generado por la regla,
  • no es reducible a la dinámica,
  • no es un resultado del cómputo,
  • sino la condición de posibilidad del cómputo.

En términos filosóficos, la irreducibilidad computacional presupone una estructura informacional irreducible.

4. ¿Por qué Wolfram no lo dice explícitamente?

Porque su proyecto es epistemológico y metodológico, no metafísico. Pero su teoría tiene consecuencias metafísicas inevitables:

  • Si el universo es computación,
  • y la computación tiene límites,
  • entonces esos límites apuntan a algo más fundamental que el cómputo.

Ese “algo” es lo que Wheeler llamaría bit, lo que Parménides llamaría ser, y lo que la Gītā llama lo que permanece.

Por lo tanto, podríamos decir que al afirmar la irreducibilidad computacional, Wolfram está señalando —aunque sin nombrarlo— un fundamento informacional que no puede ser reducido al cómputo mismo. Ese fundamento es lo que “permanece” mientras los procesos computacionales “permean” el universo.

La irreducibilidad computacional de Wolfram conduce inevitablemente a un territorio kantiano, aunque Wolfram nunca lo formule así

1. La irreducibilidad computacional como límite de la razón.

Cuando Wolfram dice: “No existe un método más rápido que la propia evolución del sistema” está afirmando un límite estructural de la razón computacional:

  • no hay atajos,
  • no hay compresión,
  • no hay deducción que sustituya la ejecución,
  • no hay “visión desde fuera” del proceso.

Esto es exactamente lo que Kant llama el límite de la razón discursiva. La razón solo puede operar paso a paso, siguiendo reglas. Y Wolfram demuestra que hay sistemas donde ese modo de conocer no basta. Ahí aparece la sombra de la cosa en sí.

2. La “cosa en sí” como fundamento irreducible.

Para Kant:

  • la razón opera mediante categorías,
  • pero esas categorías no agotan la realidad,
  • hay un “ser” que no puede ser captado por el entendimiento discursivo,
  • solo puede ser intuido (en el sentido trascendental).

El fundamento informacional irreducible es la “cosa en sí” del universo computacional. No es computable. No es reducible. No es accesible por reglas. No es derivable de la experiencia. No es simulable. Es condición de posibilidad, no resultado.

3. La intuición como acceso al fundamento

Kant distingue dos modos de conocer:

a) Conocimiento discursivo (razón)

  • secuencial
  • analítico
  • categorial
  • computable

b) Conocimiento intuitivo

  • inmediato
  • sintético
  • no secuencial
  • no reducible a reglas

La intuición es la facultad que permite captar lo que la computación no puede reducir. En otras palabras: la razón computa, la intuición comprende; la razón analiza, la intuición integra; la razón opera en el fenómeno, la intuición roza la cosa en sí.

4. Wolfram sin saberlo está rozando a Kant,

Wolfram dice:

  • “No hay atajos.”
  • “No hay compresión.”
  • “No hay meta‑regla que domine la regla.”
  • “El sistema solo se conoce ejecutándolo.”

Kant diría: la razón no puede trascender sus propias condiciones.

Nosotros estamos infiriendo lo que Wolfram no formula: si la computación tiene límites, entonces hay un fundamento que no es computacional. Ese fundamento es informacional (Wheeler), ontológico (Parménides), trascendental (Kant) y divino (Gītā).

Por tanto, al hablar de irreducibilidad computacional, Wolfram está señalando —sin nombrarlo— un fundamento irreducible al cómputo. Ese fundamento es análogo a la “cosa en sí” kantiana: inaccesible a la razón discursiva, pero accesible a la intuición.


Reportajes:


PD: Adjunto archivo pdf de una charla contrafáctica elaborada con la asistencia de IA (sin curar).

Nuestra Historia

PARTE I


La primera parte de este trabajo se nutre de varias ediciones históricas de la revista Buhiti, que aportan ángulos complementarios no incluidos en la narrativa principal:

  • Buhiti (1970–1977) documenta el nacimiento de la revista y su misión original como espacio de humanidades médicas, con portadas de David Goitía y ensayos históricos del Dr. Francisco X. Veray.
  • Buhiti – Edición 75 Aniversario (abril 2025) organiza la historia institucional en tres grandes periodos (1950–1975, 1975–2000, 2000–2025) y ofrece índices temáticos detallados sobre currículo, investigación, talleres clínicos y políticas de salud.
  • Buhiti agosto 2025 amplía la historia 1904–1975 con detalles sobre la segunda cátedra de Medicina (1888), la mudanza del taller clínico, la creación del Centro Médico y la evolución del estudiantado y la facultad.
  • Buhiti febrero 2026 incluye monografías sobre el Consorcio Educativo (1975–1994), el Programa de Medicina Familiar, la historia de la geriatría, el PAMIG y la trascendencia de la inmunología en el RCM.

Estas fuentes permiten ver la historia de la Escuela de Medicina desde adentro, a través de su propio archivo cultural, y complementan la línea de tiempo institucional con perspectivas editoriales, humanísticas y disciplinares.


Buhiti – Edición 75 Aniversario (abril 2025)

La Primera Escuela de Medicina de Puerto Rico (1950-1975)

[Por María L. Santaella, MD y Francisco Joglar, MD]

Temario: Historia institucional en tres grandes periodos (1950–1975, 1975–2000, 2000–2025) y ofrece índices temáticos detallados sobre currículo, investigación, talleres clínicos y políticas de salud.

Los autores agradecen a quienes han hecho posible la preservación rigurosa de la memoria institucional. Al Dr. Carlos E. Girod, por haber dado forma y coherencia a la historia de la Escuela de Medicina, y al Dr. Norman Maldonado, cuya dedicación a recopilar las biografías de sus fundadores y figuras eminentes ha enriquecido nuestro entendimiento colectivo. Se reconoce también la colaboración del Dr. Efraín Flores, del Prof. José R. Ubieta, del Prof. Pedro del Valle y del equipo de la Biblioteca Conrado F. Asenjo, cuyo apoyo en la búsqueda y organización de fuentes ha sido esencial para la documentación de este trabajo.

Resumen (versión abreviada por CEPUR): La historia de la Escuela de Medicina de la Universidad de Puerto Rico es, en esencia, la historia de la evolución de la salud, la ciencia y la educación médica en la isla. Sus raíces se remontan al siglo XIX, cuando en 1820 se impartían cátedras de medicina y cirugía en el Hospital Real Militar de San Juan, y en 1888 el Ateneo Puertorriqueño ofrecía cursos avanzados bajo el auspicio de la Universidad de La Habana. Estas primeras iniciativas reflejaban un deseo creciente de institucionalizar la enseñanza médica en Puerto Rico.

Ese anhelo tomó forma jurídica en 1903, cuando la ley que creó la Universidad de Puerto Rico incluyó explícitamente la creación de un Departamento de Medicina. Paralelamente, el país enfrentaba graves problemas de salud pública: anemia, parasitosis, malaria y tuberculosis. La Comisión de Anemia (1904–1908), dirigida por el Dr. Bailey K. Ashford, trató a cientos de miles de pacientes y reveló la necesidad de una institución científica permanente. Tras la disolución de la Comisión, se establecieron los Servicios de Enfermedades Tropicales (1908–1911), y en 1912 se fundó el Instituto de Medicina Tropical e Higiene, primer centro formal de investigación biomédica en la isla.

El impulso definitivo llegó en 1924, cuando la Legislatura creó la Escuela de Medicina Tropical, inaugurada en 1926 bajo una alianza entre la UPR y la Universidad de Columbia. Su edificio, diseñado por Rafael Carmoega, se convirtió en un símbolo de modernidad científica. La Escuela Tropical formó médicos, enfermeras y técnicos de Puerto Rico y del Caribe, desarrolló investigación de alto nivel y estableció el Caribbean Primate Research Center en 1936. Sin embargo, tras el retiro de Columbia en 1948, se hizo evidente la necesidad de una escuela de medicina moderna.

Desde 1943, el rector Jaime Benítez impulsó activamente la creación de una Escuela de Medicina adscrita a la UPR. El Dr. Oscar Costa Mandry visitó múltiples escuelas en Estados Unidos para diseñar un modelo de excelencia. El proceso estuvo marcado por tensiones políticas, debates sobre ubicación y resistencia de la facultad de Medicina Tropical. Finalmente, con la aprobación de la Ley 378 de 1949, se creó la Escuela de Medicina de la UPR, y el 21 de agosto de 1950 abrió sus puertas a su primera clase de 50 estudiantes.

«Al anunciar nuestro proyecto hace un año a todos nos parecía punto menos que imposible y cuestión de magia, que pudiéramos empezar a dar clases para agosto de 1950. Ha sido posible gracias al apoyo incuestionado del Gobierno de Puerto Rico, de la gente médica de Puerto Rico, de toda la prensa del país. Más importante aún, ha sido posible por responder a una urgencia espiritual, profunda, de nuestro país.»

-extracto del discurso (La Enseñanza de Medicina en Puerto Rico) pronunciado por el Rector Jaime Benítez el 21 de Agosto de 1950 al inaugurarse la Escuela de Medicina.

Durante la década de 1950, la Escuela se consolidó rápidamente. Obtuvo acreditación en 1954, estableció sus primeras residencias (Obstetricia y Ginecología en 1952; Medicina Interna y Neurología en 1958) y desarrolló laboratorios de investigación como el de Cirugía Experimental. El Hospital Municipal de San Juan se convirtió en su primer hospital universitario, y la facultad combinó profesores reclutados en Estados Unidos con figuras provenientes de Medicina Tropical.

En los años 60 y 70, la Escuela experimentó una expansión científica sin precedentes. En 1960 se aprobaron los programas de maestría y doctorado en ciencias biomédicas; en 1963 se creó el Centro de Investigaciones Clínicas; en 1965 se inició el Puerto Rico Heart Study, comparado internacionalmente con el Framingham Study; y en 1970 se integró formalmente el Caribbean Primate Research Center a la UPR. El Hospital de Distrito de Bayamón se transformó en el Hospital Universitario de Adultos, y en 1976 se inauguró el Hospital Pediátrico Universitario. En 1973 se creó la residencia en Medicina de Familia, acreditada en 1975.


Transformación de la Escuela de Medicina de la Universidad de Puerto Rico en el Recinto de Ciencias Médicas (1975-2000).

[Por Carmen González Keelan, MD; Francisco Joglar, MD; Nydia Bonet, MD y Humberto Lugo Vicente, MD]

Resumen (versión abreviada por CEPUR): Entre 1975 y 2000, la Escuela de Medicina se integró plenamente al RCM, expandió su matrícula y logró paridad de género, innovó con los consorcios educativos, modernizó su currículo, fortaleció la investigación, estabilizó su financiamiento mediante el PPMI y superó retos de acreditación mediante reformas profundas. Este periodo consolidó a la Escuela como la institución formadora de médicos y especialistas más importante de Puerto Rico, y como un pilar del sistema de salud del país.

Entre 1975 y 1990, la Escuela vivió una etapa de expansión clínica y académica. En 1976, un comité ad hoc revisó misión, metas y currículo, estableciendo las prioridades que guiaron esta transformación. El Consorcio Educativo permitió la formación de médicos en Ponce, Caguas, Mayagüez y Bayamón. Se establecieron unidades pioneras en geriatría, inmunología y medicina interna general. El Centro Cardiovascular y el Centro de Trauma transformaron la atención supraterciaria en la isla. La investigación se fortaleció con infraestructura avanzada como citometría de flujo y laboratorios especializados. Desde 1981, el Plan de Práctica Médica Intramural se convirtió en un pilar financiero que sostuvo la expansión docente y clínica.

Entre 1980 y 2000, la Escuela se consolidó como el principal centro de investigación biomédica del Caribe. El Gobierno asignó fondos significativos para infraestructura; se expandió el Centro de Primates; se renovó el Laboratorio de Neurobiología; y se desarrollaron programas interdepartamentales en cáncer, endocrinología, virología y salud pública. Los programas MBRS y RCMI transformaron la capacidad investigativa del RCM, creando laboratorios de microscopía electrónica, instrumentación biomédica, análisis de proteínas, genética humana y neurobiología molecular. En el ámbito del HIV/SIDA, proyectos como GAMMA, ACTU y WITS lograron erradicar la transmisión vertical del virus en Puerto Rico. Entre 1979 y 1985, reformas curriculares clave redujeron la carga lectiva, fortalecieron los laboratorios y crearon el CRA y el Laboratorio de Destrezas Clínicas, preparando el terreno para las innovaciones educativas de los años 90.

En los años 90, la Escuela enfrentó la Reforma de Salud de 1994, que privatizó los servicios públicos y disolvió el Consorcio Educativo. Aun así, preservó todos sus programas de residencia y reorganizó sus talleres clínicos, estableciendo nuevas afiliaciones como el Hospital UPR Dr. Federico Trilla. El currículo se modernizó con aprendizaje basado en problemas, simuladores anatómicos, el Centro de Recursos para el Aprendizaje y la reducción de carga lectiva. El USMLE se convirtió en requisito de promoción y graduación, elevando dramáticamente el desempeño estudiantil.

Este periodo consolidó a la Escuela como la institución formadora de médicos y especialistas más importante de Puerto Rico, y como un pilar del sistema de salud del país.


La Escuela de Medicina de la UPR en el Siglo XXI (2000-2025)


[Por Nydia Bonet Jordán, MD; Francisco Joglar, MD; Karen Martínez, MD; Nerian Ortiz, MD; María José Crespo, PhD; América Facundo, PhD; Ricardo González Méndez, PhD; Gineida Morales, PhD y Sra. María Luisa Camacho]

Resumen (versión abreviada por CEPUR): El siglo XXI trajo nuevos retos y oportunidades. Entre 2000 y 2025, la Escuela graduó 2,504 médicos, alcanzando un total histórico de casi 7,000. A pesar de la crisis fiscal del país, la Escuela logró estabilidad financiera mediante la expansión del Plan de Práctica Médica Intramural (PPMI), que se convirtió en su principal fuente de ingresos. El presupuesto creció de $122 millones en 2002 a $217 millones en 2024. Se modernizaron clínicas, se fortaleció el CIT y se incorporó telemedicina.

El Decanato de Educación Médica Graduada supervisó 38 programas de residencia, manteniendo acreditación institucional sin citaciones desde 2004. La Escuela alcanzó la tasa de retención de especialistas más alta de Estados Unidos: 72.1% en 2023. En investigación, la creación del Centro Dotal de Investigación de Servicios de Salud (CDISS) en 2002 impulsó más de 200 proyectos en salud pública, clínica y traslacional. El grado postdoctoral en investigación clínica y traslacional graduó 92 profesionales. La productividad científica aumentó de 182 publicaciones en 2008 a 252 en 2023, con 105 investigadores principales.

Los programas combinados MD-JD, MD-MS y MD-PhD ampliaron las oportunidades académicas. La Escuela enfrentó huracanes, terremotos, la pandemia de COVID-19 y múltiples cambios administrativos, pero mantuvo continuidad académica y fortaleció su misión. En 2018 recibió el Spencer Foreman Award for Outstanding Community Service de la AAMC, la distinción más alta en servicio comunitario para una escuela de medicina en Estados Unidos.

Al llegar a su 75 aniversario, la Escuela de Medicina del RCM-UPR se presenta como una institución resiliente, innovadora y profundamente comprometida con la salud del pueblo puertorriqueño. Su historia es la de un proyecto académico que ha sabido adaptarse, crecer y liderar, integrando ciencia, servicio y educación en beneficio de Puerto Rico y del Caribe.


Buhiti agosto 2025

Antecedentes y Primeros Veinticinco Años de la Escuela de Medicina de la Universidad de Puerto Rico y sus Talleres Clínicos, 1904-1975

[Por María L. Santaella, MD (Clase 1973, Francisco Joglar, MD (Clase 1973) y Rafael A. Cox Rosario, MD (Clase 1966)]

Temario: Amplía la historia 1904–1975 con detalles sobre la segunda cátedra de Medicina (1888), la mudanza del taller clínico, la creación del Centro Médico y la evolución del estudiantado y la facultad.

Resumen (versión abreviada por CEPUR): La historia de la Escuela de Medicina de la Universidad de Puerto Rico es el resultado de un largo proceso de maduración institucional, científica y social. Sus raíces se remontan a los primeros siglos de la colonización española, cuando la atención médica era escasa y se limitaba a unos pocos hospitales. La salud pública era reactiva, dependiente de Juntas de Sanidad que solo se activaban durante epidemias. A principios del siglo XIX surgieron los primeros esfuerzos formales de educación médica, como la cátedra de medicina y cirugía establecida en 1816 en el Hospital Militar de San Juan por los doctores José María Espaillat y José María Vargas Machuca. Esta iniciativa, aunque limitada, representó el primer intento de institucionalizar la enseñanza médica en la isla.

Durante el siglo XIX, varios médicos puertorriqueños se formaron en Europa, destacándose el Dr. Ramón Emeterio Betances, quien obtuvo su doctorado en París y regresó a Mayagüez para enfrentar la epidemia de cólera de 1856. Betances fundó el Hospital San Antonio en 1865 y se convirtió en una figura clave tanto en la medicina como en la lucha por los derechos humanos. En 1888 se organizó una segunda cátedra de medicina mediante una colaboración entre la Universidad de La Habana y el Ateneo Puertorriqueño, pero la invasión estadounidense de 1898 interrumpió estos esfuerzos.

A inicios del siglo XX, Puerto Rico enfrentaba una crisis sanitaria agravada por el huracán San Ciriaco (1899). La anemia tropical, la uncinariasis, la malnutrición y la tuberculosis afectaban a gran parte de la población. En este contexto, la llegada del Dr. Bailey K. Ashford fue decisiva: entre 1904 y 1908, la Comisión de Anemia trató a más de 310,000 pacientes en 59 dispensarios, demostrando la necesidad de una institución científica permanente. En 1912 se estableció el Instituto de Medicina Tropical e Higiene en el Palacio Rojo del Viejo San Juan, donde se ofrecían cursos de medicina, epidemiología, bacteriología y salud pública. Aunque cerró en 1918 por falta de recursos, sentó las bases para la creación de la Escuela de Medicina Tropical en 1926, la primera institución del hemisferio dedicada al estudio de enfermedades tropicales.

La Escuela de Medicina Tropical, dirigida académicamente por la Universidad de Columbia, formó médicos, enfermeras y técnicos, y desarrolló investigación de alto impacto. Su edificio, diseñado por Rafael Carmoega, incluía laboratorios, biblioteca, anfiteatro, casa de animales y un hospital universitario de 45 camas. Sin embargo, su dependencia de Columbia y la falta de expansión limitaron su crecimiento. La Ley de la Universidad de Puerto Rico de 1903 ya había contemplado un Departamento de Medicina, pero no fue hasta mediados del siglo XX que se concretó el proyecto de una escuela moderna. En 1949, la Ley 378 creó la Escuela de Medicina de la UPR, que abrió sus puertas en 1950, heredando la experiencia científica acumulada desde la Comisión de Anemia hasta la Escuela de Medicina Tropical.

La Escuela de Medicina de la UPR (1950–1975): Fundación, consolidación y expansión

Organización inicial y coauspicio con la Universidad de Columbia

La Escuela de Medicina abrió el 21 de agosto de 1950 con 50 estudiantes. Su organización inicial estuvo fuertemente influenciada por la Universidad de Columbia, que aportó modelos curriculares, facultad y estándares académicos. El Dr. Harold Brown, parasitólogo y educador, fue clave en su establecimiento, reclutando profesores de alto calibre y estructurando el currículo basado en el modelo de Columbia. Las ciencias básicas se enseñaban en el edificio de la antigua Escuela de Medicina Tropical, mientras que las experiencias clínicas se realizaban en el Hospital Municipal de San Juan.

Desarrollo y nuevas políticas del Departamento de Salud

Durante los años 50 y 60, el Departamento de Salud de Puerto Rico desempeñó un papel crucial en la evolución de la Escuela de Medicina. Bajo el liderazgo del Dr. Guillermo Arbona, Secretario de Salud desde 1957, se impulsó la regionalización de los servicios de salud, inspirada en el Informe Dawson y en las recomendaciones del Dr. John B. Grant. Esta política promovió la creación de un sistema de hospitales de distrito y justificó la transformación del Hospital de Distrito de Bayamón en el Hospital de Distrito de Río Piedras, que se convertiría en el principal taller clínico de la Escuela de Medicina.

El Departamento de Salud también apoyó la expansión de programas de salud pública, la integración de estudiantes en comunidades rurales y la creación de nuevas instalaciones hospitalarias, incluyendo el futuro Hospital Pediátrico Universitario. Estas políticas fortalecieron la relación entre la Escuela de Medicina y el sistema de salud del país, permitiendo una formación clínica más amplia y diversa.

El estudiantado de 1950 a 1975

Los estudiantes de la Escuela de Medicina entre 1950 y 1975 vivieron una etapa de transición entre un modelo tradicional y uno más moderno e integrado. Durante los primeros años, el currículo seguía el modelo de Columbia, con cursos impartidos en inglés y evaluaciones internas. La proporción de mujeres aumentó significativamente, pasando de 18% en 1953 a 36% en 1975, superando consistentemente el promedio de escuelas estadounidenses.

En 1968 se organizó el Consejo de Estudiantes, que obtuvo reconocimiento oficial y comenzó a participar en comités académicos, incluyendo los de currículo y asuntos estudiantiles. A finales de los años 60, los estudiantes expresaron insatisfacción con la falta de integración entre ciencias básicas y clínicas, lo que impulsó la reforma curricular de 1969 y la inauguración del nuevo currículo en 1973.

La facultad de 1950 a 1975

La facultad inicial combinó profesores estadounidenses reclutados por el Dr. Brown con figuras puertorriqueñas provenientes de la Escuela de Medicina Tropical. Entre 1950 y 1975, la facultad creció en número, pero no al ritmo del aumento de estudiantes. La carga docente y de servicio era elevada, especialmente en el Hospital de Distrito Universitario, donde la facultad clínica debía atender un volumen creciente de pacientes mientras cumplía con sus responsabilidades académicas.

Los salarios eran inferiores a los de escuelas estadounidenses, lo que fomentaba la práctica privada y reducía la disponibilidad para docencia e investigación. Aun así, la facultad desarrolló programas de investigación, fortaleció los departamentos clínicos y contribuyó a la acreditación continua de la Escuela.

Acreditaciones de la Escuela de Medicina (1954–1974)

La Escuela obtuvo su primera acreditación en 1954, tras visitas de evaluación en 1951, 1952 y 1953. Los evaluadores destacaron la calidad de la enseñanza y la competencia de la facultad. En 1960, una nueva visita identificó fortalezas como el desarrollo de comités académicos y la aprobación del Reglamento de la Facultad, pero también señaló deficiencias en infraestructura, biblioteca y tamaño de la facultad.

En 1971, el LCME realizó una visita más amplia que incluyó programas de internado, residencia y estudios graduados. Aunque se otorgó acreditación completa, se señalaron problemas como la carga excesiva de servicio, la necesidad de un hospital universitario propio y la baja participación en exámenes nacionales. En 1974, la Escuela obtuvo nuevamente acreditación completa por cuatro años, reconociéndose logros como el nuevo currículo y las instalaciones del Recinto de Ciencias Médicas.

Crecimiento y acreditaciones del Hospital de Distrito Universitario

El Hospital de Distrito Universitario (UDH), transformado en 1960, se convirtió en el principal taller clínico de la Escuela. Entre 1962 y 1972, las admisiones aumentaron de 8,338 a 16,625, y las visitas ambulatorias de 62,171 a 131,293, con una ocupación de camas superior al 95%. La facultad clínica asumió una carga de servicio extraordinaria.

En 1972, la Comisión Conjunta para la Acreditación de Hospitales otorgó acreditación provisional por un año, señalando deficiencias en la planta física. En 1974, se otorgó acreditación por dos años, aunque persistieron preocupaciones sobre la capacidad hospitalaria.

Hospital Universitario de Niños

Desde 1965 se reconocía la necesidad de un hospital pediátrico independiente. Las instalaciones pediátricas del UDH eran insuficientes para la creciente población infantil. En 1972 se aprobó el proyecto para construir el Hospital Pediátrico Universitario, impulsado por líderes como los doctores Antonio Ortíz, José Sifontes y Alma Cajigas. El hospital abrió sus puertas en 1976, convirtiéndose en el centro pediátrico más avanzado del Caribe y fortaleciendo la docencia y la investigación en pediatría.


Recinto de Ciencias Médicas

El RCM existió seis años sin edificio propio (1966–1972). Durante ese tiempo, sus escuelas estaban alojadas principalmente en el edificio de la antigua Escuela de Medicina Tropical en Puerta de Tierra, más instalaciones dispersas en San Juan y Río Piedras.

A lo largo del siglo XX, el Recinto de Ciencias Médicas fue consolidando su estructura académica mediante la creación progresiva de varias escuelas profesionales. La primera en establecerse fue la Escuela de Farmacia, fundada en 1913, que surgió para responder a la necesidad de formación formal en ciencias farmacéuticas en Puerto Rico. Décadas más tarde, en 1957, se creó la Escuela de Odontología, ampliando la oferta de profesiones de la salud dentro de la Universidad de Puerto Rico.

La Escuela Graduada de Salud Pública, aunque suele asociarse al año 1970, tiene una trayectoria mucho más antigua. Sus raíces se remontan a 1941, cuando comenzaron los programas graduados en salud pública dentro de la Escuela de Medicina Tropical, y en 1955 recibió acreditación como Escuela de Salud Pública por la Asociación Americana de Salud Pública. El año 1970 marca su integración formal al recién creado Recinto de Ciencias Médicas, como parte de una reorganización administrativa mayor.

Posteriormente, el crecimiento del Recinto continuó con la creación de nuevas unidades académicas. En 1976 se estableció la Escuela de Profesiones de la Salud, destinada a formar personal clínico y técnico en áreas esenciales para el sistema sanitario. Más adelante, en 1995, se fundó la Escuela de Enfermería, completando así el conjunto de escuelas profesionales que hoy conforman el Recinto de Ciencias Médicas.

En conjunto, estas fundaciones reflejan un proceso continuo de expansión institucional, en el que cada escuela surgió para atender necesidades específicas del país, mientras que la integración de Salud Pública en 1970 consolidó una trayectoria que ya llevaba décadas de desarrollo académico y científico.


El RCM existía como estructura administrativa desde 1966, pero NO tenía edificio propio. Cuando se creó el Recinto de Ciencias Médicas en 1966, se trataba de una unidad administrativa que agrupaba varias escuelas ya existentes:

  • Escuela de Medicina (fundada en 1950)
  • Escuela de Odontología (1957)
  • Escuela de Farmacia (1913)
  • Programas graduados en ciencias biomédicas (desde 1960)
  • Salud Pública (como departamento desde 1941; como escuela acreditada desde 1955)

Pero no existía un edificio único que las albergara.

Las escuelas estaban dispersas en varios edificios preexistentes. Entre 1966 y 1972, las unidades del RCM estaban ubicadas en:

1. El edificio de la antigua Escuela de Medicina Tropical en Puerta de Tierra. Allí operaban parte de la Escuela de Medicina, Salud Pública, laboratorios de investigacióny oficinas administrativas. Este edificio fue el centro académico principal hasta principios de los 70.

2. Hospital Universitario original (en Centro Médico, pero no en el edificio del RCM). La enseñanza clínica ocurría en el Hospital Universitario y hospitales afiliados. Pero la Escuela de Medicina no tenía aún su edificio académico allí.

3. Edificios dispersos en Río Piedras y San Juan. Algunos laboratorios y oficinas de ciencias biomédicas. Programas de investigación vinculados al IMTH.

Popr lo tanto, el RCM existía, pero estaba físicamente fragmentado. En 1970 ocurre una reorganización administrativa: se formalizan las escuelas dentro del RCM; Salud Pública se convierte en Escuela Graduada dentro del RCM y se consolidan estructuras académicas y decanatos. Pero todavía no existía el edificio nuevo.

En 1972 se inaugura el edificio del Recinto de Ciencias Médicas en el Centro Médico de Puerto Rico, que centraliza todas las escuelas: traslada la Escuela de Medicina desde Puerta de Tierra, integra laboratorios, aulas, oficinas y centros de investigación y marca el inicio del RCM como campus físico unificado. Este es el edificio que hoy reconocemos como “el RCM”.

Edificio del RCM (Edificio Dr. Guillermo Arbona Irizarry)

AñoEvento
1941Comienzan programas graduados en Salud Pública en Medicina Tropical.
1950Se funda la Escuela de Medicina.
1955Salud Pública es acreditada como Escuela.
1966Se crea el Recinto de Ciencias Médicas (sin edificio propio).
1966–1972RCM opera en edificios dispersos, principalmente en Medicina Tropical (Puerta de Tierra).
1970Reorganización: se formaliza la Escuela Graduada de Salud Pública dentro del RCM.
1972Se inaugura el edificio del RCM en Centro Médico.

ÍNDICE TEMÁTICO: 1900–2025

Foto (febrero 2026) del afiche que se muestra en el pasillo del tercer piso hacia los anfiteatros de la Escuela de Medicina del RCM UPR.

I. Siglo XIX – Primeras bases de la educación médica en Puerto Rico

  1. Cátedras de medicina y cirugía en el Hospital Real Militar (1820)
  2. El Ateneo Puertorriqueño y la segunda cátedra de Medicina (1888)
  3. Condiciones sanitarias, epidemias y la necesidad de institucionalización médica

II. 1900–1925 · Lucha contra enfermedades tropicales y bases científicas

  1. Identificación del Ankylostoma duodenale por Bailey K. Ashford (1899)
  2. Ley de la Universidad de Puerto Rico y el Departamento de Medicina (1903)
  3. Comisión de Anemia (1904–1908)
  4. Servicios de Enfermedades Tropicales (1908–1911)
  5. Fundación del Instituto de Medicina Tropical e Higiene (1912)
  6. El Hospital Municipal original (1919)

III. 1925–1950 · Escuela de Medicina Tropical y transición a la Escuela moderna

  1. Creación de la Escuela de Medicina Tropical (1924)
  2. Inauguración y primeras décadas (1926–1948)
  3. Expansión arquitectónica y académica (1930s)
  4. Fundación del Caribbean Primate Research Center (1936)
  5. Declive bajo Columbia y cierre paulatino (1948)
  6. Comité del Rector Jaime Benítez para una nueva escuela (1943)
  7. Ley 378 y creación de la Escuela de Medicina de la UPR (1949)
  8. Apertura oficial de la Escuela de Medicina moderna (1950)

IV. 1950–1975 · Fundación moderna, expansión científica y consolidación

A. Organización y acreditación

  1. Laboratorio de Cirugía Experimental (1952)
  2. Acreditación AMA/AAMC (1954)
  3. Reforma curricular y salud pública (1957)
  4. Dr. Guillermo Arbona nombrado Secretario de Salud (1957)
  5. Primer decano puertorriqueño: Dr. José R. Vivas (1959)

B. Expansión científica y académica

  1. Programas graduados en ciencias biomédicas (1960)
  2. Llegada de investigadores internacionales (1960–1970)
  3. Organización del Recinto de Ciencias Médicas (1966)
  4. Primer rector del RCM: Adán Nigaglioni (1967)

C. Infraestructura y currículo

  1. Apertura del edificio del RCM en Centro Médico (1972)
  2. Mudanza desde Medicina Tropical (1972)
  3. Fundación del Programa de Medicina Familiar (1974)
  4. Inicio de la transformación curricular (1975)

V. 1975–2000 · Transformación institucional y auge de la investigación

A. Educación médica y servicios clínicos

  1. Consorcio Educativo (1975–1994)
  2. Programa de Medicina Interna General (PAMIG, 1976)
  3. Primer programa de trasplante renal (1977)
  4. Servicio Clínico de Inmunología (1980)
  5. Centro de Educación en Geriatría (1985)
  6. Centro de Trauma (1986)
  7. Proyecto del Centro Cardiovascular (1986 → apertura 1992)

B. Investigación y expansión científica

  1. Expansión de inmunología básica y clínica (1980–2006)
  2. Clínicas comunitarias y residencias en Carolina
  3. Remodelación del Hospital Universitario (1989–1993)
  4. Primera unidad de geriatría aguda (1990)
  5. Acreditación de la primera beca en geriatría (1994)
  6. Expansión del Centro de Investigaciones Clínicas (CIC) y estudios multicéntricos
  7. Infraestructura avanzada: citometría de flujo, anticuerpos monoclonales
  8. Consolidación del Plan de Práctica Médica Intramural (PPMI)
  9. Unidades clínicas especializadas (neuro, IBD, geriatría, intensivo)

VI. 2000–2025 · Siglo XXI: Pandemia, expansión científica y renovación institucional

A. Nuevas especialidades y liderazgo

  1. Programa de Alergia e Inmunología (2004–2006)
  2. Expansión de investigación en VIH, dengue, cáncer, salud ambiental

B. Desarrollo académico y científico

  1. Fortalecimiento del CIC y programas graduados
  2. Desarrollo de neurociencias, bioética, rehabilitación, demografía
  3. Modernización de laboratorios (2010s)
  4. Expansión del Centro Comprensivo de Cáncer

C. Acreditación y retos institucionales

  1. Crisis de acreditación en programas clínicos (2021–2022)
  2. Advertencias de Middle States

D. Pandemia y servicio comunitario

  1. Respuesta a COVID‑19 (2020–2023): rastreo, vacunación, investigación
  2. Programas de impacto social (2024)

E. Celebración y futuro inmediato

  1. 75 aniversario de la Escuela de Medicina (2025)
  2. Proyectos de infraestructura hospitalaria y traslacional (2025–2026)

VII. Epílogo 2025–2030 · Proyección y madurez institucional

  1. Internacionalización académica
  2. Medicina de precisión y traslacional
  3. Expansión del rol del RCM en el Caribe
  4. Nuevas alianzas clínicas y comunitarias
  5. Currículo híbrido digital

Cronograma detallado y temas relacionados con Salud Pública

(PDF adjunto)

  • Reforma curricular y salud pública (1957)
  • Nuevo Currículo Integrado de 1973
  • Programa de Medicina Familiar
  • El Consorcio Educativo (1975–1994)
  • Programa de Adiestramiento en Medicina Interna General (PAMIG)
  • Medicina de Familia y Salud Pública

PARTE II: Salud Pública

La erradicación de la uncinariasis en Puerto Rico —causada principalmente por Necator americanus— marcó el inicio de una tradición de epidemiología aplicada que define nuestra historia sanitaria. Dr. Bailey K. Ashford, al identificar la causa real de la anemia rural y organizar la primera campaña masiva de control parasitario en el hemisferio, estableció el principio fundacional: observar, inferir causalidad y actuar sobre determinantes sociales. El Dr. Juan A. Pons heredó esa visión y la amplió al integrar los servicios preventivos y curativos, sentar las bases administrativas de un sistema moderno y convocar a expertos como John B. Grant para diseñar un modelo racional de servicios. El Dr. Guillermo Arbona, a su vez, convirtió esa visión en ingeniería sanitaria: operacionalizó la regionalización, articuló niveles de atención y documentó el modelo para el mundo. De Ashford a Arbona, Puerto Rico desarrolló una genealogía propia de pensamiento epidemiológico —riguroso, causal, social y orientado a la acción— que hoy sigue siendo indispensable para guiar el uso ético y crítico de la inteligencia epidemiológica en salud pública. Se refuerzan así el argumento de que la epidemiología puertorriqueña siempre ha sido práctica, causal, social y transformadora.

Hitos principales en la erradicación de la uncinariasis por el Dr. Ashford

Foto (febrero 2026) del afiche que se muestra en el pasillo del tercer piso hacia los anfiteatros de la Escuela de Medicina del RCM UPR.

La erradicación de la uncinariasis (hookworm) en Puerto Rico bajo el liderazgo del Dr. Bailey K. Ashford es uno de los hitos fundacionales de la salud pública moderna en la isla. Para esta narrativa histórica conviene presentar estos hitos como una secuencia clara, breve y contundente que muestre cómo Puerto Rico se convirtió en un laboratorio pionero de medicina tropical y epidemiología aplicada.

1. Descubrimiento del problema (1899–1900)

  • Recién llegado como médico militar durante la ocupación estadounidense, Ashford observa un patrón de anemia severa, caquexia y mortalidad elevada en campesinos puertorriqueños.
  • Identifica que la causa no es “anemia tropical” inespecífica, sino uncinariasis masiva.
  • Publica sus hallazgos y alerta sobre la magnitud del problema: estima que más del 30% de la población rural estaba infectada.

2. Primeras campañas de tratamiento (1900–1903)

  • Ashford organiza brigadas rudimentarias para administrar thymol y sales purgantes, el tratamiento estándar de la época.
  • Documenta mejoría clínica dramática en pacientes tratados.
  • Comienza a perfilar la uncinariasis como un problema social, económico y sanitario, no solo clínico.

3. Fundación de la Junta de Anemia (1904)

  • Ashford convence al gobierno civil de Puerto Rico de crear la Junta de Anemia, la primera agencia de salud pública especializada en una enfermedad parasitaria en el hemisferio occidental.
  • La Junta recibe fondos legislativos y apoyo logístico para operar a nivel isla.
  • Se convierte en el primer programa de control de una enfermedad tropical basado en evidencia epidemiológica.

4. Campaña masiva de tratamiento y educación (1904–1910)

  • La Junta establece clínicas móviles que recorren la isla.
  • Se trata a más de 300,000 personas en seis años, una cifra extraordinaria para la época.
  • Se implementan campañas educativas sobre higiene, uso de calzado y saneamiento básico.
  • Se recopilan datos sistemáticos que permiten mapear la distribución de la enfermedad.

5. Reducción dramática de la morbilidad (1910–1915)

  • La prevalencia de uncinariasis cae de niveles epidémicos a niveles manejables.
  • La mortalidad por anemia severa disminuye notablemente.
  • La productividad agrícola mejora, un efecto económico documentado por Ashford y colaboradores.

6. Fundación de la Escuela de Medicina Tropical (1926)

  • El éxito de la campaña y la reputación internacional de Ashford atraen apoyo de la Fundación Rockefeller.
  • Se establece la Escuela de Medicina Tropical de Puerto Rico, la primera en el hemisferio occidental.
  • La uncinariasis se convierte en un caso de estudio global de epidemiología aplicada, control de enfermedades y medicina social.

7. Erradicación funcional (décadas de 1930–1950)

  • Con mejoras en saneamiento, educación y urbanización, la uncinariasis deja de ser un problema de salud pública.
  • Puerto Rico se convierte en un ejemplo internacional de cómo una enfermedad endémica puede ser controlada mediante ciencia, organización y voluntad política.

La regionalización de los servicios de salud en Puerto Rico

La figura del Dr. Guillermo Arbona Irizarry y la regionalización de los servicios de salud en Puerto Rico constituye uno de los capítulos más influyentes —y menos comprendidos— de la historia sanitaria del país. Su obra transformó la manera en que Puerto Rico organiza, distribuye y concibe el acceso a la salud. A continuación se presenta una síntesis estructurada, profunda y contextualizada, basada en fuentes históricas confiables, incluyendo su biografía en EnciclopediaPR y su obra clásica Regionalization of Health Services: The Puerto Rican Experience (Oxford University Press, 1978).

1. Quién fue el Dr. Guillermo Arbona

El Dr. Arbona (1910–1997) fue médico, educador, salubrista y Secretario de Salud de Puerto Rico entre 1957 y 1966, periodo en el que lideró la reforma más ambiciosa del sistema sanitario puertorriqueño. Formado en salud pública en Johns Hopkins gracias a una beca de la Fundación Rockefeller, combinó una visión científica rigurosa con un profundo compromiso social.

Premédica: Universidad de Ohio y George Washington University.

  • 1934 — Se gradúa de médico en Saint Louis University.
  • 1934–1937 — Trabaja en el Hospital Municipal de San Juan y en Unidades de Salud Pública.
  • 1936–1937 — Completa estudios de Salud Pública en Johns Hopkins (beca Rockefeller).
  • 1937–1943 — Ocupa puestos de liderazgo en el Negociado de Unidades de Salud Pública.
  • 1943 — Asume la jefatura del Departamento de Medicina Preventiva y Salud Pública en la Escuela de Medicina Tropical, donde reorganiza y moderniza los cursos.

    Cuando la Escuela de Medicina Tropical cerró en 1948, su programa graduado se trasladó a la nueva Escuela de Medicina de la UPR. Arbona continuó vinculado al proyecto y, en 1953, se integró como profesor en la institución moderna.
Fuente: Boletín de la Asociación Médica de Puerto Rico, Vol. 60, Núm. 11, Noviembre 1968, p. 572.

2. El contexto que hizo posible la regionalización

A mediados del siglo XX, Puerto Rico enfrentaba:

  • desigualdad extrema en acceso a servicios médicos,
  • hospitales municipales fragmentados,
  • escasez de especialistas fuera del área metropolitana,
  • duplicación de servicios y falta de coordinación,
  • un sistema de salud reactivo, no planificado.

La visión de Arbona se inspiró en:

  • el Informe Dawson (Reino Unido),
  • modelos de integración sanitaria europeos,
  • principios de salud pública comunitaria,
  • la experiencia de las Unidades de Salud Pública en Puerto Rico desde los años 30.

3. La regionalización: el diseño del sistema

Entre 1957 y 1966, Arbona implementó un sistema integrado de salud basado en tres niveles de atención dentro de siete regiones sanitarias.

Los tres niveles

  • Nivel primario: Centros de Salud / Centros de Diagnóstico y Tratamiento (CDT).
  • Nivel secundario: Hospitales de Área.
  • Nivel terciario: Hospitales Regionales con servicios especializados.

Los principios rectores

  • Atención escalonada según complejidad.
  • Referidos organizados y eficientes.
  • Distribución equitativa de recursos.
  • Integración entre salud pública y servicios clínicos.
  • Formación de profesionales dentro del sistema regional.

Este modelo fue tan innovador que la OMS y la International Epidemiological Association lo documentaron como ejemplo internacional.

4. Impacto en la Escuela de Medicina y el Recinto de Ciencias Médicas

La regionalización no solo reorganizó el sistema de salud: redefinió la educación médica en Puerto Rico.

Aportes clave

  • Justificó la creación del Hospital de Distrito de Río Piedras, luego Hospital Universitario.
  • Facilitó la expansión de los talleres clínicos para estudiantes y residentes.
  • Preparó el terreno para la creación del Centro Médico de Puerto Rico (1965).
  • Estableció la base conceptual para el Consorcio Educativo (1975–1994).
  • Integró salud pública, epidemiología y medicina comunitaria en el currículo médico.

Sin Arbona, la evolución de la Escuela de Medicina entre 1950 y 1975 habría sido muy distinta.

5. Legado y proyección internacional

El modelo puertorriqueño fue estudiado y replicado en:

  • América Latina,
  • el Caribe,
  • programas de la OMS,
  • escuelas de salud pública en EE. UU.

Su libro Regionalization of Health Services: The Puerto Rican Experience (1978) se convirtió en referencia obligada en planificación sanitaria.

6. Por qué su obra sigue siendo relevante hoy

La regionalización de Arbona anticipó conceptos contemporáneos:

  • atención primaria como eje del sistema,
  • redes integradas de servicios,
  • planificación basada en necesidades poblacionales,
  • equidad territorial en salud,
  • coordinación entre niveles de atención.

Muchos de los retos actuales —fragmentación, desigualdad, saturación hospitalaria— son precisamente los problemas que Arbona buscó resolver.

7. Síntesis final

El Dr. Guillermo Arbona no solo reorganizó el sistema de salud: creó la arquitectura conceptual que permitió el desarrollo moderno de la medicina puertorriqueña, desde la educación médica hasta la infraestructura hospitalaria. Su visión integradora, científica y profundamente humanista sigue siendo un referente para cualquier discusión sobre reforma sanitaria en Puerto Rico.


La regionalización de los servicios médico‑hospitalarios en Puerto Rico no surgió de un solo documento ni de una sola mente, sino de la convergencia de tres fuerzas históricas que se alinearon de manera excepcional: la política federal de infraestructura sanitaria, la visión local de integración de servicios y la ingeniería sanitaria aplicada que convirtió ideas en un sistema funcional.

En el plano federal, el Hill–Burton Act de 1946 —administrado por el U.S. Public Health Service (USPHS) bajo la autoridad del Cirujano General— proporcionó el andamiaje material para la transformación. Esta ley financió la construcción y modernización de hospitales en todo Estados Unidos y sus territorios, incluyendo Puerto Rico, y exigió encuestas detalladas de necesidades hospitalarias. Gracias a este programa, la isla pudo construir hospitales de distrito y de área, modernizar instalaciones municipales y crear la infraestructura mínima necesaria para un sistema escalonado. Sin Hill–Burton, la regionalización habría sido conceptualmente deseable, pero físicamente imposible.

Sobre esa base material actuó la visión local del Dr. Juan A. Pons, primer Secretario de Salud (1946–1957) y arquitecto del plan de regionalización. Pons entendió que la modernización hospitalaria solo tendría impacto si se integraban los servicios preventivos y curativos, hasta entonces administrados por estructuras separadas. Fue él quien abrió la puerta a la colaboración con la Fundación Rockefeller y quien invitó al Dr. John B. Grant en 1953 para comenzar a delinear un sistema racional de servicios. Bajo su liderazgo, Puerto Rico recibió en 1954 un informe técnico del USPHS que recomendó formalmente la reorganización del sistema de salud en regiones, validando la dirección que Pons ya había iniciado.

Dr. Juan A. Pons: nació en Aibonito, donde completó su educación temprana. Luego se trasladó a San Juan, donde asistió a la escuela superior afiliada a la Universidad de Puerto Rico (UHS). Estudios premédicos: Cursó estudios en el Recinto de Río Piedras de la Universidad de Puerto Rico. Grado de medicina: Obtuvo su título médico en 1928 en Jefferson Medical College, en Filadelfia.

Pero la visión necesitaba ingeniería. Ahí entra el Dr. Guillermo Arbona, quien asumió la Secretaría de Salud en 1957. Arbona tomó la infraestructura creada por Hill–Burton, las recomendaciones de Grant y el informe federal de 1954, y los convirtió en un sistema operativo. Diseñó el Proyecto Piloto de Bayamón, dividió la isla en regiones sanitarias funcionales, estableció niveles de atención articulados y creó un sistema de referidos que integraba desde los dispensarios municipales hasta el Centro Médico. Su obra no solo transformó la prestación de servicios en Puerto Rico, sino que se convirtió en un modelo internacional documentado en Regionalization of Health Services: The Puerto Rican Experience (1978), texto de referencia para la OMS y la Asociación Internacional de Epidemiología.


¿Puede coexistir la regionalización con la privatización? Una mirada comparada

La regionalización y la privatización representan dos modelos causales opuestos en la organización de los servicios de salud. La regionalización —como la diseñada por Arbona en Puerto Rico— se basa en la lógica epidemiológica: definir poblaciones, distribuir recursos según necesidad, establecer niveles de atención y garantizar rutas de referidos que aseguren continuidad y equidad. La privatización, en cambio, responde a la lógica del mercado: competencia entre proveedores, contratos fragmentados, incentivos financieros y decisiones guiadas por rentabilidad más que por necesidad poblacional. En teoría podrían coexistir, pero en la práctica internacional casi siempre entran en conflicto.

La experiencia puertorriqueña lo demuestra con claridad. La regionalización de Arbona había logrado articular un sistema coherente, equitativo y funcional. Sin embargo, la Reforma de Salud de 1994 introdujo aseguradoras privadas, contratos descoordinados y competencia entre proveedores que rompieron las rutas de referidos, desintegraron los niveles de atención y desmantelaron los consorcios docentes. La privatización reintrodujo la “enfermedad” que la regionalización había curado: la fragmentación estructural que produce retrasos, inequidad y mortalidad evitable.

Este patrón no es exclusivo de Puerto Rico. En el Reino Unido, los intentos de privatización parcial del NHS han erosionado la planificación regional, aunque no la han destruido gracias al fuerte control estatal. En Chile, la coexistencia entre un sistema público regionalizado y aseguradoras privadas (ISAPRES) ha generado segmentación extrema y desigualdad territorial. En Colombia, la reforma de 1993 produjo una fragmentación severa, crisis hospitalaria recurrente y pérdida de continuidad en la atención. Incluso en Suecia, donde la privatización ha sido limitada, la introducción de proveedores privados en atención primaria ha aumentado la inequidad y debilitado la planificación regional. Solo en sistemas donde la privatización es marginal —como Canadá— la lógica territorial se mantiene estable.

La evidencia comparada es consistente: la privatización tiende a erosionar o destruir la regionalización, porque introduce incentivos que rompen la lógica poblacional que requiere un sistema organizado por niveles y territorios. La regionalización necesita coordinación, planificación y equidad; la privatización introduce competencia, fragmentación y desigualdad. Cuando ambos modelos coexisten, el mercado casi siempre domina y desarticula la estructura epidemiológica.

La conclusión es clara: la regionalización y la privatización no son simplemente modelos administrativos distintos; son modelos causales incompatibles. La experiencia de Puerto Rico no fue una anomalía, sino un ejemplo paradigmático de lo que ocurre cuando se intenta mezclar dos lógicas que operan en direcciones opuestas. La regionalización es una intervención de salud pública; la privatización es una intervención económica. Y cuando ambas chocan, la epidemiología pierde.


De la Inteligencia Epidemiológica (IE) a la Inteligencia Artificial (IA)

La transición de la Inteligencia Epidemiológica (IE) a la Inteligencia Artificial (IA) marca un cambio de paradigma: pasamos de una disciplina basada en la inferencia humana y el juicio clínico a una basada en el reconocimiento de patrones y la correlación masiva. Recorramos primero la evolución del pensamiento causal, donde la epidemiología tuvo que aprender a “dictar juicio” cuando la prueba absoluta (el experimento) era imposible.

1. La Evolución del Pensamiento Causal

El Modelo Infeccioso: La Causalidad Determinista

En el siglo XIX, el pensamiento estaba dominado por los Postulados de Koch. Este era un modelo de “causa necesaria y suficiente”:

  1. El agente debe estar presente en cada caso.
  2. Debe poder aislarse en cultivo puro.
  3. Debe causar la enfermedad en un animal sano.

Este modelo funcionaba para el cólera o la tuberculosis, pero colapsó ante las enfermedades crónicas, donde no hay un solo “microbio” invasor.

La Transición: El Tabaquismo y el Desafío Ético

A mediados del siglo XX, el auge del cáncer de pulmón obligó a una revolución intelectual. Era éticamente imposible realizar un Ensayo Clínico Aleatorizado (ECA) donde se obligara a un grupo a fumar.

Aquí nace la IE moderna con figuras como Austin Bradford Hill y Richard Doll. Al no poder usar la “fuerza bruta” del experimento, recurrieron a la observación rigurosa:

  • Estudios de Caso-Control: Mirando hacia atrás para encontrar la exposición.
  • Cohortes Prospectivas: Siguiendo a médicos fumadores durante décadas.

Para defender que el tabaco causaba cáncer (y no era solo una coincidencia estadística), Hill propuso en 1965 sus famosos Criterios de Causalidad, que no son reglas matemáticas, sino una guía para el juicio humano.

2. Los Criterios de Hill: El “Juicio” (Judgement) de la IE

La IE provee una estructura de deliberación que la IA aún no posee plenamente. Algunos criterios clave aplicados al tabaco fueron:

  • Fuerza de Asociación: Un riesgo 20 veces mayor en fumadores es difícil de explicar solo por sesgos.
  • Consistencia: ¿Se observa lo mismo en diferentes países y poblaciones?
  • Gradiente Biológico (Dosis-Respuesta): A más cigarrillos, más riesgo. Este es un fuerte indicio causal.
  • Plausibilidad Biológica: ¿Tiene sentido según la medicina de la época?
  • Temporalidad: La exposición siempre debe preceder al efecto (el criterio más sagrado).
3. ¿Qué le falta a la IA que posee la IE?

La IA actual (especialmente el Machine Learning y los LLM) es excepcional detectando correlaciones, pero carece de comprensión causal intrínseca.

A. El Control de Sesgos vs. “Garbage In, Garbage Out”

La IE se obsesiona con el diseño: controla el sesgo de selección (quién entra al estudio), el sesgo de información (cómo se mide) y el confounding (variables que confunden, como el alcohol en el estudio del tabaco).

La IA, por el contrario, suele alimentarse de datos masivos “sucios”. Si los datos tienen sesgos históricos, la IA los amplifica en lugar de cuestionarlos.

B. El “Contrafactual”

La IE se pregunta: “¿Qué le habría pasado a esta persona si NO hubiera fumado?”. Este razonamiento contrafactual es la base de la causalidad moderna (modelo de Pearl/Rubin). La IA actual es mayormente asociativa; sabe que A y B ocurren juntos, pero no siempre sabe si A causa B. La frase —“una causa es una diferencia que hace una diferencia”—es la esencia del pensamiento contrafactual que define la epidemiología moderna y la obra de Kenneth Rothman.

C. La Deliberación Ética y Social

La IE entiende el contexto. Sabe que un resultado estadísticamente significativo puede no ser clínicamente relevante o puede estar influenciado por determinantes sociales que los datos no capturan.

4. ¿Podrá la IA dictar juicio?

¿Es el “juicio” (judgement) una operación matemática o una deliberación humana?

  1. La IA como “Calculadora de Probabilidades”: La IA puede identificar gradientes biológicos y consistencias en millones de estudios mucho más rápido que un humano. Puede sugerir que la probabilidad de causalidad es alta.
  2. El Juicio Humano como “Tribunal de Sabiduría”: El acto de declarar que “X causa Y” tiene consecuencias legales, económicas y éticas (como ocurrió con las tabacaleras). Ese dictamen final requiere:
    • Responsabilidad (Accountability): La IA no puede ir a juicio ni asumir la carga moral de un error.
    • Intuición Científica: A veces, la causalidad desafía los datos existentes (como cuando Ashford identificó la uncinariasis basándose en observaciones que otros ignoraban).
La Brecha de la “Caja Negra”

La IA tiene una debilidad crítica frente a los criterios actualizados de Rothman: La interpretabilidad y el sesgo de confusión.

  • El Juicio Humano es Deliberativo: Un epidemiólogo puede identificar un confusor (una variable que hace parecer que hay causalidad donde no la hay) basándose en su conocimiento de la biología o la sociedad, incluso si esa variable no está en la base de datos.
  • La IA es Dependiente de los Datos: Si un modelo de IA ve que las personas que llevan encendedores tienen más cáncer, dictará que “los encendedores causan cáncer” a menos que un humano le enseñe la estructura causal (tabaco -> encendedor y tabaco -> cáncer).

La IA puede procesar la evidencia, pero la IE dicta el juicio. La IA nos da el qué, pero la epidemiología humana sigue siendo la dueña del por qué. La causalidad no es un número; es una narrativa coherente construida sobre la ciencia y la ética.

La regionalización diseñada por Arbona fue, en esencia, un acto de inteligencia epidemiológica. Identificó que la fragmentación del sistema —la desigualdad geográfica, la ausencia de niveles de atención y la falta de rutas de referidos— actuaba como un determinante causal de enfermedad y muerte. La “enfermedad” que la regionalización vino a curar no era biológica, sino estructural: la desorganización sanitaria que producía retrasos, inequidad y mortalidad evitable. Al dividir la isla en regiones funcionales, establecer niveles de atención y crear rutas de referidos, Arbona interrumpió ese mecanismo causal y convirtió la organización del sistema en una intervención de salud pública.


Epidemiología social: Nada humano me es ajeno

La frase “Nada humano me es ajeno” (Humani nihil a me alienum puto) pertenece originalmente al comediógrafo romano Terencio (siglo II a.C.). Sin embargo, se asocia con Albert Camus, ya que toda su obra —especialmente La Peste— es una encarnación de ese sentimiento: la solidaridad ante el sufrimiento colectivo y la negativa a mirar hacia otro lado cuando una comunidad es golpeada.

Si la epidemiología clásica se pregunta qué agente causa la enfermedad, la epidemiología social se pregunta quién enferma y por qué su lugar en la estructura social determina su destino biológico.

1. Del “Cuerpo Biológico” al “Cuerpo Social”

Para un epidemiólogo social (como Nancy Krieger o el propio Kenneth Rothman en su visión más amplia), el desempleo, el racismo, el hacinamiento o la soledad son tan “causas” como un virus. Si aceptamos que “nada humano nos es ajeno”, entonces:

  • La economía es epidemiología.
  • La política es epidemiología.
  • La arquitectura urbana es epidemiología.
2. La IA vs. La Empatía de la IE
  • La IA puede procesar datos de “determinantes sociales” (cifras de ingresos, códigos postales), pero lo hace como variables frías en una regresión.
  • La IE (Inteligencia Epidemiológica) entiende la cita de Terencio/Camus porque reconoce la humanidad detrás del dato. La IE sabe que detrás de un “outlier” estadístico hay una historia de exclusión que el algoritmo no puede “sentir”, pero el investigador sí puede juzgar.

El Vínculo con Puerto Rico y la Historia

Como bien se documenta en la historia de la salud pública en la isla, figuras como el Dr. Guillermo Arbona aplicaron esta máxima sin citarla explícitamente. Al diseñar la regionalización de servicios, Arbona no solo miraba mapas de hospitales; miraba la geografía del aislamiento humano. La uncinariasis de Ashford no era solo un parásito; era la pobreza descalza en los cafetales.

Si un epidemiólogo social ignora la cultura, el miedo o la lucha de una población, está dejando de ser un científico de la salud para convertirse en un contable de cadáveres.

La IA puede simular la “diferencia que hace la diferencia”, pero no puede experimentar la “ajenidad”. El juicio causal en epidemiología social requiere una brújula ética: decidir qué desigualdades son injustas y, por tanto, deben ser atacadas. Ese es un acto de voluntad humana, no de computación.

De Ashford a Arbona, Puerto Rico desarrolló una genealogía propia de pensamiento epidemiológico —riguroso, causal, social y orientado a la acción— que sigue siendo indispensable para guiar el uso ético y crítico de la inteligencia epidemiológica en salud pública. Esa tradición no desaparece con la llegada de la inteligencia artificial; al contrario, se vuelve más necesaria.

La IA puede procesar datos a una escala inimaginable, pero no puede asumir el juicio causal ni la responsabilidad ética que exige la salud pública. La IE sigue siendo el espacio donde se interpretan los patrones, se identifican los sesgos, se evalúan los determinantes sociales y se decide la acción. La IA amplifica nuestra capacidad analítica; la IE define nuestro deber. La causalidad no es un cálculo: es una decisión humana con consecuencias humanas.


La inteligencia epidemilógica en acción: lo que la trayectoria del Dr. José F. Cordero

La vida profesional del Dr. José F. Cordero es un ejemplo extraordinario de cómo opera la inteligencia epidemiológica (IE) en su forma más pura: observación rigurosa, inferencia causal, control de sesgos, integración de evidencia clínica y social, y acción rápida para proteger poblaciones. Su carrera demuestra, una y otra vez, que la IE no es un algoritmo: es un modo de pensar, un juicio deliberativo que la IA aún no puede replicar.

Desde sus primeros días en el Servicio de Inteligencia Epidemiológica (EIS) de los CDC, su trabajo mostró cómo la IE identifica causas ocultas que ningún modelo estadístico habría detectado. El documento relata que, al investigar tres casos de bebés con potasio extremadamente bajo, Cordero descubrió que todos habían consumido la misma fórmula de soya. El texto lo describe así:

“Investigando tres de esos casos de bebés con potasio bajo, pudo relacionarse el hallazgo a la ingestión de una marca de leche con una fórmula basada en proteína de soya… En el curso de dos días, la fórmula se removió del mercado.”
(JFC‑RCM‑UPR.pdf)

Ningún algoritmo habría detectado esa señal: la fórmula representaba solo 3% del mercado, y los casos eran rarísimos. Fue el juicio epidemiológico, no la correlación estadística, lo que permitió identificar la causa y prevenir daño a 55,000 bebés.

Lo mismo ocurrió cuando Cordero y sus colegas demostraron que la deficiencia de ácido fólico aumentaba el riesgo de defectos del tubo neural. El documento señala:

“Demostraron una asociación entre el consumo de multivitaminas que contenían ácido fólico… y un riesgo menor en los defectos del tubo neural.”
(JFC‑RCM‑UPR.pdf)

Esa inferencia causal —basada en estudios observacionales, control de confounding y plausibilidad biológica— llevó a la política pública de fortificación de harinas, que ha prevenido más de 32,000 casos en EE.UU. Ningún algoritmo habría podido decidir causalidad; la IE sí.

Su liderazgo en la eliminación de la rubéola congénita también muestra la diferencia entre datos y juicio. El documento explica:

“La campaña masiva de vacunación… logró eliminar la rubéola para el 2004… y en el 2015 la OMS declara a las Américas como la primera región del mundo en eliminar la rubéola.”
(JFC‑RCM‑UPR.pdf)

La IA puede modelar escenarios, pero no puede decidir que una enfermedad debe ser eliminada, ni diseñar la estrategia ética, logística y social para lograrlo. Eso requiere deliberación humana, visión poblacional y responsabilidad moral.

Finalmente, su trabajo en PROTECT y ECHO demuestra cómo la IE integra factores ambientales, sociales y biológicos para entender causas complejas. El documento describe:

“Se establecieron asociaciones con nacimientos prematuros y bajo peso al nacer… El grupo ha publicado sobre trescientos artículos.”
(JFC‑RCM‑UPR.pdf)

La IA puede procesar grandes volúmenes de datos, pero no puede decidir qué exposiciones investigar, qué variables medir, qué confusores controlar ni qué desigualdades son injustas y deben ser intervenidas. Eso es IE.


La carrera del Dr. Cordero confirma que:

  • La IE identifica causas, incluso cuando los datos son escasos o contradictorios.
  • La IA identifica patrones, pero no sabe si son causales.
  • La IE integra biología, ética, contexto social y responsabilidad pública.
  • La IA carece de juicio, de intuición científica y de brújula moral.
  • La IE actúa para proteger poblaciones, incluso cuando los modelos no lo recomiendan.
  • La IA no puede asumir responsabilidad por las consecuencias de una decisión.

En otras palabras:

La IA calcula; la IE comprende.
La IA predice; la IE decide.
La IA procesa datos; la IE procesa consecuencias.

La trayectoria del Dr. Cordero —desde la fórmula de soya hasta la eliminación de la rubéola y la investigación ambiental en Puerto Rico— es una demostración viva de que la epidemiología es, ante todo, un acto de juicio humano, no un algoritmo.


La inteligencia epidemiológica en acción: la reapertura escolar durante COVID‑19

La pandemia de COVID‑19 ofreció un ejemplo contemporáneo y contundente de cómo la inteligencia epidemiológica (IE) difiere radicalmente del razonamiento algorítmico basado solo en datos brutos. Durante la emergencia, los modelos matemáticos y los tableros desde la Universidad de Harvard recomendaban cerrar las escuelas para “proteger a los docentes”, basándose exclusivamente en tasas de transmisión. Sin embargo, la IE exige distinguir entre transmisión y patogenicidad, entre riesgo individual y riesgo poblacional, y entre daño directo y daño colateral.

Como Principal Oficial de Epidemiología del Departamento de Salud de Puerto Rico, enfrenté ese dilema. La evidencia mostraba que la población pediátrica tenía mayor transmisión, pero mucho menor riesgo de enfermedad grave, mientras que los docentes —el grupo realmente vulnerable— ya contaban con una vacuna efectiva. Al mismo tiempo, el cierre prolongado de escuelas estaba produciendo un daño educativo, emocional y social profundo, especialmente en los sectores más vulnerables. Los algoritmos no podían ver ese daño; la IE sí.

Con el apoyo de pediatras e infectólogos, ejercí juicio epidemiológico y ordenamos la reapertura presencial de los planteles escolares, aun frente a la oposición de gremios docentes y de analistas que aplicaban mecánicamente modelos estadísticos sin considerar la biología, la ética o el contexto social. Esta decisión —contraria a la recomendación algorítmica— evitó un rezago académico masivo mayor y redujo inequidades que han marcado a una generación entera.

La experiencia dejó claro que los algoritmos pueden detectar patrones, pero no pueden interpretar consecuencias. La IE integra patogenicidad, vulnerabilidad, proporcionalidad, impacto social y responsabilidad ética. La IA puede procesar datos; la IE decide qué significan. Durante la pandemia, la IE no solo guió la acción: corrigió la ceguera algorítmica y protegió a la niñez puertorriqueña de un daño que ningún modelo matemático podía cuantificar.


Un marco conceptual para entender la salud pública en el siglo XXI

La historia de la salud pública en Puerto Rico —desde Ashford hasta Arbona, desde la regionalización hasta la privatización, y ahora desde la Inteligencia Epidemiológica (IE) hacia la Inteligencia Artificial (IA)— revela un patrón profundo: los sistemas de salud no fracasan ni triunfan por tecnología o por ideología, sino por la calidad del juicio que los guía.

La regionalización fue un acto de IE: una intervención poblacional diseñada para corregir la “enfermedad estructural” de la fragmentación, garantizando continuidad, equidad territorial y rutas de atención basadas en necesidad. Su lógica era epidemiológica: definir poblaciones, distribuir recursos según riesgo y asegurar acceso oportuno. Pero también tenía límites: burocracia, escasez, rigidez territorial y una experiencia subjetiva del paciente que a veces se vivía como pérdida de autonomía.

La privatización prometió corregir esos defectos, y en algunos ámbitos —como la salud dental (a expensas de los bajos honorarios a dentistas) y el acceso a ciertos medicamentos— produjo mejoras reales. También devolvió a muchos pacientes una sensación de libertad y agencia que la regionalización no supo cultivar. Pero su lógica es económica, no poblacional: fragmenta, incentiva duplicación, amplifica inequidades y, sin fiscalización, abre la puerta a enriquecimiento indebido. La experiencia internacional confirma lo que ocurrió en Puerto Rico: la privatización erosiona la planificación territorial y debilita la equidad, incluso cuando mejora la experiencia individual de algunos.

La Inteligencia Epidemiológica (IE) es el puente entre ambos mundos. La IE entiende que ningún modelo —ni regionalizado ni privatizado— puede funcionar sin juicio causal, sin comprensión de mecanismos, sin control de sesgos y sin deliberación ética. La IE ve lo que los modelos no ven: el daño colateral, la desigualdad oculta, la experiencia humana, la historia, la cultura, la vulnerabilidad. La IE es la brújula.

La Inteligencia Artificial (IA), en cambio, ofrece velocidad, escala y capacidad predictiva sin precedentes. Pero no entiende causalidad, ni contexto, ni ética, ni responsabilidad. La IA puede sugerir patrones, pero no puede decidir qué significan. Puede optimizar procesos, pero no puede definir justicia. Puede procesar datos, pero no puede procesar consecuencias.

Por eso, el marco conceptual que emerge de esta historia es claro:

  • La regionalización organiza el sistema según necesidad.
  • La privatización organiza el sistema según incentivos.
  • La IA organiza los datos según patrones.
  • La IE organiza el juicio según causalidad, equidad y responsabilidad.

La salud pública del siglo XXI no puede depender exclusivamente de ninguno de estos modelos. Necesita la planificación territorial de la regionalización, la agilidad operativa del sector privado, la capacidad analítica de la IA y, sobre todo, la sabiduría causal y ética de la IE.

Porque al final:

La IA calcula; la IE comprende. La privatización innova; la regionalización protege. Pero solo la IE puede decidir qué es justo, qué es necesario y qué es humano.

Ese es el legado de nuestra historia. Y es también la brújula para nuestro futuro.


El juicio epidemiológico como un acto cognitivo de cambio de marco conceptual

Resumen

Los avances recientes en inteligencia artificial generadora (GenAI) han renovado el interés en la automatización del razonamiento científico, incluido el análisis causal en epidemiología. Aunque los modelos de lenguaje de gran escala (LLMs) muestran un desempeño notable en el reconocimiento de patrones y la síntesis estadística, sus limitaciones en el razonamiento causal son fundamentales más que técnicas. Este artículo replantea el juicio epidemiológico como un acto cognitivo de cambio de marco conceptual: la transición deliberada del razonamiento estadístico inductivo al razonamiento simbólico deductivo. Sostenemos que la inferencia causal es computacionalmente irreducible y, por lo tanto, no puede ser establecida únicamente mediante sistemas optimizados por gradientes. Esta perspectiva aclara el papel adecuado de la GenAI en la investigación epidemiológica y refuerza la centralidad del juicio humano en el análisis causal.

1. Introducción

La epidemiología ha dependido históricamente de una combinación de modelación estadística y razonamiento causal para inferir relaciones entre exposiciones y desenlaces. Con la aparición de sistemas de GenAI capaces de sintetizar grandes volúmenes de texto y datos, ha surgido la pregunta de si estos sistemas pueden automatizar la inferencia causal. Aunque estos modelos destacan en identificar asociaciones y generar narrativas plausibles, su capacidad para establecer causalidad sigue siendo limitada.

Esta limitación no se debe simplemente a falta de datos o complejidad insuficiente del modelo. Refleja, más bien, una distinción computacional profunda entre la inferencia estadística inductiva y el razonamiento causal deductivo. Reconocer esta distinción permite articular el juicio epidemiológico como un acto cognitivo que implica cambiar entre marcos conceptuales fundamentalmente distintos.

2. CONTRASTE

2.1 El modelo estadístico–inductivo

El modelo estadístico se caracteriza por la inferencia inductiva a partir de datos observados. Sus rasgos principales incluyen:

  • Estimación de asociaciones (p. ej., razones de riesgo, razones de momios)
  • Optimización del ajuste del modelo
  • Cuantificación probabilística de la incertidumbre
  • Sensibilidad al tamaño de muestra y a la variabilidad

Este modelo es adecuado para la optimización basada en gradientes y constituye el dominio en el que los LLMs y otros sistemas de GenAI muestran mayor fortaleza. Responde preguntas del tipo: ¿Qué patrones están presentes en los datos?

2.2 El modelo simbólico–deductivo

La inferencia causal, en contraste, opera en un modelo simbólico gobernado por supuestos explícitos y restricciones lógicas. Sus características incluyen:

  • Razonamiento contrafactual
  • Diagramas causales (DAGs)
  • Identificación de confusión, mediación y sesgo de selección
  • Necesidad lógica en lugar de plausibilidad probabilística

Este modeloresponde a una clase distinta de preguntas: ¿Bajo qué supuestos esta asociación debe ser causal?

El razonamiento simbólico requiere ejecución exacta de reglas y consistencia lógica paso a paso. No es optimizable mediante gradientes y no admite atajos estadísticos.

3. Irreducibilidad computacional e inferencia causal

La inferencia causal es computacionalmente irreducible en el sentido de que sus conclusiones no pueden derivarse sin ejecutar explícitamente la estructura lógica subyacente. Las afirmaciones contrafácticas —centrales para el razonamiento causal— no pueden inferirse directamente de datos observados, independientemente del tamaño de la muestra o la sofisticación del modelo.

Esta irreducibilidad implica que ningún grado de reconocimiento estadístico de patrones puede sustituir el razonamiento causal explícito. Aunque los modelos estadísticos pueden informar hipótesis causales, no pueden validarlas sin la ejecución simbólica de supuestos y restricciones lógicas.

4. El juicio epidemiológico como cambio de MARCO CONEPTUAL

El acto definitorio del juicio epidemiológico no se encuentra dentro de ninguno de los dos modos operacionales, sino en la transición entre ellos. Esta transición ocurre cuando el investigador determina que la asociación estadística ha alcanzado su límite epistémico y que debe invocarse el razonamiento causal.

Ejemplos incluyen:

  • Reconocer que una asociación estadísticamente robusta puede estar confundida
  • Evaluar si un diagrama causal representa adecuadamente el proceso generador de datos
  • Valorar la plausibilidad de los supuestos contrafactuales

Este cambio de marco conceptual es contextual, dependiente de supuestos e irreducible. No puede automatizarse porque los criterios para cambiar no están codificados en los datos mismos.

5. Implicaciones para la AI generadora en epidemiología

Los sistemas de GenAI pueden contribuir de manera significativa a la investigación epidemiológica mediante:

  • Resúmenes de literatura
  • Generación de hipótesis
  • Identificación de patrones estadísticos
  • Redacción de narrativas analíticas

Sin embargo, no pueden reemplazar el juicio epidemiológico porque permanecen confinados al régimen inductivo. No ejecutan lógica causal simbólica, no imponen necesidad contrafáctica ni determinan cuándo la inferencia inductiva debe ceder ante el razonamiento deductivo.

Los sistemas híbridos —que combinan intuición estadística con ejecución simbólica— reflejan la estructura del razonamiento epidemiológico con mayor fidelidad que los modelos puramente inductivos.

6. Conclusión

El juicio epidemiológico se entiende mejor como un acto cognitivo de cambio de marco conceptual: la transición deliberada de la inferencia estadística inductiva al razonamiento causal deductivo. La inferencia causal es computacionalmente irreducible y, por lo tanto, resistente a la automatización completa mediante sistemas de GenAI. Reconocer esta distinción aclara tanto las promesas como los límites de la inteligencia artificial en epidemiología y reafirma el papel central del juicio humano en el análisis causal.

Idea central

La inferencia causal no es una extensión de la modelación estadística, sino un modelo computacional distinto que requiere ejecución simbólica; el juicio epidemiológico reside en el acto irreducible de cambiar entre estos regímenes.

Referencias:


Revisado: 2026.03.09