• No se han encontrado resultados

MEDICINA: ENTRE EL ASTROLABIO Y LA COMPUTADORA

N/A
N/A
Protected

Academic year: 2022

Share "MEDICINA: ENTRE EL ASTROLABIO Y LA COMPUTADORA"

Copied!
31
0
0

Texto completo

(1)

PEDRO GARCÍA BARRENO

Real Academia de Ciencias

INTRODUCCIÓN

Aunque la medicina no es una ciencia, se construye sobre una base eminentemente científica. Los médicos siempre han anhelado cuantificar su práctica. Ya en el si- glo XII, la astrología fascinó a las mentes más abiertas por su visión global de la realidad y sirvió para reorientar la me- dicina desde las artes especulativas del trivium a las em- píricas del quadrivium. Urso de Lodi remarcaba que un mé- dico ilustrado debía conocer las artes liberales, en especial la astronomía y la astrología. Para hacer un diagnóstico y plantear un tratamiento correcto, un buen médico debía conocer con precisión el momento del nacimiento de su paciente y, si era un personaje importante, estaba obliga- do a disponer de un horóscopo exacto. Ello exigía com- plicados cálculos basados en tablas sobre la posición de los planetas e instrumentos de cálculo de los que el as- trolabio era el más utilizado. Con tal bagaje, los médicos llegaron a ser hábiles ingenieros. Siglos después, en el XVIII, en otra aproximación matemática a la medicina, Laplace publicó un tratado sobre la teoría analítica de las posibi- lidades, sugiriendo que tal análisis podría ser una herra- mienta valiosa para resolver problemas médicos. El primer médico que utilizó métodos matemáticos en el análisis cuantitativo de pacientes y sus enfermedades fue Louis, a principios del siglo XIX; la publicación seminal de la mé- thode numérique influyó en toda una generación de estu- diantes cuyos discípulos consolidaron la nueva ciencia de la epidemiología, sólidamente enraizada en el método es- tadístico. En la actualidad, ese anhelo de certeza en la práctica médica se concreta en la denominada «medicina basada en la evidencia»; metodología que apunta las si- nergias de la medicina con la informática. Informática que impulsa su aplicación en forma de ayuda a la toma de decisiones, a la vez que proporciona una poderosa herra- mienta para resolver en tiempo real el complejo trata- miento matemático de la incorporación de las nuevas tec- nologías de imagen a la práctica clínica, en especial la cirugía integrada por computadora. Por su parte, la teo- ría de dinámica de sistemas estudia los aspectos fractales de las estructuras anatómicas, y la complejidad y el caos

interpretan diversos aspectos de la fisiología como las ac- tividades cardiaca y cerebral y aportan nuevas estrategias para la interpretación de la patología y su tratamiento.

Por último, la modelización basada en ecuaciones dife- renciales orienta el tratamiento de enfermedades virales sobre la base de la información aportada de los ciclos vi- rales y su relación con el huésped.

MÉDICOS ASTRÓLOGOS

En el siglo V, Martianus Mineo Félix Capella escribió (ha- cia 430) uno de los libros más influyentes en la historia de la educación occidental: De nuptiis Mercurii et Philolo- gitte. Obra que en realidad corresponde a las dos prime- ras partes de un libro más extenso, el Satyricon, que consta de nueve capítulos; los siete restantes están dedicados, cada uno de ellos, a una de las siete artes liberales. En él, Martianus clasificó estas habilidades intelectuales en dos grupos: uno, el trivium, que operaba con símbolos ver- bales e incluía la gramática, la retórica y la lógica, se ocu- paba de analizar el fenómeno humano. El otro, el qua- drivium, que utilizaba símbolos y medidas numéricas y se dividía en aritmética, geometría, astronomía y música, se interesaba por los fenómenos naturales no humanos.

El plan educativo de Martianus Capella sería ampliamente adoptado en las escuelas altomedievales, pero la indife- rencia por la ciencia, tanto del paganismo romano como de la cristiandad, aupó las artes discursivas del trivium so- bre los métodos numéricos del quadrivium.

Para Isidoro de Sevilla (hacia 565 - 636), el mediáis debe conocer aritmética para comprender la periodicidad de las enfermedades, geometría para comprender las va- riadas influencias locales sobre la enfermedad, música por sus propiedades terapéuticas y astronomía por la influencia de las estrellas y de las estaciones sobre la enfermedad.

Tras interminables discusiones entre los significados de physica (ratio) y medica (experientia) y su participación en la medicina, Hugo de St. Victor (hacia 1096 - 1141) des- gajó la medicina de las artes liberales y la incluyó entre las siete artes mecánicas: lanificum, armatura, nauigatio,

(2)

agricultura, venatio, medicina y theatrica. Nunca la medi- cina alcanzó menor estima.

Del trivium al quadrivium

La pasión por la astrología en el siglo XII comenzó a re- vertir esta situación. La astrología médica representó un instrumento importante para desplazar la posición de la medicina en las artes liberales desde las humanidades ha- cia la ciencia. La astrología fascinó a muchas de las men- tes más despiertas de la época porque proporcionaba una visión total de la realidad, imbricando al macrocosmos en el microcosmos humano. ¿Quién podía negar que el pla- neta Sol, en su orto y en su ocaso y en sus desplazamien- tos boreales y australes anuales, influía en todos los as- pectos de la vida? Parecía también asumible que el planeta Luna originase las mareas; presumiblemente, los otros cin- co planetas proyectaban su influjo sobre los asuntos te- rrenales incluidos los humanos y, en especial, sus enfer- medades. En 1198, Urso de Lodi, un médico que enseñaba en Cremona, remarcaba que un buen médico ilustrado debía conocer las siete artes liberales, pero sobre todas ellas la astronomía. Por otro lado, a diferencia de los tec- nólogos actuales, los ingenieros medievales no compren- dían que los diferentes obstáculos y problemas pudieran superarse mediante las aplicaciones prácticas de la ciencia.

La astrología, sin embargo, era muy «moderna» en espí- ritu: con elaborados métodos matemáticos que utilizaban las leyes de una ciencia pura —la astronomía— podrían en- contrarse soluciones a los problemas terrenales. La astro- logía se comportaba como una ingeniería astronómica.

En orden a diagnosticar y a tratar la enfermedad, un médico de esa época necesitaba fijar con precisión el mo- mento astronómico del nacimiento de su paciente. En los casos ordinarios aquello no suponía grandes dificultades, lográndose mediante el manejo de ciertas guías. Una apro- ximación del contexto astrológico, junto con la inspec- ción de la orina, permitía al médico prescribir una dieta, baños, alguna droga y una sangría. La cosa se complica- ba cuando el enfermo era alguien importante; en tal caso se exigía confeccionar un horóscopo exacto. Para ello exis- tían dos posibilidades: arduos cálculos basados en tablas que recogían las posiciones de los planetas, o mediante instrumentos de computación de los que el astrolabio fue el más popular. Las mismas tablas, que tenían que ser rec- tificadas de acuerdo al meridiano geográfico del paciente, estaban confeccionadas sobre la base de la observación instrumental. En cualquier caso, el asunto era tan delica- do que los propios médicos se involucraban directamen- te en sofisticados cálculos de los que dependía su repu- tación. Con ello, la medicina se transformó en una ciencia y los médicos en hábiles ingenieros. Ello porque aunque indudablemente interesados en la instrumentación, los astrónomos, hasta donde se sabe, no se involucraron en la medicina.

Tecnología medieval

Entre 1261 y 1264, Campanus de Novara publicó la descripción de un sencillo planetario, pero sus editores dudaron que tal artilugio se hubiera construido. De ma- nera similar, en el segundo cuarto del siglo XIV, el astró- nomo Juan de Lignéres escribió dos tratados que mejora- ban el diseño de Campanus y otro sobre un astrolabio sofisticado, el saphea. Por su parte, dos textos horológi- cos del siglo XIV son anónimos. Uno, Ecuatorio planeta-

rio, escrito en 1391, es tan detallado que el autor -astró- logo médico o astrónomo— debió de construir el aparato descrito. En el siglo XIV o principios del XV, el único caso claro de un astrónomo, que no practicaba la medicina, pero que construyó y escribió sobre instrumentos, es el de Ricardo de Wallingford, abad de Saint Albans. Ha- cia 1330 construyó un geometricum instrumentum que había inventado para mostrar los movimientos del Sol y de la Luna y el flujo de las mareas. Todos estos astrónomos fueron benedictinos.

Entre los hombres ilustrados fuera de los claustros sólo los astrólogos médicos describieron y construyeron má- quinas. La referencia más antigua corresponde a Henry Bate de Malines, quien, en 1274, escribió un tratado de medicina astrológica, De diebus criticis, donde dice haber inventado una nueva clase de astrolabio y que manu com- plevipropia. Poco después de 1300, el astrólogo médico danés Petrus Philomena, que había enseñado matemáti- cas en Bolonia en 1291 y luego en París en 1293, inven- tó y construyó un instrumento para computar la longitud eclíptica de los siete planetas.

El caso más destacado es el de Giovanni de Dondi, hijo de un astrólogo médico que había escrito sobre las ma- reas y que al parecer había construido un reloj. Giovan- ni fue profesor de medicina y de astrología en las uni- versidades de Padua y de Pavía y uno de los científicos más honrados de su tiempo. En los dieciséis años transcurri- dos entre 1348 y 1364 fabricó un intrincado reloj astro- nómico y planetario que señalaba las horas, mostraba los cursos de los siete planetas y proporcionaba un calenda- rio perpetuo incluidas las fiestas móviles. Su texto pro- porciona tan exacta descripción y precisos diagramas que ha sido posible reproducirlo en nuestros días, exhibién- dose en la Smithsonian Institution una reproducción ope- rativa (figuras 1, 2, 3).

El interés inicial de los astrólogos médicos por la me- cánica se debió a su preocupación por mejorar la instru- mentación; una preocupación que aumentó con el tiem- po. Los mejores profesionales eran contratados por las cortes, lo que, en ocasiones, les obligaba a seguir a reyes y a príncipes a los campos de batalla; aquí tuvieron la oportunidad de observar los ingenios militares y acercar- se a los ingenieros profesionales. Siéndoles familiares los instrumentos de observación y de cálculo, los astrólogos médicos comenzaron a interesarse por la mejora de los instrumentos de guerra.

(3)

Figs. 1, 2 y 3.- Reconstrucción del astrarium de Giovanni de Don- di en la Smithsonian Institution. El intrincado reloj astronómico y planetario marca las horas, los cursos de los siete planetas y pro- porciona un calendario perpetuo incluso para las fiestas móviles.

La reproducción fue posible gracias a las detalladas descripciones proporcionadas en el Tratatus astrarii de Giovannt.

En 1335, un famoso escolar médico italiano, Guido da Vigevano, en su Texaurus regís Francie exhortó al rey Fe- lipe VI a lanzar una nueva cruzada. Guido, seguramente graduado en medicina por Pavía, sirvió como médico al emperador germano Enrique Vil y a dos reinas sucesivas de Francia, María de Luxemburgo y Jeanne de Burgundy.

Escribió un tratado de anatomía sobre la base, en parte, de sus propias disecciones. Realizó experimentos farma- cológicos, en especial encaminados a encontrar el antí- doto del acónito, pócima entonces de moda para los en- venenamientos entonces también de moda. Con estos antecedentes, Guido, que conocía que las enfermedades diezmaban las tropas más que el enemigo, dedicó el pri- mer volumen de su Texaurus a materias médicas. El se- gundo lo dedicó a la descripción, acompañada de ilustra- ciones, de una serie de máquinas de guerra inventadas por él: una torre de asalto movida por propulsión humana o por viento, y un submarino movido mediante paletas.

Otro tratado de ingeniería militar compuesto por un astrólogo médico es el famoso Bellifortis de Conrad Kye- ser de Eichstatt. Aunque incompleto a su muerte en 1405,

llegó a ser el trabajo tecnológico más influyente elabo- rado en el norte europeo entre el Texaurus de Guido, de 1335, y el De re metallica de George Agrícola, de 1556.

Kyeser se graduó en Padua y participó en la cruzada con- tra los turcos; colaboró estrechamente con el rey Wen- ceslao de Bohemia, aunque el Bellifortis está dedicado a Ru- precht del Palatinado. Entre sus «creaciones» se encuentra un instrumento para castrar con lentitud, y practicaba la magia, en cuyas prácticas empleaba velas hechas de grasa humana. Consideraba la magia como una rama de la tec- nología, y colocaba las artes theurgice como parte de las ar- tes mecánicas justo por encima de las ars militaris. Proyectó un mecanismo lanzamisiles, ofreció el primer dibujo de un cohete y su lanzadera y el primer esbozo de una ametra- lladora. Su aportación técnica más importante fue un di- seño para tensar ballestas, artilugio que luego se aplicó en el mecanismo de cuerda de los relojes y en el diseño de lla- ves de tuerca.

Contemporáneo de Kyeser en Francia fue Jean Fusoris, quien exhibía la misma combinación de medicina, astro- logia y tecnología. Nació en 1365, siendo bachiller, as-

(4)

trólogo y doctor en medicina (1396) por la Universidad de París. Construyó y vendió dos relojes al duque de Or- leans en 1398, y astrolabios a Juan I de Aragón y a Enri- que V de Inglaterra. Construyó un reloj astronómico para el duque de Burgundy y, en 1410, presentó un astrolabio y esfera celestial al papa Juan XXII en Bolonia. Los años siguientes, Fusoris se dedicó a perfeccionar una nueva cla- se de ecuatorio. El ecuatorio era un instrumento, opera- do manualmente, que ayudaba a acortar los cálculos de los horóscopos basados en tablas astronómicas; ello median- te la imitación física de las combinaciones de los ciclos y epiciclos que se estimaban para las trayectorias planeta- rias en el sistema ptolomeico. El nuevo ecuatorio de Fu- soris capacitaba a los astrólogos a operar simultáneamen- te con tablas y cálculos, una operación que puede llamarse una computadora mecánica pura. En 1423 construyó un gigantesco reloj astronómico para la catedral de Burdeos.

Murió en 1436.

El modo complejo en que la astrología médica sirvió, desde el siglo XIII hasta finales del XV, para unir activida- des intelectuales que hoy nos parecen incongruentes, se ilus- tra con bastante claridad en el trabajo y trayectoria de un discípulo de Jean Fusoris, el holandés Henry Arnault de Zwolle. Arnault fue doctor en medicina y, de 1432 a 1446, médico personal y astrólogo del duque Felipe el Bueno de Burgundy, para quien construyó relojes y un planeta- rio muy complejo. Después, de 1454 a 1461, sirvió al rey Carlos VII de Francia en las mismas facetas. Un hecho distintivo del trabajo de Arnault fue su interés por la mú- sica, parte integral del quadrivium y por ello íntimamen- te relacionada con la medicina, como las matemáticas y la astronomía. Diseñó laúdes y escribió el primer tratado conocido de los mecanismos de los instrumentos con te- clado. Por otro lado, describió aparatos para pulir piedras preciosas sobre la base de que el polvo de las gemas era útil en farmacología. Por último, diseñó aparatos para el asal- to de fortalezas. Con todo ello, Arnault fue el más ilustrado y conspicuo de los astrólogos médicos de su siglo, y es el más famoso referente del hecho de que los tratados más importantes de tecnología producidos en Europa duran- te el siglo XIV y la primera mitad del XV fueron hechos por astrólogos médicos.

LA CIENCIA DEL DIAGNÓSTICO

Los médicos han observado la orina durante siglos; de hecho, su examen fue el signo objetivo que dominó la práctica médica. Los artistas, desde finales del siglo XV, han pintado la práctica de la uroscopia -observación de la orina— una y otra vez. El urinálisis se menciona, al me- nos dos veces, en las obras de William Shakespeare; la ori- na de Falstaff es tema de debate en Enrique IV, y en la Duodécima noche, la orina se utiliza para diagnosticar la lo- cura de Malvolia. Junto con su observación, otra prueba, quizá la más antigua que requirió la utilización de un apa- rato, fue medir su gravedad específica y, con ello, obtener

un número. La gravedad específica se definió como el peso de un fluido comparado con igual cantidad de agua. Ello se medía con un hidrómetro, o si el instrumento estaba di- señado específicamente para utilizar orina, un urinóme- tro. El valor obtenido proporciona un índice preciso, cuan- tificable, de salud o enfermedad; a mediados del siglo XIX se consideró tan importante que debía llevarse, junto al fonendoscopio, a las visitas domiciliarias. A finales del si- glo XIX los doctores se mostraban exultantes de su poder y prestigio como descubridores y analistas de la evidencia física. El número y el gráfico representarían la quintaesen- cia de la medicina científica.

El número y el gráfico

El termómetro —inventado por Galileo hacia 1595—

consolidó el diagnóstico instrumental y, como el estetos- copio, fue catapultado por un individuo y un libro que die- ron a conocer las posibilidades de la tecnología. En 1 868, el médico alemán Cari Wunderlich (1815 - 1877) publi- có La temperatura en la enfermedad: un manual de termo- metría clínica, que recogía la experiencia de miles de ob- servaciones termométricas (figura 4). Wunderlich estableció que en las personas sanas la temperatura es constante y que sus variaciones son un índice importante de enfer- medad; comparó la evidencia termométrica con otros sig- nos físicos de la enfermedad, como los recogidos por pal- pación, percusión o auscultación. Argumentó que frente a la subjetividad de la interpretación acústica de la fo- nendoscopia la termometría expresaba números, que pro- porcionaba un diagnóstico «incontestable e indudable, independiente de la opinión o de la experiencia y sagaci- dad del médico».

La distinción que Wunderlich hizo entre el carácter de la evidencia proporcionada por la termometría y el faci- litado por otros exámenes físicos como la auscultación, fue elaborado por otros, como Edward Seguin (1843 - 1898), un médico estadounidense que también se ocupó de la termometría y que, hacia 1870, clasificó las técnicas diagnósticas en dos divisiones: una, de diagnóstico físico como el estetoscopio y el oftalmoscopio, que son acceso- rios y meras extensiones de los sentidos, y otra, de diag- nóstico positivo, como el termómetro y el esfigmógrafo, que son «sustitutos de los sentidos proporcionando re- sultados automáticos, matemáticamente percibidos y por ello independientes de los sentidos e inmodificables por la mente». El esfigmógrafo había sido desarrollado por E. J.

Marey (1830 - 1904) para monitorizar el movimiento del sistema circulatorio, siendo el precursor de los artilugios electrónicos del siglo XX como el electrocardiógrafo.

Marey, Seguin y Wunderlich estaban comprometidos en conseguir la mejor notación científica de los datos tec- nológicos médicos. La proliferación instrumental produ- jo cantidades, cada vez mayores, de datos; el problema fue cómo manejarlos sin sacrificar fiabilidad y precisión diagnósticas. Wunderlich creyó que las diferentes medidas

(5)

£&!';<

101.

/03.I 102 2

10/3 I00.L

99.5 98 6

97.7

'Oí? ?

\9S r

•cal

,0

jas

39

lfi.5

33

17.5

35.5

f / *

,'U \

1

1

7~ T

' l \

i

¡ i i

1

6 M.E

t

\

Af.£7

y

i

1

B M.£

\/

]

A

'i

90 W.E

A A I

\/1\/

i iV

\ w

\-

í

M.E

w

;

1

1

tu

1 h

\

1 S M.E

i {

>Z

v

1

l\ 1

V l\

?!

1/ /\

—-

"0

/ '

\/

11,

V

A

^ £

A

23

M.E

s

»/-

M.e

/ /

"i

Fig. 4.- Un gráfico de Wunderlich que recoge el curso general de la temperatura en un paciente con sífilis. Tomado de C. A. Wunderlich, On the Temperature ¡n Diseases: A Manual of Medical Thermometry. W. B. Woodman, Londres, New Sydenham Society, 1871 (traducción

de la 2.a ed. alemana).

debían recogerse de manera secuencial y como una línea continua que reflejaría las oscilaciones numéricas, dando más valor a la dinámica de la gráfica que a la cifra aisla- da. En esto, Wunderlich se aproximó al punto de vista de Marey, que vio en la gráfica una clave del diagnóstico mé- dico; sin embargo, Seguin defendió que «cartas matemá- ticas» en que los números representaban las medidas exac- tas de los parámetros estudiados eran superiores a las gráficas. En cualquier caso, para Wunderlich, Marey y Se- guin dar a los hallazgos médicos un formato objetivo era un medio de crear una medicina científica. Como un «mé- dico científico», Wunderlich hablaba del descubrimiento de «leyes que regulaban la causa de la enfermedad». Seguin vio que tales datos hacían que el médico estuviera «más cer- ca de la física y más lejos de la metafísica» y reclamó para la medicina un lugar entre las ciencias naturales. Y Marey barajó la posibilidad de que la fisiología y la medicina se aproximaran a las ciencias exactas mediante la represen- tación matematizada de los diferentes registros diagnósticos.

SALUD PÚBLICA Y EPIDEMIOLOGÍA

A finales del siglo XVIII surgieron una serie de aconte- cimientos que tuvieron una influencia radical en el estu- dio y en el concepto de las enfermedades de la población.

Sobre todo, los matemáticos se dieron cuenta de las po- sibilidades inherentes del cálculo de probabilidades. En 1812, Pierre-Simon Laplace (1749 - 1827), astrónomo y matemático francés, publicó un tratado sobre la teoría analítica de las probabilidades, sugiriendo que tal análisis podría ser una herramienta valiosa para resolver problemas médicos. Durante las décadas siguientes, sus ideas se dis-

cutieron en las academias parisinas de medicina y de cien- cias. Por su parte, las revoluciones democráticas ameri- cana y francesa asentaron nuevos principios respecto a la salud pública. La conexión entre medio ambiente y en- fermedad requirió nuevos métodos de análisis. La com- binación del progreso en metodología matemática con el desarrollo de la salud pública y la legislación sanitaria ini- ciadas durante la Revolución, dieron la ventaja a Francia sobre sus vecinos europeos.

El método estadístico

El primer médico que utilizó métodos matemáticos en el análisis cuantitativo de pacientes y sus enfermedades fue el francés Pierre Charles-Alexandre Louis (1787 - 1872). La aplicación seminal de la méthode numériqueen su clásico estudio de la tuberculosis influyó en toda una generación de estudiantes, cuyos discípulos, a su vez, con- solidaron la nueva ciencia de la epidemiología, sólida- mente enraizada en el método estadístico. En las reco- mendaciones de Louis para evaluar diferentes métodos de tratamiento se encuentran las semillas de los ensayos clí- nicos que se desarrollaron un siglo después. En Francia, Louis Rene Villermé (1782 - 1863) y, en Inglaterra, Wi- lliam Farr (1807 - 1883) -quien había estudiado estadís- tica médica con Louis- alzaron los primeros mapas epi- demiológicos utilizando métodos cuantitativos y análisis epidemiológicos, y Francis Galton (1822 - 1911), de la mano del darvinismo social, fundaba la biometría esta- dística.

Los primeros intentos de hacer coincidir las matemáti- cas de la teoría estadística con los conceptos emergentes

(6)

de la infección bacteriana tuvieron lugar a comienzos del siglo XX. Tres diferentes problemas cuantitativos fueron estudiados por otros tantos autores. William Heaton Ha- mer (1862 - 1936) propuso un modelo temporal discreto en un intento de explicar la ocurrencia regular de las epi- demias de sarampión; John Brownlee (1868 - 1927), primer director del British Research Council, luchó du- rante veinte años con problemas de cuantificación de la infectividad epidemiológica, y Ronald Ross (1857 - 1932) exploró la aplicación matemática de la teoría de las pro- babilidades con la finalidad de determinar la relación en- tre el número de mosquitos y la incidencia de malaria en situaciones endémicas y epidémicas. Pero el cambio más radical en la dirección de la epidemiología se debe a Aus- tin Bradford Hill (1897 - 1991): el ensayo clínico aleato- rizado y, en colaboración con Richard Dolí (1912), el épico trabajo que correlacionó el tabaco y el cáncer de pulmón.

El cálculo de probabilidades y las técnicas estadísticas de inferencia constituyen la base del tratamiento estadístico y de la investigación operacional de cualquier problema que se halle sometido a contingencia. Convertir el azar en algo tratable científicamente constituye la grandeza del cálcu- lo de probabilidades; su flaqueza se manifiesta, sin em- bargo, en la imposibilidad de hacerlo sin error. La inves- tigación biomédica recurre en sus estudios a estas técnicas que, bien utilizadas, proporcionan valiosa información al investigador y le permiten, en unos casos, decidir, por ejemplo sobre un diagnóstico dudoso, y, en otros, ofrecer resultados sintéticos de un problema de gran amplitud, por ejemplo la posible eficacia de un tratamiento farma- cológico.

En el ecuador del siglo XX dos hechos aparentemente in- dependientes, cada uno de ellos con una gran carga sig- nificativa, hicieron del año 1950 un referente respecto al antes y el después. El primero fue la demostración de que dos fármacos —estreptomicina y ácido para.amino salicí- lico— administrados durante largos periodos conducían a la curación del 80% de los pacientes con tuberculosis; el segundo fue la prueba convincente de que el tabaco pre- disponía al cáncer de pulmón. Estos dos acontecimien- tos representan lo que los historiadores de la ciencia lla- man un cambio de paradigma. La incriminación del tabaco en el cáncer de pulmón indicó que la causa de esta enfer- medad podía ser tan específica como la de la tuberculo- sis. Si fumar causa cáncer de pulmón, quizá otros aspec- tos de la vida de la gente, como la dieta, podrían causar otras enfermedades. Las ramificaciones de este desplaza- miento de paradigma fueron tan amplias que no hay ra- zones para excluirlo del panteón de «momentos definiti- vos» de la historia de la medicina. Hasta 1950, la piedra angular del conocimiento médico fue su acumulación, un conocimiento retrospectivo; a partir de entonces, la apli- cación masiva del método estadístico abrió la puerta de los estudios prospectivos. La puerta la abrió, casi enteramente, una sola persona: Austin Bradford Hill, profesor de me- dicina estadística en la Escuela londinense de Higiene y de Medicina tropical (figura 5).

Fig. 5.- Sir Austin y lady Bradford Hill.

EL ANHELO DE CERTEZA

La medicina actual está cambiando drásticamente en múltiples aspectos, y existen factores de muy diversa ín- dole que están modificando la práctica médica y la harán aún más diferente en el siglo XXI; ello soportado por el anhelo de acercar la ciencia al arte de la práctica clínica.

Anhelo que, hoy, se denomina «medicina basada en la evi- dencia». El término fue acuñado en la McMaster Medical School, Canadá, en la década de los años ochenta, para denominar una estrategia clínica basada en el proceso sis- temático de búsqueda, evaluación y uso de los hallazgos de la investigación biomédica como base esencial para la toma de decisiones en la práctica clínica. Su origen va li- gado a los profundos cambios que ha supuesto la intro- ducción de nuevos métodos epidemiológicos y estadísti- cos en la investigación clínica, principalmente el ensayo clínico aleatorizado y, más recientemente, el meta-análi- sis -¿alquimia estadística del siglo XXI?-. En esa búsque- da casi desesperada, debida en parte a la crisis existente en la identidad de la medicina, surgen constantemente pseudoestrategias de evaluación de la eficacia y de la efec- tividad clínicas: rationale for systematic reviews, best evi- dence synthesis, cross desígn syntbesis... Por todo ello, exis- ten importantes sinergias científicas y pragmáticas entre la toma de decisiones en medicina y la informática médica.

Informática médica que no pretende reemplazar la toma de decisiones médicas sino impulsar una confluencia de intereses entre esos campos. La informática médica es mu- cho más que la aplicación de computadoras en medicina;

(7)

entiende del estudio de datos -en especial del procesa- miento de la imagen médica—, del conocimiento y de la información biomédicos, incluyendo su utilización la toma de decisiones clínicas ayudada por computadora o la ci- rugía integrada por computadora.

La medicina actual es científica, pero no es una ciencia.

La práctica clínica, hecha por expertos cualificados, es va- riable; de ahí que la tasa, por ejemplo de hospitalización o de ciertas prácticas quirúrgicas, varíe de unas manos a otras. También el «error» médico es una constante de la práctica clínica. Las causas de la variabilidad en la prácti- ca clínica son varias: estilos de práctica médica diferen- tes; ignorancia; diferencias en la prevalencia de las enfer- medades, en la oferta de servicios o en la estructura organizativa; preferencias de los pacientes, etc. Todo ello hace que se reclame la introducción en la práctica médi- ca de métodos «objetivos» de ayuda en la toma de deci-

Sistemas de ayuda en la toma de decisiones clínicas En los últimos años aumentó de modo notable la can- tidad y calidad de información disponible en el área de la medicina; ello, gracias a la disponibilidad de potentes sis- temas informáticos con gran capacidad de almacena- miento. Sin embargo, la evolución de las aplicaciones mé- dicas basadas en tal información lleva un cierto retraso, no sólo por la forma tradicionalmente lenta de transmitirse o difundirse los nuevos hallazgos científicos, sino tam- bién por la manera imprecisa como piensan y se comunican los médicos. Esta falta de precisión está siendo contra- rrestada en buena parte por algunos desarrollos alentado- res y, en particular, por la creciente aplicación por parte de los médicos de principios de evaluación crítica y por la formulación de nuevos procedimientos para el Análisis de Decisiones (AD) médico. A pesar de estos notables avances, aún se considera que puede haber una comuni- cación deficiente en muchas situaciones; así, se ha seña- lado que los médicos tienen amplias diferencias en la inter- pretación del impacto de sus actuaciones. Existe, por ello, una demanda creciente de métodos cuantitativos.

Una ayuda que se ha mostrado importante, sobre todo en época reciente, es el AD; una técnica que constituye una valiosa herramienta de ayuda en la toma de decisiones.

Los médicos utilizan el AD básicamente de dos maneras.

La primera es esencialmente indirecta, en el sentido de que tienen confianza y utilizan productos del AD desa- rrollados por otros investigadores. Un caso típico es la uti- lización de directrices prácticas; por ejemplo, aquellas ba- sadas en pequeños árboles de decisión, que pueden ser de gran ayuda en la toma de decisiones directas y rápidas que deben asumir los médicos en su práctica diaria. La se- gunda manera de utilizar el AD es más directa, pero está mucho menos extendida: la aplicación de herramientas del AD con el propósito de tomar mejores decisiones en relación con el cuidado y cura de los pacientes de mane-

ra individual. El número de médicos que las utilizan es aún bastante reducido; ello, seguramente, por el escaso tiem- po de que disponen, pues su aplicación, empezando des- de cero, suele requerir una cantidad importante de tiem- po. Sin embargo, con el actual avance de la informática, en algunos casos se ha reducido ese tiempo a unos pocos minutos, lo que ha de convertir esta herramienta en algo bastante atractivo. No cabe duda de la gran ayuda que pueden representar los .Sistemas de ylyuda a la .Decisión (SAD). Tres son las aplicaciones más interesantes en me- dicina: la modelización cualitativa del ciclo del AD, basa- da esencialmente en la construcción de una representa- ción gráfica del problema; la modelización cuantitativa relacionada con la cuantificación de la incertidumbre en términos de probabilidades y de las preferencias median- te utilidades, y el análisis de sensibilidad, un aspecto ne- cesario en cualquier modelo cuantitativo para su refina- miento y estudio de la robustez.

Las dos herramientas de representación gráfica de pro- blemas de decisión más elaboradas y utilizadas actual- mente en aplicaciones del AD son los árboles de decisión y los diagramas de influencia. Los árboles de decisión, cu- yos antecedentes se encuentran en la teoría de juegos in- troducida por Von Neumann y Morgenstern en los años cuarenta y popularizados más tarde dentro del AD por Raiffa en los años setenta, constituyen una herramienta fle- xible y expresiva de representación y evaluación de pro- blemas de decisión. Su representación gráfica se obtiene dibujándolos de izquierda a derecha, con los sucesos en or- den de observación relativos a las decisiones. Así, un su- ceso observado por un decisor antes de tomar una deci- sión se dibuja a la izquierda de la decisión, mientras que un suceso que se observa después se dibujará a la derecha.

En un árbol de decisión se consideran tres tipos de nodos:

1) de decisión, representados mediante cuadrados, de los que emergen arcos que representan las posibles decisio- nes que pueden tomarse en ese instante; 2) de azar, re- presentados con círculos, cuyos arcos representan los es- tados posibles que se pueden dar en ese instante, y 3) de valoro terminales, representados con rectángulos, que in- dican la utilidad de las consecuencias asociadas a las su- cesiones de decisiones y estados desde la raíz hasta ese nodo terminal. La representación completa del árbol se tiene una vez incluida en él la información cuantitativa;

es decir, las probabilidades y utilidades que modelizan las creencias sobre la incertidumbre y las preferencias, res- pectivamente.

La figura 6 es un ejemplo de árbol de decisión que se re- fiere a un problema genérico de tipo médico: caso de un paciente que puede presentar una enfermedad (variable discreta binaria que puede tomar los valores Enf-SI y Enf-NO, según la padezca o no, respectivamente), que puede influir en su calidad de vida. La enfermedad se pue- de detectar mediante un test (su aplicación la indicare- mos con Test-SÍ y, en otro caso, con Test-NO) cuya res- puesta no es completamente fiable. Además, existe la posibilidad de someter al paciente a un tratamiento (va-

(8)

Trat-S

24.978 [Tratamiento

Test + 76.763

Test- NO

Trat-NO

Enf-NO

1 2 4 0

78.60

8.00

82.35

12.40

78.60

8.00

82.35

12.40

78.60

8.00

82.35

Fig. 6 . - Árbol de decisión (tomado de: 5. Ríos Insúa, Análisis de decisión en medicina; en: R García Barreno, S. Ríos García y J. Girón Gon- zález-Torre (eds.) Toma de decisiones en ambientes profesionales. Instituto de España, Madrid, 2000).

riable discreta binaria con valor Trat-SI cuando se aplica el tratamiento y Trat-NO, cuando no se aplica). Se pre- sentan, por tanto, dos decisiones; la primera se refiere a si aplicar o no el test al paciente y la segunda a si tratarlo o no, una vez conocidos los resultados del test. El objetivo será aumentar el tiempo y la calidad de vida del pacien- te. El árbol se completa con las probabilidades sobre los arcos que emergen de los nodos de azar y las utilidades en los nodos terminales.

La evaluación de los árboles se lleva a cabo mediante el método regresivo de la programación dinámica, que consiste en partir de los nodos terminales y regresar obteniendo en cada paso la decisión que corresponde a la máxima uti- lidad esperada, para alcanzar, finalmente, la raíz del árbol con la solución deseada. En la figura 6 aparece sobre cada nodo la utilidad calculada en el proceso de evaluación del árbol, y la solución óptima viene marcada por las ramas del árbol en trazo más grueso. Tal solución corresponde-

(9)

ría a «realizar el test y, si da positivo, aplicar el tratamien- to; pero si da negativo, no aplicarlo». El resultado: una esperanza de vida con calidad ajustada de 76,763 años.

A pesar de la capacidad descriptiva de los árboles de decisión, éstos se hacen demasiado complejos cuando au- menta el número de nodos de azar y/o de decisión. Cada nodo añadido al árbol expande su tamaño exponencial- mente de manera que sólo pueden mostrarse al nivel de detalle problemas relativamente simples. Para superar esta objeción y otras, se desarrollaron los diagramas de in- fluencia (DI, figura 7) en la mitad de la década de los años

setenta, como una representación formal de modelos ma- temáticos en un intento de superar los inconvenientes que presentaban los árboles de decisión. Formalmente, un DI es un grafo dirigido acíclico con tres tipos de nodos: 1) de decisión, representados mediante cuadrados y que pro- porcionan las alternativas de decisión bajo consideración;

2) de azar, dibujados mediante círculos que representan va- riables aleatorias o de azar, y 3) de valor, dibujados como un rombo que modelizan las utilidades esperadas. Los ar- cos representan relaciones entre pares de nodos y un arco entre dos nodos de azar indicará la existencia de una re-

Fig. 7.- Diagrama de influencia (ídem, fig. 2).

lación o dependencia probabilística entre los respectivos sucesos. Así, tendremos que el resultado del test (nodo de azar «inform. del test») dependerá de si el individuo padece la enfermedad (nodo de azar «enfermedad»). El sentido del arco, que puede invertirse en el proceso de evaluación y que, por tanto, no implica causalidad, de- terminará qué probabilidades serán asignadas como pro- babilidades condicionadas. La ausencia de un arco entre un par de nodos de azar indicará independencia, a veces denominada independencia condicional. Los arcos que apuntan a los nodos de azar o el arco de valor se denominan arcos condicionales.

En contraste con los árboles de decisión, en que la se- cuencia de los sucesos es obvia a partir de la estructura del árbol, un DI subyace sobre tipos específicos de arcos para representar la secuencia de sucesos. Así, un arco que incide en un nodo de decisión desde uno de azar indica- rá que el suceso se conocerá en el momento de tomar la decisión. En la figura 3, el arco desde el nodo de azar «in- for. del test» al nodo de decisión «tratamiento?», indica que el decisor conoce el resultado del test en el momen- to de tomar la decisión relativa al tratamiento. Así, los ar- cos que apuntan a nodos de decisión se denominan arcos de información. Recíprocamente, la ausencia de un arco de un nodo de azar a uno de decisión indicará que el deci- sor no ha observado los resultados del nodo de azar cuan-

do toma la decisión. Por ejemplo, la no existencia de un arco desde el nodo de azar «enfermedad» al nodo de decisión «tratamiento?», indicará que el médico no conoce su estatus de enfermedad cuando decide sobre el posible tratamiento. También, un arco que va de un nodo de decisión a otro, como es el caso del existente entre el nodo

«hacer test?» y el de «tratamiento?» indica que la decisión en el primero se toma previamente a la del segundo. Un arco de este tipo se denomina de memoria, para recordar que un decisor no olvidará las decisiones tomadas pre- viamente. Con todo ello, el analista deberá especificar completamente el orden de las decisiones en el DI, y los arcos de memoria le permitirán indicar esta ordenación.

En definitiva, la información asociada con un nodo que- dará determinada por el tipo de nodo y por sus predece- sores directos (figura 8).

Un caso particular de nodo de azar es el llamado nodo determinista, que es aquel que representa una variable cuyo valor es una función determinista de sus predecesores. Fi- nalmente, está el nodo de valor que en la figura 3 es «ca- lidad vida» y que contiene la información que se muestra en los nodos terminales del árbol de decisión. Los prede- cesores del nodo valor indicarán las decisiones y sucesos que afectan a la utilidad, que dependerán del modelo de utilidad considerado para el análisis. Los nodos de deci- sión y el nodo valor son los que distinguen un DI de una

(10)

Sistemas de ayuda en la toma de decisiones

Nodos AD

decisión

de valor

Nodos DI arcos de información

arcos condicionales

Fig. 8 . - «Nodos» y «arcos» en los sistemas de ayuda a la decisión {Ídem, fig. 2).

red de creencias o bayesiana o causal que son DIs que sólo contienen nodos de azar y que se utilizan para llevar a cabo inferencias probabilísticas útiles en problemas tales como los de diagnosis médica. La evaluación de los DIs se basa en la misma idea que los árboles de decisión, es de- cir, en operaciones de teorías de la probabilidad y de la uti- lidad esperada, pero aprovechando la estructura gráfica del diagrama para obtener ventajas computacionales.

La segunda aplicación de los Sistemas de Ayuda a la Decisión es la modelización cuantitativa de un problema de decisión, que se refiere a la cuantificación numérica de la incertidumbre inherente a los diferentes sucesos que aparecen en el modelo y a la asignación numérica de va- lores de los posibles resultados. Para la primera -cuanti- ficación de la incertidumbre- se utilizan probabilidades que, se supone, son estimaciones cuantitativas de la ve- rosimilitud de que ocurra un cierto resultado; para la se- gunda —asignación numérica de valores— se consideran utilidades que serán expresiones cuantitativas de la desea- bilidad de tales resultados. La validez del AD dependerá en buena parte de la precisión de estas estimaciones nu- méricas. Para el caso de cuantificación de la incertidum- bre se han desarrollado en época relativamente reciente enfoques alternativos a la probabilidad en un intento de

superar las posibles deficiencias de ésta, como la lógica difusa o la teoría de funciones de creencias de Dempster- Shafer.

El objetivo de la estimación de probabilidades en un árbol o en un DI es encontrar la estimación más precisa de la probabilidad de que ocurra cada suceso del mode- lo. Esto podría llevarse a cabo pidiendo al médico que ex- presara su grado de incertidumbre o certidumbre de un diagnóstico con palabras y, aunque puede resultarle más fácil que con números, tal planteamiento no está exento de notables dificultades. En todo caso, los modelos cuan- titativos demandan números y, por ello, un enfoque al- ternativo a la utilización de palabras para expresar el gra- do de incertidumbre de un diagnóstico será utilizar números que representen la probabilidad de que el diag- nóstico considerado sea el verdadero. Una probabilidad es un número entre 0 y 1 que expresa la verosimilitud de que ocurra un suceso. La utilización de probabilidades para expresar la incertidumbre de un diagnóstico tiene dos importantes ventajas: 1) facilita una comunicación mucho más precisa que con el intercambio de expresiones verbales, y 2) existen métodos para calcular los cambios que pudieran producirse en la verosimilitud de una enferme- dad cuando se dispone de nueva información; por ejem-

(11)

pío, la proporcionada por el resultado de una prueba, como es la fórmula de Bayes, que debería considerarse como un principio fundamental subyacente a la práctica de la medicina.

Se plantea ahora cómo estimar la probabilidad de que esté presente una determinada enfermedad. Para estimar probabilidades, debe comenzarse por buscar la mejor in- formación disponible mediante una investigación siste- mática de la literatura existente en el tema de interés, eva- luando la validez de sus resultados. En tal caso se sugieren tres enfoques básicos, que son:

1. Estimación basada en la prevalencia de la enfermedad en otros pacientes con el mismo síndrome. Para poder aplicar este enfoque será necesario disponer de es- tudios sobre prevalencia de enfermedades en pa- cientes con los mismos síndromes clínicos que el paciente en estudio.

2. Aplicación de reglas de predicción clínicas. Las reglas de predicción clínicas pueden ayudar a describir las deficiencias básicas que predicen una enfermedad y así ayudar a estimar la probabilidad de que el pa- ciente la padezca. Tales reglas están basadas, típica- mente, en el análisis estadístico de datos.

3. Estimación subjetiva. Se basa en el conocimiento y ex- periencia del médico o grupo de médicos con gru- pos similares de pacientes y se estima la probabilidad como una creencia personal de la verosimilitud de la enfermedad en consideración.

Las estimaciones vendrán dadas por un único número, en cuyo caso se hablará de estimación precisa de una pro- babilidad. Sin embargo, este planteamiento podría ser de- masiado exigente, pues, de hecho, en muchas ocasiones existe incertidumbre sobre la mejor estimación (precisa) para algunas probabilidades, en cuyo caso la estimación vendría dada por un recorrido o intervalo, teniéndose así lo que se denomina una estimación imprecisa. Frente a los tradicionales modelos precisos, recientemente se han comenzado a considerar modelos imprecisos.

La asignación final en la construcción de un modelo de decisión se refiere a la asignación de valores cuantitativos a las consecuencias o resultados de los tratamientos —esti- mación de utilidades— y que aparecen al final de cada rama del árbol de decisión o en el nodo de valor del DI. Tales valores pueden expresarse en diferentes unidades como años de vida, calidad de vida ajustada en años o simple- mente utilidades. La forma más simple de un modelo de decisión consistiría en que sólo tuviera dos resultados po- sibles (por ejemplo, vivir o morir, contraer una enferme- dad o estar sano...) y en tales circunstancias se conviene en asignar la utilidad 1 (o bien 10 o 100) al mejor resultado y el 0 al peor. Sin embargo, las situaciones que se suelen presentar son más complicadas, ya que la mayoría de los problemas de decisión tienen más de dos resultados.

Una utilidades una cuantificación de las preferencias re- lativas del decisor por un resultado que se suele medir me-

diante la asignación de un único valor entre 0 y 1, y que puede incorporar actitudes frente al riesgo y duración de vida. Las utilidades de los distintos resultados se asignan relativas a dos resultados extremos que se denominan re- sultados de referencia y que corresponden al mejor, cuya utilidad será 1, y al peor, cuya asignación de utilidad será 0.

Los procedimientos de asignación de utilidades son va- riados y entre ellos pueden considerarse:

1. Asignación arbitraria de valores basados en el juicio de un experto o de varios expertos que alcancen un consenso.

2. Búsqueda en la literatura relevante de utilidades asig- nadas en problemas similares.

3. Medida directa de valores sobre sujetos apropiados utilizando métodos válidos y fiables.

La teoría de la utilidad ofrece variadas técnicas o pro- cedimientos para elicitar las preferencias individuales de resultados más o menos complejos bajo incertidumbre.

La medida de las consecuencias de un tratamiento como la reducción en la mortalidad puede ser importante a la hora de decidir si llevar a acabo una operación o comen- zar un tratamiento. Sin embargo, no responde a una cues- tión importante para muchos pacientes como es cuánto es- peran vivir si se comienza el tratamiento. Una forma de responder a ello es en términos del promedio de esperan- za de vida una vez comenzado el tratamiento, que tiene una relación sencilla con la mortalidad anual en los pacientes sometidos al tratamiento en consideración. Aunque la es- peranza de vida es una medida útil del resultado del tra- tamiento, tiene el inconveniente de que asigna los mis- mos valores en años para un estado perfecto de salud que cuando ésta es deficiente. Parece claro que muchas personas dirían que un año bajo tratamiento parcial de una enfer- medad no es equivalente a un año en perfecto estado. La solución a este problema es considerar el ajuste de la es- peranza de vida con la calidad de vida que sufre durante un año con un estado pobre de salud (QALE — quality- adjusted Ufe expectaney).

Una situación de mayor dificultad se presenta en pro- blemas en que los resultados consisten en combinaciones de diferentes estados de salud. En ese caso, la asignación de utilidad a los resultados resulta muy difícil y hay que recurrir a la asignación de utilidades a cada estado o par- te del resultado para posteriormente combinarlos en algún formato conveniente y tener así la utilidad global. Esto corresponde a la llamada utilidad multiatributo, en que hay que contrastar ciertas condiciones de independencia para determinar cuál será la forma de la utilidad global apro- piada (aditiva, multiplicativa...) al problema en estudio.

Sirvan de ejemplo dos SADs basados en el enfoque del Análisis de Decisiones que se están desarrollando con- juntamente entre el Grupo de Análisis de Decisiones de la UPM y el Hospital General Universitario Gregorio Ma- rañón. El primero de ellos, denominado IctNeo, se re- fiere a un problema bastante frecuente, como es el de la

(12)

Isoinmumzacion de factor Rh

Fig. 9.- Diagrama de influencia para IctNeo: ictericia neonatal (ídem, fig. 4).

gestión de la ictericia neonatal y está modelizado como un DI con una importante complejidad (figura 9). El se- gundo sistema, en la actualidad en fase de construcción, trata sobre el problema de decisión relativo a la aplica- ción de oxigenación extracorpórea por membrana a neo- natos. La metodología básica es analítica e incluye diver- sos factores inciertos y decisiones para el control de su aplicación a partir de las utilidades esperadas de posibles tratamientos (figura 10).

Cirugía integrada por computadora

Un tema relevante es la sinergia que pueda lograrse en- tre los métodos computacionales para la planificación pre-

quirúrgica y la mejor capacitación para ejecutar los planes previstos. Para que los sistemas computacionales tengan va- lor es esencial que el cirujano sea capaz de llevar a cabo la estrategia planificada; esto es, deben ofrecer un programa de simulación cualitativa preoperatoria que posibilite al ci- rujano ensayar una y otra vez. Ello, a efectos de que lleve los resultados al quirófano o los almacene en su cabeza. La utilidad de tal simulación descansa en que el sistema per- mita el perfeccionamiento quirúrgico clínico, proporcio- nando al cirujano un dispositivo interactivo en tiempo real. Si el planteamiento exige información cuantitativa

—forma y posición de un tumor o posiciones y orienta- ciones de los fragmentos óseos en una osteosíntesis—, el ob- jetivo será conseguir la precisión geométrica intraoperatoria.

(13)

Como en cualquier campo técnico que todavía no está bien estructurado, a menudo existe cierta redundancia entre los conceptos que lo componen y las subdisciplinas que lo integran. No hay acuerdo sobre cómo debe deno- minarse: cirugía asistida por computadora, quirobótica dirigida por imagen, robótica médica, cibercirugía, me- dicina integrada por computadora, cirugía por informa- tización intensiva o cirugía integrada por computadora. La última denominación enfatiza la integración de plantea- miento y análisis prequirúrgicos, de sistemas de ejecución quirúrgica basados en computadora y de seguimiento y control de calidad posquirúrgicos. Sin embargo, la deno- minación es menos importante que la realidad emergen- te de estos nuevos sistemas.

La estructura arquitectónica, compleja, de estos siste- mas contempla:

1. Una base de datos unificada que contiene esencial- mente toda la información disponible sobre el pa- ciente, principalmente imágenes médicas.

2. Potentes sistemas de planificación prequirúrgica y análisis posquirúrgico en los que un elemento deci- sivo es la modelización tridimensional de la anato- mía del paciente.

3. Sistemas robóticos intraoperatorios que asistan al equipo de cirujanos en la realización del procedi-

miento planificado y que ayuden al cirujano en la ma- nipulación de los instrumentos.

4. Sistemas de integración de la realidad virtual de los modelos preoperatorios con la realidad actual del paciente en la mesa de operaciones.

5. Sistemas interfásicos que permitan la visualización en tiempo real de la integración virtual-actual indicada (figurall).

Las bases de la imagen tridimensional las sentó Alian M. Cormack (figura 13), un físico que, casualmente, se topó con la imagen radiológica clínica. Cormack abordó un problema que creyó debería estar resuelto: la recons- trucción de la imagen interna de un cuerpo no homogé- neo a partir de los coeficientes de atenuación de sus dife- rentes componentes, registrados en la superficie de ese cuerpo. El problema era matemático, de acuerdo con el es- quema de la figura 12. Si un fino haz de radiación de in- tensidad Io incide sobre un cuerpo y la intensidad emer- gente es /, es medible la cantidad g= In (Itt I I) = )L fds, donde fes el coeficiente de absorción variable a lo largo de la línea L. Si / e s una función bidimensional y se co- noce ¿fpara todas las líneas que interseccionen el cuerpo, la cuestión es: ¿puede determinarse / s i se conoce ^ C o - menta Cormack que tal problema es típico del siglo XIX, pero que no encontró publicada la solución; pasaron ca-

Fig. 10.- Diagrama de influencia para AREC: asistencia respiratoria extracorpórea (ídem, fig. 4).

(14)

Preoperatorio Modelización Análisis Planificación Optimación Simulación

Datos del paciente

Imagen

Peroperatorio Imagen y otros datos Modelo del paciente Aporte de información Interfaz del cirujano Realidad aumentada Robótica

Asistencias de manipulación

Fig. 1 1 . - Arquitectura de un sistema de cirugía integrada por computadora (modificado de: R. H. Taylor, S. Lavallée, G. C. Burdea y R. Mósges (eds.) Computer-lntegrated Surgery (OS). Technology and Clinical Application. The MIT Press, Cambridge, Mass., 1996).

Fig. 1 2 - Dibujo sobre el cálculo del coeficiente de atenuación de un haz de rayos gamma al atravesar un cuerpo no homogéneo (tomado de:

A. M. Cormack, Early two-dimesional reconstruction and recent tapies stemming from it - Discurso de premio Nobel, 8 de diciembre de 1979).

torce años hasta que se dio cuenta de que Radon había re- suelto el problema en 1917; utilizando sus herramientas -integrales lineales-, la solución apareció sin dificultad para objetos con simetría circular, en los quef=f{r), sien- do reí radio. La solución vino a través de la ecuación de Abel, conocida desde 1825:

dr

g(s)ds di {r)

Comenta Cormack que las herramientas habían sido utilizadas en estadística, radioastronomía, microscopía electrónica y óptica. Los tomogramas realizados mostra- ban que podía utilizarse un equipamiento simple, y que podían detectarse con facilidad diferencias de densidad del 0,5%. A partir de entonces, el refinamiento matemá- tico y los avances en computación han hecho posible una imagen médica cuasi en tiempo real que abre las puertas a posibilidades ilimitadas.

(15)

Fig. 13.- Alian M. Cormack (Johannesburgo, República Sud- africana, 1924).

La integración de información a partir de múltiples fuentes pre e intraoperatorias, especialmente de imagen, es crucial para que la información se utilice de manera adecuada en un sistema de cirugía integrada por compu- tadora, pues la calidad de la información afecta la calidad quirúrgica. La imagen tridimensional en medicina invo- lucra visualización -proceso mediante el cual se puede re- presentar información estructural tridimensional sobre una pantalla de ordenador a un observador-; manipu- lación -cómo pueden modificarse tales estructuras-, y análisis -cómo pueden cuantificarse- de la información estructural capturada en imágenes digitales 3D. Las he- rramientas matemáticas que sustentan la imagen tridi- mensional (figura 15 y tabla I) se refieren a diferentes téc- nicas de transformaciones de imagen para visualización de volúmenes; técnicas de segmentación de objetos com- plejos tridimensionales; técnicas de registro de toda la in- formación disponible y su modelación dimensional, y he- rramientas de representación en tiempo real (figura 14).

La medicina virtual es un aspecto fascinante de la rea- lidad virtual. Un primer paso hacia las posibilidades ve- nideras lo representa un atlas anatómico en CD-ROM; por su parte, un cuerpo humano digitalizado está a punto de ser vertido en la red de fibra óptica de las universidades americanas. Algo más futurista es un modelo 3D de ce- rebro, loncheable, que han desarrollado un hospital de Boston y General Electric; con la ayuda de unas gafas es-

tereoscópicas y la de un ratón puede diseccionarse tal ce- rebro como si se tratara de una preparación anatómica en la sala de disección. Se necesitan otros dos aditamentos para simular un verdadero cuerpo virtual: un dispositivo de inmersión en la realidad virtual (un casco especial, Head-mounted Display, HMD) y unos guantes activos, y un modelo quinemático de las partes corporales.

Un residente en cirugía que se ejercita en cadáveres rea- les no puede repetir un procedimiento quirúrgico si se equivoca; los órganos no pueden reconstruirse una vez dañados. Además, la curva de aprendizaje de un especia- lista continúa durante muchos años tras lograr su titula- ción; se necesitan varios cientos de intervenciones in vivo para lograr una eficacia comprobada. Una alternativa es que los futuros cirujanos se entrenen de manera similar a como lo hacen los pilotos de aeronaves. La investigación de si- muladores corporales para cirugía —algo parecido a los simuladores virtuales de vuelo- ha dado sus pasos inicia- les; existen en fase experimental una pierna virtual para en- trenamiento en traumatología y un cuerpo virtual para cirugía abdominal. En el abdomen virtual se encuentran todas las visceras y en el quirófano, también virtual, todo el instrumental necesario para la laparotomía y la inter- vención programada. El cirujano, enfundado en su casco de inmersión virtual y sus guantes activos, puede repetir tantas veces como desee la intervención elegida; sintien- do en sus manos la impresión que produce el bisturí cuando corta el tejido, y viendo imágenes compuestas que le per- mitan valorar lo que hay detrás de la sangre y de las su- perficies opacas. ¿Cuánto tiempo llevará que esa visión madure?

Por su parte, la telecirugía pretende conseguir clones vir- tuales de pacientes; el cirujano operaría en el replicante y sus delicados movimientos serían reproducidos, a distan- cia, por un robot que los repetiría, fielmente, en el cuerpo real del paciente. Desde luego que este sueño no es reali- dad. En particular, la integración de tales sistemas repre-

Fig. 14.- Imagen 3D (por M. Deseo. Hospital General Universitario Gregorio Marañón, Madrid).

(16)

Paciente

Adquisición de imagen (CT, MRI)

Imágenes tomográficas

Conversión de datos, filtrado 2D

Imágenes preprocesadas

Contornos 2D

Definición de contornos ± Interpolación, filtrado 3D

Volumen por nivel de grises

Segmentación, interpretación

Conexión de contornos

Nivel de gris y/o atributo de volumen

Representación en superficie intermedia

Representación de superficie

rspectiva

Representación de isosuperficies

Imágenes 3D

Representación de volumen

perspectiva

Fig. 15.- Cadena de la imagen 3D (modificado de: R. H. Taylor, S. Lavallée, G. C. Burdea y R. Mósges (eds.) Computer-lntegratedSurgery (OS).

Technology and Clinical Application. The MIT Press, Cambridge, Mass., 1996).

sentará un serio reto, incluso cuando cada uno de ellos esté plenamente desarrollado, y todo ello requiere una poten- cia de computación, hoy, lejana. Ayer, las computadoras más rápidas podían realizar cientos de operaciones por segun- do; hoy, la velocidad de computación se mide en MIPS, mi-

llones de instrucciones por segundo; pero los sistemas de realidad virtual se desayunan con MIPS. El futuro exige, no ya los gigaflops (miles de millones de operaciones por segundo) ya al alcance de la mano, sino los teraflops del ma- ñana. Un teraflop son 1012 (un billón) operaciones por

(17)

Tabla I. Aplicaciones matemáticas en procesamiento de imagen Adquisición

transformada de Fourier transformada de Radon Conversión de datos, filtrado

filtrado adaptativo

filtrado lineal (operaciones de convolución) filtrado no lineal (difusión ansiotrópica) filtrado ondicular (wavelet)

restauración bayesiana Interpolación, filtrado 3D

lineal, trilineal, cúbica, en espacio de Fourier funciones polinómicas (splines)

Segmentación

clásica (umbralización, crecimiento de regiones) estadística (algoritmo de similitud, campos de Markov) multiespectral

clasificación bayesiana morfología matemática lógica difusa redes neuronales

contornos activos y modelos deformables Registro multimodalidad

ajuste por puntos (singular valúes decomposition, SVD) ajuste por superficies

volumétrico Proyección (renderíng)

triangulación de Delauney diagramas de Voronoi algoritmos Marching cubes modelos de iluminación

Herramientas matemáticas utilizadas o que se pueden utilizar, en la generación y en el tratamiento de la imagen médica. Los métodos utilizados corresponden, en términos generales, a: 1) Análisis fun- cional: análisis armónico, Fourier, ondículas (wavelet), etc. 2) Álge- bra lineal: cálculo matricial, ecuaciones lineales y no lineales, espa- cios vectoriales, factorización, inversión de matrices, valores singulares, etc. 3) Análisis numérico: optimación lineal y no lineal (simplex, má- xima pendiente, quas/'-Newton). 4) Estadística: estimación bayesia- na, estimación de máxima verosimilitud (clustering), multivariables, modelos lineales generalizadas, campos de Markov (Markov-random fields). 5) Geometría: B-splines, coordinadas homogéneas, curvas

de Bézier, proyección.

segundo; sueño a punto de concretarse. En particular, la integración de tales sistemas representará un serio reto in- cluso cuando cada uno de ellos esté plenamente desarro- llado. Tales retos no son sólo técnicos; los conceptuales y los relacionados con las competencias de las actuales espe- cialidades serán más difíciles de derribar.

DINÁMICA NO LINEAL EN MEDICINA

La teoría de dinámica de sistemas es una rama de las matemáticas que incorpora elementos de las teorías de ecuaciones diferenciales y del control no lineal y de la to- pología. Un elemento de la teoría es la utilización de las matemáticas para reconstruir el sistema que genera una señal observable, lo que contrasta con los procedimientos estándar de análisis de esas señales, que se ocupan, úni- camente, de la propia señal. La caracterización dinámica

de la actividad eléctrica cerebral, el estudio de las arrit- mias cardiacas, el envejecimiento, las epidemias o el carácter caótico de la «normalidad» fisiológica, son algunos ejem- plos de la aplicación médica del caos.

La molécula inmortal de nuestro organismo es el ADN, y como tal representa la contestación reduccionista a la vieja pregunta: ¿dónde estabas antes de que tu abuela na- ciera? La continuidad y capacidad de una secuencia del ADN para reciclarse a través de sucesivas generaciones y adaptarse y evolucionar en un sistema humano complejo que es capaz de construir rascacielos y navegar por el es- pacio, representa una proeza de gestión molecular. Sólo una mínima cantidad de ADN pone en marcha el proceso de autoorganización molecular que resulta en tal complejidad biológica. Muchas complejidades biológicas como la crea- tividad humana no parece que se hayan desarrollado du- rante la evolución de una manera continua o lineal, sino que exhiben un desarrollo restrictivo tipo todo-o-nada que puede ser mejor explicado por una rama de las matemá- ticas denominada dinámica no lineal, que incluye el estudio del caos. Los cambios abruptos que caracterizan los siste- mas no lineales se denominan propiedades emergentes.

Por ejemplo, el registro de la actividad eléctrica cerebral exhibe una dinámica no lineal: miles de millones de neu- ronas interaccionan mediante billones de comunicacio- nes célula-célula para formar un sistema colectivo que emerge como algo más que la suma de sus neuronas com- ponentes. Esas interacciones neuronales autoorganizadas en el cerebro responden a su entorno y forman redes neu- rales dinámicas que, colectivamente, almacenan, proce- san y recuperan vastas cantidades de información en un proceso que denominamos conciencia y creatividad. ¿Qué tipo de análisis se requiere para explicar el desarrollo de esa propiedad única como la creatividad? El conocimiento de la secuencia del genoma humano es sólo una parte para la comprensión de la naturaleza humana, que no será com- pleta sin algún análisis adicional sobre el proceso de au- toorganización. La dinámica no lineal, incluida la teoría del caos, emerge como una nueva forma de análisis para estudiar los sistemas biológicos complejos como el cere- bro, el corazón, las epidemias o el cáncer.

La comprensión de esas propiedades biológicas emer- gentes la proporcionan descripciones matemáticas de cómo las unidades individuales, que son relativamente inde- pendientes, pueden conectar y modular su estado de in- teracción con otras unidades. Esas interacciones se auto- organizan en una red interactiva y con capacidad de adaptación al medio; una red que posee nuevas propiedades colectivas que no resultan de la suma de los componen- tes individuales. Si las interacciones entre las unidades in- dividuales son demasiado fuertes, la red es ordenada y rí- gida y su capacidad para responder a cambios ambientales contiene poca diversidad de opciones. Si las interaccio- nes entre los componentes de la red son muy débiles, el sistema tiende a dispersarse y presenta un comportamiento desorganizado a causa de la escasa retroalimentación en- tre las unidades. Las variaciones dinámicas en el grado de

Referencias

Documento similar

22 FERNÁNDEZ DÍAZ, Andrés (2000): pp.. lenguaje, añadiendo que la ciencia del Derecho puede verse como un conjunto de enunciados sobre el Derecho positivo. De esa forma aparece

En tales circunstancias, una forma de proceder posible sería iniciar una fase preconstitucional de diálogo nacional, como sucedió en Sudáfrica, para reunir a

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

Este parón o bloqueo de las ventas españolas al resto de la Comunidad contrasta sin em- bargo con la evolución interior de ese mismo mercado en cuan- to a la demanda de hortalizas.

Un poeta, un locutor, un pintor, amigos hippies o músicos de larga trayectoria hicieron parte de este proyecto musical que, en mi concepto, está en la cima de la historia del rock

Separa y escribe en los recuadros las sílabas de cada dibujo y en la línea derecha coloca el nombre de la palabra según el número de sílabas que tienen.. Pronuncia las palabras,

cuarta, que las unidades que suministran el contenido a la moral, al igual que sus agentes, son 10s seres humanos individuales, y que en las valoraciones morales todo individuo ha de

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones