DESARROLLOS DE LOS MICRO ENSAYOS
Miguel Cobaleda
01-03-2023
25-UN
TERMÓMETRO MUY GORDO
Antes, la mayoría de los termómetros clínicos –hoy prohibidos y retirados–
consistían en pequeñas cantidades de mercurio metidas en tubos capilares de
vidrio, los cuales tenían impresa en su pared exterior una escala graduada desde
los 34º centígrados hasta, generalmente, los 42º. Es de ellos de los que
pretendo hablar en el primer ejemplo-problema de este micro-ensayo. Los sistemas
nuevos para la medición clínica de la temperatura corporal –o para pequeñas
muestras de líquidos, sólidos, etc.– son termómetros digitales, basados la
mayoría en termistores y transductores para recibir datos de temperatura y para
traducirlos a un sistema binario que permita luego su presentación en pantalla.
Que conste que la problemática que voy a exponer como característica de los
antiguos termómetros, puede utilizarse igualmente contra los nuevos, y con grado
creciente de dificultad.
Supongamos que queremos medir la temperatura del agua contenida en un recipiente
doméstico corriente, una olla que haga, por ejemplo, cuatro litros de capacidad.
Siempre que no haya estado puesta al fuego y siempre que supongamos que su
temperatura es la del ambiente –ambiente normal, no una sauna con 45º o más de
temperatura, no un exterior siberiano con –40º, ya que en ambos casos el
termómetro de vidrio estallaría en pedazos minúsculos y las micro-gotas de
mercurio irían a parar a todos los rincones–, el sistema sería sencillo:
introducir la varita de vidrio en el agua de la olla y esperar unos momentos
mientras marca y se detiene. Pero nuestro ejemplo exige que vayamos poco a poco
aumentando el tamaño del termómetro hasta convertirlo en un cilindro de tanto
radio que quepa muy justito en la boca de la olla. Es entonces evidente que, si
el cilindro en cuestión tiene una temperatura muy distinta del agua, siendo tan
escasa la diferencia de volumen entre lo medido –el agua– y el objeto medidor
–el termómetro– la temperatura de éste se volverá un obstáculo tremendo a la
hora de confiar en el resultado, ya que un termómetro tan grande, si está mucho
menos caliente que el agua cuya temperatura trata de medir, bajará la
temperatura del agua cuando lo introduzcamos en ella por la escasa diferencia de
tamaños, resultando entonces que, al medir, modificará lo medido falseando el
resultado. La solución es negar, claro está, la exigencia un tanto rara del
ejemplo, y dar por descontado que un cilindro de vidrio de poco más de dos
milímetros de radio no variará la temperatura del agua de una olla que contenga
cuatro litros cuando lo introduzcamos en ella. No hay termómetros clínicos que
sean cilindros con un radio de 15 cm. o más y, si los hubiera, a nadie se le
ocurriría medir con ellos la temperatura del agua en una olla de 35 centímetros
de diámetro en la boca. Con una diferencia enorme de tamaño, el problema que el
ejemplo plantea desaparece.
Lo que pasa es que no desaparece, ya que, sea cual sea la diferencia, por muy
grande que sea la olla y muy fino que sea el termómetro, si su temperatura es
diferente, el termómetro modificará la temperatura del agua cuando lo insertemos
en ella; muy escasamente, inapreciablemente a ojos prácticos en un ensayo
doméstico, pero en variaciones apreciables –y hasta desastrosas– cuando se trate
de medidas de precisión científica y necesitemos conocer el resultado con
aproximación de milésimas de grado. Una primera dificultad insalvable que parece
menor en la práctica doméstica, pero que es esencial –contraviene principios
lógicos– en la teoría científica.
Una segunda dificultad y mucho peor desde el punto de vista de los principios
lógicos en cuestión, es que esos instrumentos de medida no son homogéneos con el
parámetro que tratan de medir: miden temperaturas con longitudes. Si cualquier
proceso de medición entraña grandes problemas, lo menos que se puede pedir es
que las unidades de medida sean homogéneas con los parámetros que midan, medir
longitudes con longitudes, resistencias con resistencias, pesos con pesos,
temperaturas con temperaturas, pero no temperaturas con longitudes o pesos con
resistencias. Los antiguos termómetros medían la temperatura por medio de la
longitud que la columna de mercurio alcanzaba dentro del capilar de vidrio, y
ése es un problema grave porque desnaturaliza por completo la esencia del
proceso.
En este sentido, los termómetros digitales de la actualidad, con sus
termistores, no están mejor, sino peor. Un termistor es un dispositivo capaz de
percibir las diferencias de resistencia –aprecia los cambios de resistividad– en
un semiconductor debidas a diferencias de temperatura, así que el proceso es: al
variar la temperatura, la cantidad de portadores de corriente del semiconductor
aumenta o disminuye –hay termistores para las dos clases–, con lo cual varía la
resistencia; la variación de la resistencia es sentida por el termistor que, con
el auxilio de la “traducción” de un transductor, convierte el voltaje –muy
grosso modo– en una señal capaz de ser expresada en términos binarios y
trasladada después a una pantalla convenientemente interpretada en el sistema
que sea, Celsius o Farenheit o el que sea. Como se puede comprender, los
problemas de no-homogeneidad aumentan bastante con estos nuevos sistemas
termométricos.
Medir parece entrañar problemas muy serios, acaso insalvables. Ahora bien, sólo
hemos hablado de medir temperaturas y de utilizar instrumentos no homogéneos.
¿Sucede lo mismo si tratamos de medir longitudes con longitudes, por ejemplo?...
No sucede lo mismo, pero también entraña problemas de parecida gravedad.
Si un sastre que desea saber cuántos modelos troquelados de patronaje caben en
un rollo de tela para trajes, y mide antes la pieza de tela de que dispone
usando un metro que es una vara recta de madera de haya, con una longitud de dos
metros exactos, por el procedimiento de poner varias veces, una a continuación
de la otra, la vara metro encima de la tela hasta concluir que ha puesto la vara
quince veces y, por lo tanto, la tela mide treinta metros, pensamos que está
haciendo una medición correcta y sin problemas teóricos, ya que usa un
instrumento homogéneo y, dentro de lo que cabe, escasamente expuesto a
variaciones, sobre todo si sus extremos están protegidos del desgaste por
cantoneras de metal. En términos prácticos y por lo que se refiere al ejemplo,
la cosa es así, ya que, incluso si un error por imprecisión o por prisas en el
proceso fuese de dos o tres centímetros, al sastre le daría igual. Pero sabemos
que la exactitud científica exige a veces precisiones de nanómetros, y entonces
el proceso de “poner el metro una vez a continuación de otra” se convierte en un
insoluble. La parte terminal del metro patrón ¿cómo es de fina, pulida,
equilibrada, exacta? ¿Se trata de una superficie sin huecos ni protuberancias
–huecos nanométricos, protuberancias nanométricas–? ¿Cómo se marca el final de
la primera medición para que la segunda comience en el punto exacto contiguo?...
Es evidente que el sistema que sirve para el sastre en tamaños macroscópicos y
sin precisiones científicas, no sirve en absoluto para tamaños cuánticos que
necesiten rigor absoluto. Tendremos entonces que acudir a medidores láser, esto
es, utilizar la luz para medir, pero ya podemos suponer a estas alturas que, en
términos cuánticos, un metro fotónico y su onda asociada pueden ser equiparables
los objetos que pretendan medir.
En fin, desde que Heisenberg enunció en 1925 el Principio de Indeterminación
–vulgarmente conocido como Principio de Incertidumbre–, sabemos que la mecánica
cuántica no respeta en absoluto el status quo convencional del mundo
macroscópico al que estamos habituados; el propio Principio de Incertidumbre,
cortando por lo sano nuestras “dificultades” de medición, nos asegura que, en
esos mundos del sub-mundo, medir ni siquiera es posible, y que quien desee
conocer con precisión la posición de una partícula, lo hará al coste
insostenible de desconocer su masa y su velocidad porque no se puede medir lo
uno sin “desmedir” lo otro, valga la campechanía de la expresión.
Puedo insertar aquí el teorema de Gódel, como último elemento de esta especie de
prólogo al tema del ensayo, las implicaciones que los descubrimientos de este
matemático y lógico genial han supuesto para la viabilidad de todo sistema
formal, entre otros el de la excelsa Aritmética. Con un formato lógico similar
al del Principio de Incertidumbre, Gódel demostró que todo lenguaje formal
adolece de una imprecisión estructural gravísima que afecta a su capacidad como
instrumento de expresión y de explicación: cualquier lenguaje formal que sea
consistente (no contenga contradicciones) será incompleto en el sentido de que
no pertenecerán a él proposiciones que sí le pertenecen (no serán derivables en
el sistema); cualquier lenguaje formal que sea completo (que le pertenezcan
todas las proposiciones que le pertenezcan: que sean derivables en el sistema
todas sus proposiciones) será inconsistente, incoherente (tendrá contradicciones
insolubles en su seno). Cualquier procedimiento que se proponga completar un
lenguaje formal incompleto, provocará contradicciones en su seno; cualquier
procedimiento que se proponga eliminar incoherencias de un lenguaje formal, le
mutilará de ciertas proposiciones que siéndole propias, no le pertenecerán,
quedarán fuera de su sistema (no serán derivables en él). Un corolario al
parecer poco sustancioso, pero cada vez más importante vista la preponderancia
actual teórica y práctica de la informática, es que el teorema significa, entre
otras cosas, que los lenguajes formales no son completamente computables.
*** *** ***
Este micro-ensayo pretende analizar la extraña despreocupación que la ciencia
tiene –y el desprecio=silencio que siente– por las dificultades teóricas que sus
métodos presentan, dificultades insalvables muchas veces, irresueltas casi
siempre o siempre, y que deberían haber paralizado la investigación científica
al menos desde que Galileo decidió prescindir de la física aristotélica a como
diese lugar, tuviera razón el Estagirita o no la tuviera, plantease problemas o
no los plantease. Los ejemplos anteriores, pocos entre muchísimos, sólo
pretendían introducir el asunto de una forma en cierto modo anecdótica, aunque
veraz.
Si ponemos bajo la lupa el término “metafísica”, lo mismo podemos acudir a la
anécdota de que fue una casualidad porque los soldados de Sila que encontraron
abandonadas las obras aristotélicas, hallaron en el estante, en la parte de acá,
los ocho libros de su Física, y en el mismo estante, pero más allá, otros libros
no se sabe de qué pero, puesto que estaban más allá de la Física, fueron
llamados metá-fisiká; como presentar la casi infinita colección de escritos
sobre temas metafísicos clásicos, desde los del propio Aristóteles hasta los de
Hegel y Kant (debeladores de la metafísica pero en términos metafísicos). Y,
desde luego, usar la expresión en el sentido genuino y actual de asuntos que le
interesarían a la ciencia física –porque son pre-supuestos ineludibles de su
estudio– si le interesasen a la ciencia física, que no, esos presupuestos
“meta-físicos”.
En este último sentido, cabe reconocer que la física –la ciencia actual en
general– ha decidido prescindir por completo de semejantes ¿asuntos, cuestiones,
problemas...? y actuar como si no existieran ni, de existir, como si no se
refiriesen para nada a sus actividades propias. La ciencia actual mide, aunque
la actividad métrica contiene problemas insolubles y no le importan nada los
tales problemas. La ciencia actual se expresa en el lenguaje simbólico de las
matemáticas, aunque las limitaciones demostradas por Gódel deberían producir
cierta parálisis en esas traducciones que tan alegremente hace (aparte el hecho
de que cada vez más toman la representación abstracta y simbólica de la
naturaleza por la naturaleza misma). La ciencia actual utiliza la estadística
pero también la relación causa-efecto, y las utiliza tanto que son columnas
prevalentes de sus edificios conceptuales, pasando completamente del hecho de
que son procedimientos contradictorios, ya que la causalidad (denostada por Hume
hasta dejarla reducida a una sospechosa e injustificada costumbre) es la
explicación contraria a la explicación estadística, que predice los fenómenos no
porque las mismas causas produzcan siempre los mismos efectos, sino porque los
números masivos globales pasados ¿permiten? adivinar los fenómenos concretos
futuros. La ciencia actual, en fin, mezcla cualquier sistema que le permita dar
un paso adelante con cualquier otro que le permita dar otro paso más, sin
preocuparse de que los tales sistemas sean contradictorios, problemáticos, nada
homogéneos, incluso probadamente incapaces. Así que:
¿Por qué lo hace?
¿Por qué, haciendo algo tan peligroso y tan raro, consigue resultados?
¿En realidad consigue resultados?
¿Los chismes tecnológicos son resultados de la investigación científica en el
sentido de que la justifican?
¿Hay chismes tecnológicos nuevos vinculados a la investigación científica, o
solamente hay magia?
Para responder a estas preguntas –al menos a algunas– es preciso admitir que
cabe la posibilidad de que estemos ante una traslación del universo del
discurso, y no sólo ante un cambio de paradigma estilo Khun. Vendrá bien un
ejemplo pedagógico sencillo:
[Supongamos una conversación que tiene lugar a principios del siglo XX, digamos
en el año 1901, “y también” en este mismo momento en que estamos, alguien que se
encuentra en Europa y desea ir a América –por ejemplo Lisboa-Nueva York– para
asistir a la boda de un hermano suyo, suceso del que, por una serie de
circunstancias, se ha enterado tardísimo, con sólo un día de margen para poder
acudir; y alguien que razona con él haciéndole ver que se trata de un imposible;
los buques más rápidos, un carguero y un pequeño paquebote, tardan al menos seis
días a toda máquina en cruzar el océano, y ninguno tiene previsto partir hasta
tres semanas más tarde; además, hablando en teoría, incluso saliendo en ese
mismo momento, la velocidad de navegación para poder salir de Lisboa y llegar a
Nueva-York en menos de 24 horas, debería ser tal que el simple rozamiento de las
planchas del buque las haría arder por la extrema velocidad, habida cuenta por
otra parte de la potencia que habría de tener el motor que consiguiese imprimir
tal velocidad incluso a una nave pequeña; luego además, las condiciones
climatológicas del océano, la posibilidad de tormentas que incluyan vientos
capaces de levantar olas de varios metros, la necesaria atención diurna y
nocturna para no abordar accidentalmente a cualquiera de los muchos buques que
cruzan a diario el océano... Bien, basta ya. El supuesto viajero le silencia con
una simple frase “Pero ¿de qué hablas?... Voy a ir en avión, tengo ya el pasaje,
me marcho al aeropuerto y en ocho horas estaré abrazando a mi hermano en su
despedida de soltero”].
Consideraciones que son verdaderas y establecen dificultades auténticas,
imposibles de soslayar, no sólo se soslayan, incluso se ignoran... si cambiamos
el universo del discurso de tal forma que cambemos al hacerlo las leyes del
comportamiento de la realidad. Si en lugar de ser hoy y tardar ocho horas, o en
lugar de ser en 1901 y tardar ocho días, fuese hace treinta o cuarenta mil años
y el desplazamiento hubiera de hacerse atravesando Europa hacia el norte,
llegando al estrecho de Bering, esperando que su superficie se solidificara por
completo, atravesándolo y descendiendo luego hasta el emplazamiento del actual
Nueva-York, el viaje duraría bastantes generaciones, y sería imposible hacerlo
de otra forma.
La ciencia actual responde a las preguntas formuladas como el viajero aéreo: sus
procedimientos no tienen limitaciones metafísicas porque su universo real es
físico y todos los supuestos de los que depende son inmanentes, intra-físicos,
nunca meta-físicos. En este sentido, ni siquiera necesita producir chismes
tecnológicos cuya existencia y función justifiquen las leyes de la ciencia, ya
que los tales procedimientos que emplea son consistentes con sus postulados, con
sus desarrollos y con sus conclusiones, de modo que no necesita más. Una prueba
de ello es que puede predecir, predice y finalmente verifica, comportamientos de
la realidad a partir de sus propios supuestos y mediante sus propias
formulaciones, como el famoso Bosón de Higgs cuyas huellas han acabado por
encontrar en el CERN.
Es ahora cuando cobra sentido la última pregunta: ¿no será todo esto alguna
especie de magia?... En todo caso se trata, sin duda, de una cierta clase de
juego. Nosotros descubrimos mediante evidencias no cuestionadas (aunque
seguramente cuestionables, recordemos las geometrías no-euclídeas) los axiomas;
proponemos los postulados; diseñamos los objetos elementales –términos,
expresiones, etc.– del sistema; establecemos las leyes de deducción; escogemos
las pruebas de validación de los resultados y, en general, describimos por
completo la gramática del asunto. Luego partimos de nuestros axiomas, usamos
nuestros postulados y reglas para ir deduciendo teoremas, y llegamos finalmente
a conclusiones que validamos mediante las pruebas correspondientes. Esto es
todo. ¿Que, de paso, resulta que la realidad material objetiva se ajusta
“paralela” a nuestras conclusiones, que la col Romanesca ¡qué casualidad! cumple
las formas de los fractales de Manldelbrot, que el bosón aparece cuando la
teoría lo cita y es ¡pero qué amable! como tiene que ser?... Estupendo, bien,
muy santo y muy bueno, veamos hasta dónde nos lleva este paralelismo; mientras
siga, usaremos el juego para explicar; cuando deje de explicar, cambiaremos de
juego. Pero es un juego. Y carece de sentido pretender que haya instancias
trascendentes que determinen su verdad más allá de nuestros axiomas, postulados
y reglas.
Si, por otro lado, jugando de esta forma el viaje se nos hace más corto, o
viajamos más rápido, o el paralelismo del juego y de la realidad se manifiesta
más sustancioso así ¿para qué vamos a volver a un juego muy viejo que era más
lento, más aburrido y menos eficiente? No abandonaremos el nuestro, claro está,
pero es que además nunca haremos la mezcla entre los dos, ya que no tendría
coherencia lógica, no tendría consistencia nomológica y ni siquiera tendría
sentido real.