Texto académico

Autores

 

_____________________________

 

2. El orden depende de muchas variables  



Aquellos que se saben exploradores de lo profundo se esfuerzan por la claridad. Aquellos que quisieran parecer profundos se esfuerzan por la oscuridad.

Nietzsche. The Gay Science.


A menudo se encuentran los estudiantes con la necesidad de realizar experimentos mentales, estos se encuentran en la raíz de los avances realmente importantes de la física moderna, en sus revoluciones matemáticas. Tales experimentos de pensamiento generalmente sondean alguna suposición funcional, con respecto al espacio, el tiempo, la luz, la fuerza, la causalidad, el determinismo, la materia, la gravedad…, este tipo de enfoque al pensamiento en el sentido del análisis de redes de conceptos y objetos matemáticos, es una parte fundamental del entrenamiento del estilo científico del pensar. Uno no puede hacer física sin hacer ciertas suposiciones, por mínimas que sean, sobre cómo las teorías que uno está usando como mapa sobre la realidad observable abordan las justificaciones y los hechos.


Uno necesita formarse una postura sobre lo que los componentes de las teorías refieren, la distinción de un pensamiento sofisticado de lo que objetivamente existe en la realidad. Casi nunca es un asunto trivial; especialmente porque las teorías físicas a menudo hacen uso de todo tipo de idealizaciones, aproximaciones y métodos indirectos para representar un sistema objetivo. El trabajo de la física, es decir algo sobre la estructura de la realidad, sobre lo que es el universo, qué objetos existen, qué propiedades tienen, cómo se comportan, cómo se relacionan unos con otros, y así sucesivamente. 


La interpretación de la realidad está estrechamente vinculada a la ontología: interpretación que proporciona una justificación para lo que existe y sus propiedades dentro de la función de criterios de lo verdadero. El intérprete responderá en el sentido de satisfacción de los postulados teóricos básicos (leyes o axiomas). Lo que interpretamos, es entonces un conjunto de mundos posibles que hacen que la teoría sea verdadera; o, un conjunto de mundos posibles que guardan coherencia con los datos y predicciones. 


Hay, entonces, dos partes de una interpretación: una parte sintáctica en la que se disponen las estructuras formales de la información y los axiomas centrales (lógica epistemológica) y, una parte semántica, que proporciona las estructuras formales del significado (lógica doxástica), es decir, los mundos posibles a partir de un modelo sintáctico. La multiplicidad de interpretaciones es una bendición en el contexto de la poesía. Pero en el caso de una información matemática para una teoría que admite múltiples interpretaciones (diferentes formas de llenar su semántica), nos enfrentamos a un problema, si vemos nuestras teorías como algo que nos dice cómo es el mundo, esto sería algo incompatible. Una interpretación podría ser local, de modo que no haya acción a distancia, mientras que otra interpretación (de la misma teoría) podría ser no local, dirigida al universo entero. Una podría ser determinista y otra indeterminada, y así sucesivamente. No todas las teorías pueden ser vistas como conectadas a tierra en nuestro mundo, ya que hay contradicciones involucradas dentro de las capas subyacentes de la realidad. Así que, aquí tenemos una sorprendente desanalogía con el caso poético, el contacto con lo real es el deseo más profundo. Podríamos preferir una teoría sobre otra, pero nos vemos obligados a creer en una única verdad; como vemos, una teoría tiene como objetivo proporcionar una imagen de la realidad dentro de un espacio de significado.


Hay un nivel adicional al juego de interpretación que aún no hemos mencionado. Esto es que el formalismo interpretado también puede ser objeto de una interpretación adicional (y una mayor multiplicidad de sentidos). El formalismo es una creencia bajo una base axiomática que resulta sin contradicción lógica, pero que es independiente de lo que existe en la realidad. En otras palabras, consideremos que nuestro objeto de estudio debe interpretarse no en un formalismo desnudo, sino como una estructura ya interpretada que debe estar probada con lo observable en el universo. Por ejemplo, podríamos estar estudiando la interpretación de muchos mundos de la mecánica cuántica, cada uno con un juego de ecuaciones fundamentales coherentes y sin compatibilidad con otro mundo. Podemos decir, que este formalismo interpretado es contestar cómo puede ser el mundo para que esto sea verdad. Una vez más, podría haber una multiplicidad en este nivel superior de mundos posibles, donde proporcionar una semántica al formalismo básico, no es suficiente para fijar una imagen del mundo en todos sus detalles.


Los muchos mundos posibles son vistos como universos separados que literalmente se ramifican unos con otros, como algo cuántico que nos sobrepasa, que implica otro juego de leyes subyacentes al mundo. Del mismo modo, la relatividad general (la teoría de la gravitación de Einstein) donde entendemos es una teoría de la geometría espacio-tiempo, en esta surge de nuevo la pregunta, dado este formalismo interpretado en términos de curvaturas espacio-tiempo, ¿Cómo es el mundo? ¿Hay una geometría literal espacio-tiempo en el mundo, tan sustancial como gatos y libros? ¿O de alguna manera se construye a partir de gatos y libros, y otras cosas de masa-energía? ¿Cuánto de la imagen de la geometría espacio-tiempo, suponemos que se asigna al mundo o, solo la geometría o los puntos sin extensión subyacente a esta estructura?


A veces simplemente la juventud en nuestra universidad se instala en la teoría del formalismo interpretado, en lugar de una interpretación dentro de estructuras matemáticas generadoras de espacios de significado subyacente; es decir, se aprenden conceptos y no sus procesos de justificación, explicación y demostración. Para la mayoría de las personas (incluidos los físicos), la relatividad general es solo una teoría sobre la curvatura, dada por la geometría espacio-tiempo y la forma en que la curvatura depende de los pesos de la materia-energía en el espacio-tiempo. Pero este es solo un enfoque posible. Una imagen plana de espacio-tiempo con gravedad mediada por una partícula de intercambio (el gravitón), también puede llamarse con razón, relatividad general. Aquí, el tensor métrico dinámico variable (que representa la geometría del espacio-tiempo en la imagen ortodoxa) se trata de solo otro campo en el espacio-tiempo plano, hay detalles técnicos involucrados en la recuperación de las mismas predicciones y propiedades de simetría, pero no tenemos por qué preocuparnos por esto. El punto es que, podemos tratar la teoría como un espacio curvo o un espacio plano; que tendemos a trabajar con un enfoque que no hace nada para restar al hecho de que la imagen del espacio curvo es también una interpretación tipo. 


Entonces, ¿Por qué funciona la física? Uno de los hechos más desconcertantes sobre la física es que funciona muy bien. ¿Cómo las teorías realizan esta increíble hazaña? Tranquilos, se podría decir, que funciona porque son verdaderas. Pero dado el tema de la multiplicidad en las interpretaciones de una teoría ¿Qué imagen es verdadera? A menudo se tienen ontologías muy diferentes, una con campos y otra con partículas en su lugar. Lo que nos preocupa aquí es por qué las matemáticas son capaces de predecir y describir eventos físicos. ¿Por qué no funcionan las bolas de cristal? Al menos en un universo de entidades que no necesitan un observador para existir. 


Este problema fue planteado por Eugene Wigner en 1960, en su artículo “The unreasonable effectiveness of mathematics in the natural sciences”. La enorme utilidad de las matemáticas en la ciencia es algo que bordea lo misterioso, eso que no explica la razón para ello. Hay ramas de las matemáticas que nos permiten predecir el comportamiento de cometas, misiles, drones, tráfico de internet y la economía. ¿Por qué las estructuras matemáticas encuentran una aplicación tan fructífera en la física? 


Hay dos tipos de explicación que podemos pensar aquí, una más irrazonable que otra: 1) un tipo dependiente de la física, y 2) otra independiente de la física. Por ejemplo, hay casos en los que las matemáticas se han desarrollado de la mano con algunas piezas de física, el cálculo fue construido con un problema físico en mente, a saber, fue construido para resolver ecuaciones de movimiento en la evolución de un sistema. La creación de John von Neumann del espacio Hilbert (en el que están representados los estados cuánticos) también fue de este tipo: otro caso para encontrar herramientas matemáticas apropiadas para el trabajo. La eficiencia de las matemáticas claramente no es tan irrazonable en estos casos: es un criterio de búsqueda exitosa de herramientas eficaces. A lo largo de la historia muchas herramientas matemáticas que no eran para el propósito, fueron descartadas. 


El tipo irrazonable es que las aplicaciones de las matemáticas en la ciencia fueron creadas independientemente de la física y sin embargo, más tarde se encontró su aplicación en la física. Por lo tanto, los matemáticos se ocuparon con algún problema puramente matemático, no se preocuparon una pizca por el mundo de la física, y sin embargo, lo que aquí se encuentra, es que el ajuste perfecto de piezas matemáticas al mundo físico es asombroso. Por ejemplo, los números complejos encuentran un hogar perfecto en la mecánica cuántica. Se encontraron geometrías no euclidianas para proporcionar el marco perfecto para la relatividad general. Los llamados “spinors” de Henri Cartan, en 1913, se encuentran encajados perfectamente en el espín intrínseco de los electrones descubiertos en 1926, y que fueron fundamentales para las predicciones teóricas de antimateria de Paul Dirac, quien combinó los “spinors” con la matemática de la mecánica cuántica. ¿Cómo puede ser esto?


Hay varias respuestas que uno podría dar. Una posible es que incluso las matemáticas más puras provienen de investigaciones del mundo en algún nivel. Es decir, incluso el punto de vista más idealista de las matemáticas como una creación pura de la mente humana, debe conciliarse con el hecho de que la elección de definiciones y axiomas de la geometría es el resultado de impresiones, obtenidas a través de nuestros sentidos por estímulos externos e inherentemente en estas observaciones experimentamos el “mundo exterior en la mente”. 


Esto no explica realmente cómo las matemáticas pueden extender la física para ir más allá de lo que podemos obtener a través de los sentidos: nuestros sentidos a menudo están equivocados, y ciertamente no podemos ponernos directamente en contacto con átomos y quarks. 


Mejor, uno podría desinflar el rompecabezas mostrando cómo no es más milagroso que encontrar, por ejemplo, un mueble que encaja en algún espacio en una habitación, a pesar de que el fabricante no tenía idea de nuestra habitación. No queremos sugerir que la física matemática está a la par con el diseño de interiores, por supuesto, pero en términos del principio básico detrás del despliegue de las matemáticas en la física, creemos que hay paralelismo aquí. Pero hay un aspecto crucial que no se trata: el mobiliario encaja porque el espacio tiene una estructura con las dimensiones adecuadas. Es una coincidencia que sus estructuras se basen en el ajuste. 


Podríamos adoptar la opinión de que dado que la matemática es una ciencia de patrones y estructuras de información y el mundo está organizado en patrones y estructuras, no hay misterio sobre su relación, simplemente la realidad es producto del Big Bang matemático. Naturalmente, algunas estructuras coinciden y otras son sintéticas, entonces la eficacia razonable es encontrar solo las equivalentes a estructuras isomórficas o razonablemente que creen nuevos elementos a la realidad, estamos hablando de anticuerpos, música, pigmentos, fármacos, elementos químicos…, todos ellos sintéticos. ¿Por qué debería importar que encontremos primero las estructuras sintéticas justo antes que las físicas? Un problema en este punto de vista es que a veces las matemáticas son efectivas sin que nosotros queramos decir que hay cierto isomorfismo estructural entre matemática y mundo. También hay todo tipo de idealizaciones en la física, en las que el modelo matemático y el mundo no se pueden ver que correspondan en términos de estructuras reales.


La mejor idea a tener en cuenta, es que estamos tratando con representaciones científicas en forma de estructuras matemáticas. Es imitar o capturar lo que del sistema nos interesa. ¿Nosotros podemos visualizar lo que está pasando en este tipo de modelado? Primero despreciamos detalles, luego nos ocupamos del sistema modelando una estructura matemática para este, y después desarrollamos una teoría de su comportamiento. La pregunta es, qué representación teórica se describe emparejada al mundo. A menudo es asombroso que estos modelos predicen el sistema de interés. 


Un estado del sistema clásico, cuántico, estadístico o relativista. Con los estados de un sistema nos referimos, a propiedades o valores completos que un sistema puede adoptar en un instante dado, por ejemplo, bajo acciones de fuerza. Estos estados están en la base misma de los observables. Un pilar de la física es el espacio-tiempo, como parte de la mayoría de las representaciones empleadas en la física. Si se suponen que modelan el mundo, entonces deben contener el espacio y el tiempo porque así es como el mundo parece estar configurado, al menos en algún nivel de aproximación en la física clásica, relativista, pero, no en la gravedad cuántica, que sugiere que el espacio-tiempo no es una característica fundamental de la realidad, por lo que el espacio-tiempo emerge de alguna teoría no espacio-temporal más profunda.


Las teorías de espacio-tiempo tienden a coincidir con respecto a su estructura básica (más profunda), un conjunto de puntos tomados para representar los eventos básicos de la realidad (o lugares donde los eventos, como partículas de puntos de colisión, pueden tener lugar). Sin embargo, algunos han argumentado que independientemente de la estructura adicional, tales puntos no pueden representar cosas físicas reales. Las teorías distintas entonces, divergen de acuerdo con qué estructura adicional se aplica a esta base, dependiendo de lo que deseen que la teoría represente. Sobre este conjunto de puntos podemos poner gráficos o coordenadas, etiquetándolos y permitiéndonos hablar de las relaciones de puntos entre sí, este conjunto de puntos tiene la estructura a saber, algo que se ve localmente (a distancias cortas), como en el espacio plano ordinario, pero puede variar de todas las maneras globalmente. Podemos mapear estos puntos y regiones a través de transformaciones para representar todo tipo de cambios posibles: movimientos espaciales, rotaciones, evaluaciones de sistemas estáticos del tiempo o el espacio recorrido…, que pueden ocurrir en el universo así modelados. Lo que es más importante, es que podemos ver, lo que permanece en el mismo estado invariable, como ciertos cambios constantes. Tales invariancias son el material de las leyes de la naturaleza.


Las estructuras matemáticas, capaces de habitar en variedad (o un espacio más complejamente estructurado, con una métrica que permite hablar de distancias) se eligen con cuidado para que coincidan con las características de las propiedades y comportamientos de los objetos que se describen. Necesitamos establecer una coincidencia (un isomorfismo) entre la forma en que los objetos matemáticos elegidos se transforman y la forma en que creemos que los sistemas representan la transformación. Por ejemplo, las cosas físicas (sistemas) de una teoría (partículas, campos, cuerdas) se definen en esta estructura multivariable y están representados por objetos geométricos (escalares, vectores, tensores, spiners). Estos corresponden a los objetos que considerarían espacio y tiempo “ocupado”. Los objetos se caracterizan por su comportamiento en las asignaciones de multivariedad, como los cambios de las coordenadas (correspondientes al movimiento o rotación), como se mencionó, tales objetos se definen en relación con un multivariante espacio-tiempo que trae consigo todo tipo de herramientas matemáticas y conceptos de cálculo, haciendo posible la empresa de la física moderna.


Una partícula puntual ocupará un único punto multivariante (espacio-tiempo), campos infinitos de puntos, con un valor de campo situado en cada punto multivariante. Un multivariante unidimensional de puntos espacio-tiempo nos da un conjunto de elementos para cada construcción del mundo: un conjunto de objetos localizados en el espacio y el tiempo que podrían ser relacionados de varias maneras y que podrían tener varias trayectorias posibles a través del espacio. Tenga en cuenta que, no tenemos que tener nuestros objetos básicos exactamente equivalentes a lo que deseamos modelar: siempre habrá aproximaciones dependiendo de la tarea. Por ejemplo, perfectamente es posible tratar la Tierra como un punto en algún modelo, si todo lo que tenemos que pensar es en su posición, masa, desplazamiento. 


Aún así, falta mucho en términos de representar un mundo como el nuestro: necesitamos saber más sobre qué propiedades tienen los objetos básicos, cómo se combinan e interactúan, y cómo cambian y se mueven. Estos requieren especificar los estados y observables (cinemática), y su evolución a lo largo del tiempo (dinámica). Esto nos proporcionará una representación formal de un sistema físico (su estructura lógica) o incluso un universo junto como tal.


Hay otras trampas a la espera del genio maligno de Descartes, generadas por la representación matemática, pero sin los elementos correspondientes en la realidad. La versión moderna del antiguo debate presocrático sobre la realidad del espacio y el tiempo (en su relación con la materia). Podemos preguntarnos cómo las simetrías del espacio y el tiempo actúan sobre situaciones físicas, y si los nuevos estados que generan son físicamente reales en este sentido. Podemos cuestionarnos también, si los puntos de espacio-tiempo son reales (a pesar de la apariencia, o que se consideran puntos de multivariedad en el modelo matemático). Es claro que los modelos matemáticos de la física no llevan sus interpretaciones consigo. 


Considere K estados observables y la dinámica L. Este triplete agrupa esencialmente la cinemática (estados + observables: relacionados con el espacio, el tiempo y el movimiento) y la dinámica (las fuerzas físicas y las interacciones que limitan los movimientos cinemáticamente posibles), viendo una teoría como la combinación de estos, haciendo así la vida de un intérprete más fácil, al darnos los sistemas y sus propiedades junto con la regla (dinámica) de cómo cambian y varían con el tiempo y el espacio.


El espacio, el tiempo y el movimiento son los elementos centrales en la cinemática de una teoría física. Por lo general, este básico debe decidirse primero y luego se introducirán las leyes (dinámicas) para restringir qué movimientos son realmente posibles en relación con tal fondo. La división en cinemática y dinámica nos llega de Aristóteles, quien veía al kinesis como una especie de estado del ser potencial, mientras que la dinámica era el estado del ser real. Los historiadores han sufrido en sus cerebros durante esta distinción de Aristóteles durante muchos siglos, pero traducido en nuestros términos modernos, podemos ver que la cinemática se refiere a posibles movimientos cuando ignoramos la acción de cualquier fuerza y ley de la naturaleza en el espacio temporal antecedente; mientras que la dinámica se refiere a qué movimientos pueden ser reales una vez que se introducen las leyes del movimiento de Newton. Clásicamente se entiende que la mecánica es una combinación bastante sencilla de estos dos componentes: cinemática + dinámica. Todas las características de un mundo se entienden para fluir a partir de una especificación de ambos elementos. 


Las trayectorias cinemáticas posibles incluirán, por supuesto, las trayectorias dinámicas posibles: el antiguo espacio de posibilidades es mucho mayor que el segundo. La distinción moderna se puede vincular estrechamente a la de Aristóteles centrándose en lo que es posible en los dos escenarios: la cinemática, es sobre qué movimientos son posibles dadas las limitaciones del espacio-tiempo, en sí, junto con los navegantes de los objetos básicos (un mundo en tres dimensiones espaciales, movimientos en más dimensiones estarán restringidos). Podemos pensar en ellos como mundos metafísicamente posibles, pero no necesariamente mundos físicamente posibles: mundos que son concebibles, pero tal vez, no son compatibles con nuestras leyes. Podemos pensar en la introducción de la dinámica como una demanda de explicación sobre por qué las cosas cambian sus movimientos o se detienen. Por lo tanto, tenemos la concepción estándar de la cinemática como el estudio de los movimientos de los cuerpos en ausencia de fuerzas, y la dinámica como el estudio de los efectos de las fuerzas en esos movimientos.


Aunque utilizamos matemáticas en esta representación de trayectoria (movimientos), especialmente utilizamos nociones de geometría, hay una desconexión radical con cómo los conceptos aplicados a la física que se relacionan con los conceptos puros matemáticos. Por ejemplo, un movimiento en el sentido geométrico, simplemente implica asociar un punto a otro punto sin trayectoria continua que los una (al menos, no es necesario: se podría imaginar al punto que se lleva a cabo su análisis, en un camino continuo, pero no es esencial). En el caso de los movimientos físicos, sin embargo, los caminos suaves entre los puntos iniciales y finales son cruciales (las funciones f(x,y,z) ) y forman parte de nuestra imagen de cómo funciona el mundo. Pero más profundo que esto (aunque no innegable) es la creencia de que para llegar de un punto A a un punto B, los puntos intermedios deben ser atravesados, durante los cuales, el objeto que se mueve conserva su identidad en cierto sentido, paso a paso por el espacio y el tiempo:


Como lo presentó Kurt Lewin, la genidentidad es una relación existencial que subyace en la génesis de un objeto de un momento a otro. Lo que generalmente consideramos un objeto en realidad consiste en múltiples entidades, que son las fases del objeto en varios momentos. Dos objetos no son idénticos porque tienen las mismas propiedades en común, sino porque uno se ha desarrollado a partir del otro durante el cambio de fase.


En los enfoques modernos de la física, de hecho, cambiamos a una representación más abstracta: hablamos de estados y observables en lugar de la cinemática (con su espacio, tiempo y movimiento asociado). Pero no prescindimos completamente del espacio y el movimiento; en forma de un espacio estado y trayectoria en ese espacio. Así como podríamos construir un espacio a partir de todas las combinaciones posibles de algunos parámetros, como las mediciones x,y,z para el espacio ordinario, también podemos ver las llamadas variables canónicas como coordenadas generalizadas para este tipo de espacio (conocido como espacio de fase: el espacio estado de la mecánica clásica). Cada punto representa una asignación diferente de posiciones e impulsos en un sistema. Esto nos permite hacer cosas que no podemos hacer en el espacio físico ordinario. Por ejemplo, cuando estamos tratando con un sistema complejo de muchas partículas (con un gran número de partículas N), sería una tarea complicada tratar individualmente con cada uno de los caminos a través del espacio tridimensional. Pero con los espacios de estado podemos agrupar toda la información de 6N dimensiones, en el que un solo punto representa las posiciones (una configuración) y momento de todas las partículas N (teniendo en cuenta las tres coordenadas espaciales de cada partícula en espacio ordinario y su momento en tres direcciones espaciales) tomadas en un instante de tiempo. 


Vamos a completar algunos detalles que faltan del concepto anterior. El estado de un sistema, como su nombre indica, es una foto instantánea de un sistema, que contiene información completa sobre este en un instante de tiempo, el propio sistema se entiende que está bien representado por este estado, que se construye esencialmente a partir de sus propiedades. En la mecánica clásica, este estado es simplemente la posición q (en el espacio físico) de una partícula junto con un impulso p (las variables canónicas). La idea, es que a partir de tal especificación de un estado, podemos ejecutarlo a través de las leyes de la teoría para llegar al estado del sistema en cualquier otro momento (la dinámica en ese nuevo esquema). El estado es, en este sentido, la entrada (al programa computacional) para las leyes, y el procesador, un cierto conjunto de ecuaciones de movimiento conocidas como ecuaciones Hamilton (básicamente, las leyes de movimiento de Newton reescritas en matemáticas de tensores). En este punto se separan físicamente, posibles evoluciones marginando las imposibles. 


La física en su punto más general se refiere a las cantidades físicas (en lenguaje ordinario las llamaríamos propiedades), las interacciones entre cantidades del mismo y diferente tipo, y la tasa de cambio de tales cantidades. Una vez que tengamos nuestro conjunto de cantidades, las etiquetamos, es decir, son los observables: las cosas que podemos medir, que definirán el estado instantáneo del objeto que nos interesa (y, en cierto sentido, es cómo se define un objeto en la física). Podemos pensarlo en cómo estas cantidades interactúan en simetrías, así el estado y el objeto podrían cambiar en el tiempo. Podemos configurar ecuaciones de movimiento de la forma general:


Rango de cambio A= función de A


Encontrar cómo evolucionará un sistema, entonces, equivale a encontrarle una función particular que nos indique cada fase de estado, que resulta de las investigaciones de los físicos y sus modelos matemáticos. Integrando o diferenciando ambos lados de la ecuación, podemos encontrar valores futuros y pasados de su valor actual. 


La posición y el impulso son observables del sistema y específicos a cada fase, encontrar todos los valores de los observables de un sistema determinará de manera única su estado, de la misma manera, conocer el estado significa conocer los valores de los observables. Medimos observables para obtener conocimiento sobre el estado. Por lo tanto, tenemos una correlación perfecta entre los estados y el conjunto completo de observables en un instante L ( q(t), p(t) ), son completos en la mecánica clásica en el sentido de que todos los demás observables se pueden construir a partir de ellos, utilizando algunas operaciones matemáticas (donde q(t) posiciones en el tiempo, y p(t) es la cantidad de movimiento en el tiempo). Estos observables proporcionan el vínculo central entre la teoría y el mundo en el contexto de la física: son cosas que medimos y cuyos valores predecimos. Como tal, ponen el carácter cualitativo de un mundo. Los observables en la mecánica clásica tienen un doble papel: por un lado, son cantidades medibles, lo que nos permite aferrar la teoría al mundo, proporcionando información específica del estado de un sistema en referencia al otro: la energía observable (función hamiltoniana), cuando se ve el término de espacio de fase, genera traducciones de tiempo. 


Los observables en el sistema clásico son funciones desde el espacio de fase a números (reales): este es el vínculo entre la representación abstracta, dada por el espacio de estado y la realidad, como se da en las mediciones que se pueden asociar con el valor del número real. Un ejemplo clásico es una moneda. Este sistema de dos estados: Cara=1 y sol=0). Un observable tendría que ser una función en este espacio, de modo que arroje algún valor numérico dependiendo del estado en el que se alimenta. Ahora hemos hecho esta asociación, si queremos ser formales podemos escribir el espacio de estado como S=1,0. En la física se producen muchos más complicados ejemplos, como los observables de energía que arrojan un número que representa la energía total de un sistema (que puede ofrecer un continuo de valores posibles en lugar de 0,1). Pero aún así, esta sencilla configuración obtiene el punto básico: los observables clásicos son funciones desde el espacio de estado hasta los números  reales.


Naturalmente, el espacio estado del sistema dependerá del tipo de sistema que sea. Los sistemas mecánicos cuánticos son tan radicalmente diferentes, porque los estados tienen probabilidades asignadas a ellos. Los observables de posición e impulso tienen valores numéricos reales en el contexto clásico, se les llama operadores (matrices hermitianas). Sin embargo, los valores propios del operador clásico (que representan los resultados de medición), tienen valores numéricos reales y estos son los que medimos en los experimentos. Estos operadores, al igual que con los observables clásicos, también sirven para crear nuevos estados a partir de los antiguos para su acción. 


Gran parte de esta diferencia clásica cuántica, tiene que ver con el hecho de que las partículas cuánticas tienen aspectos de onda y partícula. Por esta razón, el estado de un sistema cuántico, está representado por una función de onda Imagen. Que representa la amplitud del aspecto de onda del sistema en la ubicación x (dada por tres coordenadas espaciales) en el tiempo t. Esta función de onda, debe ser un número complejo para representar los efectos de interferencia, generalmente asociados con los fenómenos de onda, y por lo tanto, no es en sí misma una cantidad observable. Pero se puede construir una cantidad de valor real que es observable tomando su módulo cuadrado (la densidad de onda): 

Imagen

Este es el cuadrado complejo que implica la multiplicación del número complejo por su complejo conjugado: 

Imagen

Si desea estimar la probabilidad de encontrar una partícula en alguna ubicación particular x en el momento t:  


Imagen 

es este, el módulo cuadrado que necesita invocar. Si hacemos la identificación:

Imagen

Entonces, si todos los resultados posibles para la ubicación se integran juntos, ya que las probabilidades siempre deben sumar 1, tenemos:


Imagen


Para la mecánica cuántica, necesitamos una ecuación para el comportamiento de esta función de onda que se escribe con la ecuación de Schrödinger. El espacio de estado en en el que se presentan las distintas Imagen se conoce como espacio Hilbert, una especie de espacio vectorial en el que los estados están representados por “rayos” (básicamente, vectores sin cierta redundancia). Esto tiene las propiedades apropiadas para representar las características de ondas observadas en los sistemas cuánticos. 



2.1 El poder predictivo 


¿Cuál es el núcleo de lo que hacemos en las ciencias naturales? Argumentamos que estamos buscando la naturaleza de la realidad. Pero ¿qué significa eso? ¡No podremos encontrar una repuesta lista por parte de los científicos! Prefieren problemas que surgen en la investigación, asumen que hay algo objetivo llamado realidad; independientemente de nuestros intentos de investigar cuál podría ser esta realidad. 


Mirando al océano a través de un cuadro de vidrio, por dentro se encuentra el corazón de agua dulce. Allí sobre las profundas realidades se espera que la curiosidad racional haga su arte lógico…


¿Qué es el significado de la realidad? Es fácil decir que es lo que experimentamos cuando despertamos. Pero, tal vez todavía estamos soñando, o tal vez, como dijo el filósofo Gilbert Harman, “un cirujano cerebral juguetón podría estar dándonos estas experiencias estimulando nuestra corteza de una manera especial[1]”. El pensamiento es juguetón, pero la lección es seria: los científicos naturales no pueden probar que están descubriendo la naturaleza de la realidad objetiva. El argumento que presentamos, es que los científicos están en condiciones de hacer un caso persuasivo sobre lo que sienten que han aprendido sobre un postulado: la realidad. No es común escuchar que la realidad es hecha por los científicos; prefieren continuar con la investigación fundamentada por preceptos que aprendieron de otros y por lo que encuentran que funciona para ellos. Esta falta de atención ha ayudado a los malentendidos. Los científicos señalan el poder demostrativo de las teorías que ponen en orden grandes rasgos de fenómenos, y predicen con éxito muchos más, hasta los electrones dentro de un teléfono inteligente. Pero los filósofos y sociólogos pueden señalar que la mejor de nuestras teorías es incompleta y se basa en evidencia que está limitada por inevitables incertidumbres de medición. Entonces, ¿cómo pueden los científicos afirmar que están descubriendo verdades absolutas? Cuando los científicos hacen tales afirmaciones, no deberían, no pueden, realmente decirlo en serio. El argumento, en cambio, es que el poder predictivo de la ciencia, demostrado por la tecnología que nos rodea, es lo que uno esperaría si la realidad física objetiva operara por reglas, y si estuviéramos descubriendo aproximaciones útiles a estas reglas (ecuaciones estructurales). 


Deberíamos hacer una pausa para una consideración un poco más cercana del pensamiento sobre el poder predictivo de las teorías. Supongamos que una teoría está diseñada para adaptarse a un conjunto dado de observaciones.  Si la teoría es buena aproximación a lo que asumimos es la realidad subyacente a las observaciones, entonces esperamos diferentes predicciones con éxito de los resultados de las observaciones de las nuevas situaciones. Cuanto mayor se la variedad de predicciones exitosas, es decir, cuanto mayor sea el poder predictivo, mejor será el caso de que la teoría sea una buena aproximación a la realidad. No puede ser sin embargo una prueba de que son simétricas a lo real; los científicos nunca podrán afirmar que el poder predictivo de sus teorías demuestra que son representantes exactas de la realidad. Solo podemos afirmar que el impresionante éxito de la ciencia física, el amplio poder predictivo de sus teorías, hace en este caso, que nuestra ciencia sea una buena aproximación a la realidad, esto es difícil de negar.


2.1.2 Teorías


Se puede desde luego decir, que estas predicciones exitosas son fáciles de ignorar; solo lo haces y ya. Pero si lo hacemos, los instó a que hagamos una pausa para considerar la tecnología que ves operar a tu alrededor. Los científicos e ingenieros pueden hacer que los electrones cumplan sus órdenes en su teléfono celular, mediante la operación de campos eléctricos y magnéticos que manipulan electrones y cristales sólidos. ¿Parece esto la aplicación de un mito peculiar de nuestra cultura? Digamos que los vastos ejemplos de tecnología de este tipo que se ven en funcionamiento a su alrededor, defienden la física libre de prejuicios, resultan muy difíciles de ignorar.


Si se acepta que los resultados de las ciencias naturales son aproximaciones útiles a hechos objetivos, entonces, ¿son nuestras teorías físicas simplemente formas de recordar estos hechos? La posición adoptada en las ciencias naturales es que el poder predictivo de las teorías bien establecidas demuestra que son más que eso; son aproximaciones útiles a la forma en que opera la realidad. 


Pensar los límites en el poder y las limitaciones de las ciencias naturales; en los hechos empíricos, en su unificación y predicciones teóricas, no es nuevo. Hace un siglo Charles Sanders Peirce enfatizó el impresionante poder predictivo de las teorías físicas de la época, lo que hora llamamos las teorías clásicas del electromagnetismo, la mecánicas y la gravedad. Pero hubo expresión de duda. Ernst Mach prefería llamar a la teoría como un medio para recordar los hechos. Pero el filosofo Schiller fue más allá, preguntándose si estos hechos son solo construcciones de lo que existe o si son en realidad parte del conjunto de todo lo posible que permiten las leyes de la naturaleza. Gracias a ello el poder predictivo de las teorías modernas es aún mayor ahora, pero algunas cosas no han cambiado; todavía escuchamos el desprecio por pensar la teoría. Esto se debe en parte, a que los científicos no suelen reconocer que trabajan con piezas de teoría, que le deben más que a la evidencia empírica. ¿Cómo se hace teoría y qué significan sus resultados? Hace un siglo, Albert Einstein estaba pensando en la naturaleza de una teoría satisfactoria de la gravedad, y eso lo llevó a preguntarse cómo se podría organizar un universo filosóficamente sensible.    


Los seguidores de la ciencia están plenamente convencidos de que los procesos de investigación, si se llevan lo suficientemente lejos, darán una solución a cada pregunta a la que la aplican. Alguien puede investigar la velocidad de la luz desde los tránsitos de Venus y la aberración de estrellas; otros desde los movimientos de las curvas de Lissajoux…, pueden seguir diferentes métodos de comparación de medidas eléctricas, gravitacionales, ópticas. Tener resultados diferentes. Así diferentes mentes pueden partir con puntos de vista distintos, pero el progreso de la investigación los lleva por una fuerza a valorar el conocimiento, por prometer un destino en la búsqueda de la realidad. 


Ninguna modificación del punto de vista tomado como hipótesis de lo real, ninguna selección de otros hechos para el estudio, ni siquiera la inclinación natural de la mente, puede permitir a un hombre escapar de la creencia predestinada. Esta gran ley está encarnada en la concepción de la verdad y la realidad. La opinión que está destinada a ser finamente aceptada por todos los que investigan, es lo que queremos decir con la verdad, y el objeto representado en esta verdad es lo real. Esa es la forma en que explicaría la realidad, una suerte de independencia lingüística. Peirce lo manifestó así, como “destino”, simplemente se hará realidad por investigación sucesiva y de ninguna manera se puede evitar. Así  como: todos estamos destinados a morir. 


Vemos el respaldo pragmático de Peirce a la idea de hechos objetivos. Está en línea con la experiencia común, por ejemplo: golpea una copa de vidrio y se romperá. La idea de los hechos se toma en serio, aunque generalmente en la práctica normal de las ciencias naturales también suele estar implícita, aunque Peirce lo hace explícito, es la afirmación o, mejor, el postulado de que hay “verdad y realidad” que sería finalmente acordada por todos los que investigan con un modo de esperanza. La única suposición sobre la que puede actuar racionalmente es la esperanza del éxito (Eureka)… siempre una hipótesis no contradicha por los hechos y sus justificaciones, por su indispensable coherencia racional sobre cualquier acción. Esta es una buena manera de caracterizar el estudio pragmático de las ciencias físicas: la búsqueda de la realidad. Asumimos que la realidad opera por reglas (ecuaciones fundamentales de leyes) para que podamos esperar descubrirlas. Ha funcionado bien hasta ahora. Peirce señala que los valores de la velocidad de la luz derivados de métodos de observación diferentes, y utilizando diferentes teorías para la reducción de los datos de las observaciones, concuerdan dentro de una tolerancia razonable para las incertidumbres de medición. Es decir, dado el resultado de un método, podría predecir con éxito cuáles serían  los resultados de los otros métodos. Esta demostración de predicciones exitosas está en el centro del significado de los resultados de la investigación en las ciencias físicas, tan importante que deberíamos tomarnos el tiempo para revisar los experimentos y observaciones que Peirce tenía en mente.


Cálculos de la velocidad de la luz


En el tránsito de Venus se observa como un pequeño punto negro que se mueve a través del Sol a lo largo de un acorde de la cara del Sol. Los observadores en diferentes latitudes de la Tierra ven el tránsito en acordes de diferentes longitudes, lo que significa que encuentran diferentes momentos de tránsito cuando Venus entre y luego sale de la cara del Sol. Los topógrafos tenían mediciones del radio de la Tierra, por lo que se conocían las distancias entre los observadores en diferentes latitudes. La teoría de Newton de los movimientos de los planetas dio la relación de distancias a Venus y el sol. Con estos datos, la trigonometría da la distancia Tierra-Sol y la velocidad de la tierra alrededor del Sol. El primero se conoce en la jerga como el paralaje solar: el tamaño angular de la tierra al sol. Este último se comprueba por el tiempo que tarda la Tierra en completar una órbita alrededor del Sol, un año, dado el paralaje solar. Finalmente, el tiempo de paso de Venus a través de la cara del Sol da la velocidad de la Tierra en relación con el Sol. La velocidad de la Tierra en relación con la velocidad de la luz da el ángulo, o aberración, por la cual los posiciones aparentes de las estrellas se mueven a medida que la Tierra oscila alrededor del Sol. El movimiento a velocidad “v” perpendicular a la dirección de la estrella hace que su posición angular cambie en la dirección del movimiento por radianes v/c, donde c es la velocidad de la luz. Dado que se midió nuestra velocidad alrededor del Sol, esta relación dio una medida de la velocidad de la luz.


Peirce mencionó una segunda medida del paralaje solar, derivada de observaciones cuando Marte, la Tierra y el Sol están casi en una línea y Marte está en el lado opuesto de la Tierra del Sol. Se dice que Marte está en oposición al Sol. Dado que Marte está más cerca de nosotros entonces, este es un buen momento para medir la distancia a Marte midiendo las posiciones angulares de Marte en relación con estrellas distantes de diferentes lugares de la Tierra, o desde un lugar por la mañana y por la noche cuando Marte y las estrellas cercanas a él en el cielo son solo visibles. Por otra parte, la trigonometría con el radio de la Tierra traduce esos ángulos a la distancia Marte-Tierra. La física newtoniana da proporciones de distancias en el sistema solar, por lo que la distancia Marte-Tierra da otra medida del paralaje solar, y a partir de esa aberración da la velocidad de la luz. La consistencia de las mediciones de la velocidad de la luz a partir de observaciones de tránsito de Venus y oposiciones de Marte comprueban que la física de la gravedad newtoniana tiene las proporciones de distancias de los planetas aproximadamente correctas, y comprueba la posibilidad siempre presente de errores sistemáticos en estas mediciones sutiles. 


Peirce también mencionó observaciones de los eclipses de los satélites de Júpiter a medida que pasan detrás de Júpiter. El momento de los eclipses observado de las lunas  depende de la distancia Júpiter-Tierra, debido al tiempo de viaje de la luz. Dado el paralaje solar y la física newtoniana para obtener la distancia Júpiter-Tierra, la diferencia de tiempo de los pasajes lunares a medida que Júpiter se acerca y se aleja de la Tierra produce la velocidad de la luz.


Las mediciones de laboratorio de Fizeau, Foucault y Lissajoux también encontraron el tiempo que tarda la luz en viajar una distancia conocida, pero en experimentos en la Tierra. La idea es la misma que para el tiempo de las órbitas de los satélites de Júpiter, pero las distancias son tan diferentes que referimos esto como un enfoque independiente. 


Peirce mencionó “electricidad estática y dinámica”. Las teorías del campo eléctrico de una distribución estática de cargas eléctricas, y el campo magnético de una corriente constante de carga eléctrica, son similares aparte de un factor multiplicativo. Se sabía que ese factor era consistente con la velocidad de la luz. James Maxwell descubrió que su teoría predice que las ondas electromagnéticas se propagan a esta velocidad  de la luz. Mientras Peirce escribía sobre las ondas electromagnéticas, los experimentos del Físico Heinrich Hertz confirmaban la existencia de estas ondas. Peirce se refería a algo o a todo esto. Peirce agregó más tarde que: todos los astrónomos, por ejemplo, estarán de acuerdo en que la Tierra está a noventa y dos o noventa y tres millones de millas del Sol. Y, sin embargo, uno basaría su conclusión en observaciones del paso de Venus a través del disco del Sol; otro sobre observaciones del planeta Marte; otro sobre experimentos sobre la luz combinados con observaciones de los satélites de Júpiter.


Vemos aquí y en las citas anteriores de Peirce dos puntos que son de suma importancia para comprender la naturaleza de la investigación en ciencias físicas. 


En primer lugar, Peirce afirmó que las mediciones repetidas realizadas en condiciones repetibles, aunque puedan ser realizadas por diferentes personas, producen el mismo resultado. Esto parece obvio, es nuestra experiencia común, pero no se nos ha emitido una garantía, por lo que la evidencia de repetibilidad de la experiencia es esencial. Existe la complicación para los científicos experimentales y observacionales con sus resultados, están condicionados a preocuparse por errores sistemáticos en mediciones sutiles. Prestamos mucha atención a lo que sucede, en términos de Peirce, “a medida que cada uno perfecciona su método y sus procesos”. Peirce confío en que “se encuentra que los resultados se mueven constantemente justos”. Tal vez tenia en mente la reducción de la contaminación de datos mediante la supresión de errores sistemáticos que siempre están presentes pero que en algunos casos se pueden hacer realmente pequeños. Quizás también tenía en mente que el resultado es independiente de quién hizo la medición, dentro de la incertidumbre. Ambos son lo que se esperaría bajo el supuesto de que la realidad opera de manera legal (bajo leyes) y regular (coherencia lógica).


El segundo punto que Peirce formulaba es que las mediciones obtenidas por diferentes tipos de observaciones, y reducidas por la aplicación de diferentes teorías, pueden producir resultados consistentes. Peirce mencionó cuatro formas de medir la velocidad de la luz: 1) Tránsito de Venus y oposiciones de Marte; 2) retrasos de tiempo en las órbitas de las lunas de Júpiter; 3) mediciones de laboratorio de los tiempos de viaje de la luz, el mismo efecto que para las lunas de Júpiter, pero en escalas de longitud tan diferentes que cuentan como situaciones independientes; y 4) experimentos de laboratorio con campos eléctricos y magnéticos. Si tuviéramos solo una de estas mediciones, entonces podríamos decir que la velocidad de la luz no necesita ser más que un artificio, diseñado para hacer una historia que se ajuste a la evidencia. Pero la velocidad de la luz determinada por uno de estos métodos predice con éxito los resultados de cada uno de los otros tres. Peirce también señaló que el paralaje solar derivado de uno de estos métodos predice con éxito el paralaje solar obtenido por un segundo. Esta es una impresionante variedad de predicciones exitosas, basadas en aplicaciones de diferentes teorías físicas a diferentes tipos de observaciones. La consistencia de los resultados, dentro de las incertidumbres de medición, apoya el caso de que la velocidad de la luz y el paralaje solar son conceptos físicos significativos. Esto es lo que se esperaría si nuestras teorías físicas fueran útiles trabajando aproximadamente al comportamiento de una realidad objetiva que opera por leyes que estamos descubriendo. Peirce lo expreso así: 


Tal es el método de la ciencia. Su hipótesis fundamental, dada en un lenguaje más familiar, es la siguiente: hay cosas reales, cuyos personajes son totalmente independientes de nuestras opiniones sobre ellas. La experiencia del método no nos ha llevado a dudarlo, sino que, por el contrario, la investigación científica ha tenido los triunfos más maravillosos en la forma de asentar opiniones.


Nos otros sentimos lo mismo. Gerald Holton dio el mismo argumento un siglo después de Peirce, en “Orígenes temáticos del pensamiento científico[2]”:


El significado detrás de la afirmación de que “creemos en la realidad” de los electrones es que el concepto es actualmente necesario tan a menudo y de muchas maneras, no solo para explicar los rayos catódicos, el fenómeno que conduce a la formulación original del concepto, sino también para una comprensión de los fenómenos termoiónicos y fotoeléctricos, las corrientes en sólidos y líquidos, radiactividad, emisión de luz, enlace químico…


El Progreso de la ciencia permitió esta gama aún más amplia de predicciones exitosas, ¿podría haber otra teoría  que encajara igualmente bien con estas observaciones, tal vez cuando se considera en el contexto de alguna otra cultura? No se puede refutar, dado  que no es el lenguaje con lo que se está jugando, sino con lo real.


Herbert Dingle declaró que “la naturaleza parece ser inteligente[3]”. 

 

La consistencia de diversas mediciones y observaciones en los ejemplos que dieron Peirce y Holton es lo que uno esperaría podemos descubrir si la realidad física objetiva operada por reglas, y si las teorías empleadas en la interpretación de estas mediciones fueran aproximadas lo suficientemente a estas reglas para predicciones exitosas de nuevos fenómenos. 


Chauncey Wright[4]: 


Para cualquiera que sea el origen de las teorías de la ciencia, ya sea de un examen sistemático de los sesgos empíricos por inducción consciente, o de los sesgos naturales de la mente, las llamadas intuiciones de la razón, lo que parece probable sin un estudio distinto de nuestras experiencias, cualquiera que sea el origen, real o ideal, el valor de estas teorías solo puede ser probado… por deducciones de las mismas consecuencias que podemos confirmar por el indudable testimonio de los sentidos.


Este comentario sobre la importancia de lo que Wright denominó “verificación” en las ciencias naturales concuerdan con el pensamiento reciente; basta con añadir que el “testimonio de los sentidos” se recibe ahora de detectores electrónicos bastante sofisticados. Pero no hemos encontrado evidencia de que Wright reconociera el punto más profundo de Peirce, la importancia del impresionante poder predictivo de las teorías físicas del electromagnetismo, la mecánica newtoniana y la gravitación.


William James, estrecho colaborador de Peirce durante años, ofreció una opinión diferente de la ciencia física. James escribió que:


A medida que las ciencias se han desarrollado más, la noción ha ganado terreno de que la mayoría, tal vez todas, nuestras leyes son solo aproximaciones. Las leyes mismas, además, han crecido tanto que no hay que contarlas; y se proponen tantas formulaciones rivales en todas las ramas de la ciencia que los investigadores se han acostumbrado a la noción de que ninguna teoría es absolutamente una transcripción de la realidad, sino que cualquiera de ellas puede ser útil desde algún punto de vista. Su gran uso es resumir viejos hechos y conducir a otros nuevos. Son solo un lenguaje hecho por el hombre, una taquigrafía conceptual, como alguien las llama, en la que escribimos nuestros informes de la naturaleza; y las lenguas, como es bien sabido, toleran muchas variedades de expresión y muchos dialectos. Tal es la gran forma suelta en que el pragmatismo interpreta la palabra acuerdo. Lo trata por completo de manera práctica. Permite que cubra cualquier proceso de conducción desde una idea presente hasta un término futuro, siempre que solo se ejecute prósperamente. Solo así se puede decir que las ideas “científicas”, que vuelan más allá del sentido común, están de acuerdo con sus realidades. Es, como ya se ha dicho, como si la realidad se hiciera de electrones, átomos, moléculas, pero no debemos pensarlo literalmente. El término “energía” ni siquiera pretende representar algo “objetivo”. Es solo una forma de medir la superficie de los fenómenos para encadenar sus cambios en una fórmula simple. Clerk Maxwell en algún lugar dice que sería “de mal gusto científico” elegir la más complicada de dos concepciones igualmente bien evidenciadas; y todos estarán de acuerdo con él. La verdad en la ciencia es lo que nos da la máxima suma de satisfacciones, el gusto incluido, pero la coherencia tanto con la verdad previa como con los hechos novedosos es siempre el reclamo más imperioso. 


Tal vez la última frase en esta cita, y anteriormente en el comentario de James de que el “gran uso de las teorías es resumir hechos antiguos y conducir a otros nuevos”, es un reconocimiento del punto de Peirce de que las pruebas de predicción pueden hacer un caso persuasivo para una teoría física. El resto de este comentario no alienta la idea, sin embargo, y tampoco el comentario de James que:


Lo verdadero, para decirlo muy brevemente, es solo lo conveniente en el camino de nuestro pensamiento, así como lo correcto es solo lo conveniente en la forma de nuestro comportamiento.


La objeción de Peirce, del término “pragmatismo” para caracterizar esta lectura de “conveniente” de la ciencia física. El pragmatismo de Peirce significa la búsqueda de aproximaciones útiles a la forma en que son las cosas, como en el electromagnetismo y la física newtoniana. En su libro, The principles of psychology, James escribió que[5]:


Todo el sentimiento de la realidad, todo el aguijón y la excitación de nuestra vida voluntaria, depende de nuestra sensación de que ellas, la cosas realmente se están decidiendo de un momento a otro, y que no es el traqueteo aburrido de una cadena que se forjo hace innumerables años. Esta apariencia, que hace que la vida y la historia hormigueen con un entusiasmo tan trágico, puede no ser una ilusión. Así como concedemos al defensor de la teoría mecánica que puede ser uno, así también son dos concepciones de posibilidad cara a cara sin hechos lo suficientemente conocidos como para ser árbitros entre ellos. 


La metáfora de una cadena de instrucciones es deliciosa, como lo es la forma de decirlo por Peirce:


La proposición en cuestión es que… dado el estado del universo en la nebulosa original, y dadas las leyes de la mecánica, una mente suficientemente poderosa podría deducir de estos datos la forma precisa de cada letra que estoy escribiendo ahora. 


Parece típico que Peirce estuviera dispuesto a decidir entre las ideas del libre albedrío y la teoría mecánica:


Las conclusiones de la ciencia no pretenden ser más que probables, y consideran que una inferencia probable a lo sumo solo puede suponer que algo es más frecuente, o de otra  manera aproximadamente, verdadero, pero nunca sea precisamente cierto sin excepción en todo el universo, vemos cuán lejos está otra proposición (la teoría mecánica) en verdad de ser tan postulada. 


Debemos tener en cuenta que James estaba más interesado en las formas en que las personas se comportan que en la física básica. Peirce estaba más del lado de la realidad objetiva, para ser abordada en aproximaciones sucesivas, como vemos la comparación de su pensamiento sobre el libre albedrío. A pesar del peligro de sobreinterpretar lo que Peirce podría haber estado pensando, consideramos que el comentario de Peirce es un paso significativo al reconocimiento de que la física clásica en un sistema puede perder la memoria de las condiciones iniciales. Eso seguramente incluiría el recuerdo de cualquier instrucción programada sobre lo que se supone que debo hacer a continuación. El “entusiasmo trágico” de la vida de James sigue siendo un rompecabezas profundo, pero evitamos una mayor discusión al limitar la atención al tema mucho más simple de lo que aprendemos de las pruebas de física básica en situaciones controladas, en la línea de la discusión de Peirce sobre las mediciones de la velocidad de la luz. 


El filósofo Ferdinand Canning Scott Schiller[6], estaba aún menos entusiasmado que James sobre la posición de Peirce. Schiller escribió que:


La “independencia” reclamada por la verdad pierde todo sentido cuando se analizan sus ambigüedades. Si “independiente” significa “totalmente no afectado por el lenguaje o la mente” es lógico pensar que la verdad no puede ser independiente de nosotros. Dos cosas estrictamente independientes no podrían coexistir en el mismo universo. Tampoco la verdad puede ser “independiente” en el sentido de “no relacionada con la base axiomática humana”; porque ¿cómo en ese caso podríamos saberlo? La verdad no tiene sentido si no implica una doble reacción, con una persona para quien es verdadera, y un objeto sobre el cual es verdadera. Cualquier “indepencia” que ignore cualquiera de las dos relaciones es imposible; cualquier que sea menor que esto, no es independiente en absoluto.


Esto es lógico, y tenemos un nuevo aspecto de la situación. Cuando observamos un sistema en un estado cuántico puro, podría cambiarlo a otro estado. ¿Cómo afecta eso al vector de estado del universo, si existe tal cosa? Colocamos la pregunta, con el significado del libre albedrío, fuera de los límites de este manuscrito.


La vida, un accidente estadístico cósmico, sentimiento general que estaba en línea con la ideología científica dominante de los siglos XIX y XX, conocida como reduccionismo, que proponía que la realidad podría entenderse mejor desglosando todos los fenómenos físicos en sus partes y procesos más simples, de modo que podamos observar el comportamiento básico de los constituyentes fundamentales de la naturaleza de forma asilada. De acuerdo con el evangelio del reduccionismo, siempre que sea posible, las ciencias sociales y la psicología deben reducirse a la biología, la biología a la química y la química debe reducirse a la física fundamental. Aunque el enfoque reduccionista ha sido tremendamente exitoso, dándonos la mayoría de nuestras mayores teorías físicas, creó la impresión de que todas las formas de vida, incluidos los humanos, no son más que colecciones de átomos que siguen obligadamente trayectorias mecánicas fijas y arbitrarias, determinadas únicamente por las matemáticas y no por la mente.


Como resultado, el enfoque reduccionista de la ciencia ayudó a popularizar la postura filosófica conocida como materialismo, que sostiene que la realidad solo consiste en lo físico. Si bien este punto de vista ayudó a librar aún más a la ciencia de conceptos sobrenaturales como almas y espíritus, el materialismo clásico negó la existencia de cosas aparentemente inmateriales , como la conciencia, la información biológica, e ignoró en gran medida los conceptos de energía e información. Al hacerlo, el materialismo nos redujo a máquinas de carne parecidas a zombis sin agencia, sentimiento, o experiencia interior. Para la mayoría de los materialistas, la vida y la mente se consideran “epifenómenos” si se reconocen en absolutos, lo que esencialmente significa que no importan; simplemente están ahí. Cualquier sentimiento de libre albedrío que podamos tener al tomar una decisión es simplemente una ilusión. No somos los autores de nuestras acciones, sino observadores pasivos que pueden ser engañados constantemente por el cerebro para que creamos que somos causalmente imponentes. 


Colectivamente, estos avances intelectuales formaron lo que los filósofos llaman la cosmovisión reduccionista. Este  paradigma no estaba satisfecho simplemente con la eliminación de Dios y el Alma de la imagen física, sino que también quería purgar la naturaleza de todo rastro de propósito o progreso.


Con respecto a preguntas existenciales tan importantes como “¿cómo llegamos aquí?” y ¿a dónde vamos?, la cosmovisión reduccionista responde “suerte y probablemente en ninguna parte”. Era supremamente racional adoptar esta cosmovisión, ya que así es como las cosas aparecen por primera vez a aquellos que han abandonado con razón las explicaciones de los fenómenos naturales que invocan lo sobrenatural. Pero el paradigma que está en el horizonte nos lleva a una conclusión muy diferente en que pensamos sobre el universo y nuestro lugar en él. En particular, se demostrará que los fenómenos que llamamos vida, ciencia e inteligencia tienen un profundo significado cósmico.


Estas ideas provienen de considerar los roles que la energía y la información juegan en el surgimiento y crecimiento de la complejidad. Tales consideraciones son el ámbito de una disciplina académica relativamente nueva conocida como ciencia de la complejidad, una unificación de las principales ciencias de nuestro tiempo que incluyen, entre otras, la física, la biología, la neurociencia, al informática, la teoría evolutiva y la estadística. Estas ciencias y sus métodos han sido combinados por investigadores con antecedentes interdisciplinarios para formar un enfoque integrado, igualmente teórico y experimental, destinado a comprender cómo los sistemas dinámicos de la naturaleza emergen y evolucionan con el tiempo. Un sistema dinámico es un término general para cualquier sistema hecho de un conjunto de componentes que interactúan que pueden explorar una variedad de estados estructurales o funcionales, y pueden ser físicos, químicos, biológicos, cognitivos, sociales o tecnológicos. La ciencia de la complejidad estudia los sistemas dinámicos en todas las escalas, desde lo imperceptiblemente pequeño, hasta lo imperceptiblemente grande, incluido el sistema dinámico más grande de todos, el universo mismo.


Los métodos empleados por los científicos de la complejidad, los hijastros de los cibernéticos y los teóricos del caos del siglo XX, logran algo de lo que el enfoque reduccionista es fundamentalmente incapaz: nos permiten comprender cómo los bloques de construcción de la naturaleza se autoensamblan espontáneamente a través de una danza sinérgica que crea fenómenos emergentes maravillosos (subyacentes), como la vida, la mente y la civilización. Resulta que el comportamiento colectivo de las partes que interactúan, no simplemente de cómo funcionan de forma aislada, es la clave para comprender el surgimiento y evolución de todos los fascinantes organismos y ecosistemas que componen la biosfera. Este tipo de sistemas dinámicos son especialmente eficaces en su capacidad de adaptarse a un entorno cambiante, y se han denominado adecuadamente sistemas adaptativos complejos. En general, podemos pensar en la vida como una forma de complejidad adaptativa, para distinguirla de las formas no adaptativas de complejidad, como el orden que vemos en estructuras como cristales y copos de nieve, que es fijo y no funcional. La complejidad adaptativa es un término flexible que nos permite hablar de toda la biosfera como una red integrada e interconectada de sistemas adaptativos complejos. 


La complejidad adaptativa a menudo se ha descrito como existente en el límite entre el orden y el caos, el “borde del caos” que se le ha llamado, y es en esta coyuntura donde la estructura y la aleatoriedad conspiran para crear sistemas que sean óptimamente resistentes, flexibles e innovadores. Debido a la naturaleza intrincada  enrevesada de los sistemas adaptativos complejos, desde las células hasta las comunidades su dinámica no pudo ser comprendida adecuadamente hasta que el modelado computacional alcanzó un cierto nivel de sofisticación. Reconociendo este hecho, el físico Stephen Hawking declaró que el siglo XXI sería “el siglo de la complejidad”. 


A partir de una comprensión más profunda de cómo surge la complejidad en la naturaleza, se está revelando una nueva narrativa cósmica que cambiará la  compresión de nuestros orígenes y nuestro futuro. Lo llamamos nueva, pero los paradigmas no surgen de la noche a la mañana. A menudo se propagan gradualmente al principio, impregnando lentamente hasta que se alcanza un punto de inflexión, lo que desencadena un repentino aumento de la prominencia. Bueno, ese punto de inflexión está a la vuelta de la esquina. Si bien este nuevo “paradigma general” probablemente sorprendería a la mayoría de las personas, puede parecer no lógico, sino obvio, para aquellas mentes curiosas que han tratado de imaginar el futuro implícito por la tasa exponencial de progreso tecnológico. Ya sea que el paradigma del que hablamos confirme intuiciones, nos sorprenda o desencadene una reacción escéptica, es probable que nos emocione, porque en un sentido fuerte, se trata de lo que somos nosotros mismos. 


La suposición de que nuestro mundo está derivado gradualmente hacia un estado más desordenado, aleatorio y sin vida es completamente errónea y el resultado de un malentendido fundamental de la segunda ley de la termodinámica. Si es correcto pensar en el cosmos como una máquina computacional masiva, no es una que se esté acabando. En términos de complejidad adaptativa, parece estar apenas comenzando. A través de una serie de emergencias jerárquicas, una secuencia anidada de partes que se unen para formar un todo cada vez con más partes, el universo está experimentando un gran y majestuoso proceso de autoorganización de procesos, y en este momento en el tiempo, en este rincón del universo, somos las estrellas del espectáculo.


A medida que avanza la evolución cósmica, el mundo se está volviendo cada vez más organizado, cada vez más funcional y, debido a que la vida y la conciencia emergen de suficiente complejidad e integración de la información, cada vez más sensible. A través  de la evolución y eventual expansión externa de seres conscientes de sí mismos como nosotros, y sus esfuerzos por organizar la materia en arreglos que apoyen el procesamiento de la información y la computación, el universo está, en un sentido muy real y literal, despertando. No es despertar independientemente de nosotros, como en un sentido psíquico, sino a través de nosotros, ya que toda la materia que compone la vida fue una vez inanimada. Como dijo el cosmólogo y educador Carl Sagan: “somos una forma para que el cosmos se conozca a sí mismo”. En lugar de descartarlo como una mera metáfora poética, lo tomamos en serio y dentro de la evolución cósmicas. Al hacerlo, vemos que la complejidad adaptativa ha iniciado un proceso de despertar cósmico que apenas comienza. Dónde termina está por determinarse. Exactamente cómo va la historia curiosamente parece depender crucialmente de las acciones de la vida inteligente. De hecho, podría depender de alguna manera significativa de usted y de nosotros colectivamente. 


Si bien las leyes y constantes de la física parecen haber forjado esta trayectoria evolutiva para la vida en el universo, descrita como un destino cósmico, determinado no en detalle en un esquema aproximado, la dura verdad es que el éxito existencial no está garantizado de ninguna manera para el Homo sapiens. No hay ninguna ley particular o fuerza de la naturaleza que impida que nuestra civilización falle. El progreso ocurre no porque esté siendo impulsado por alguna fuerza mística, sino porque la vida aprende del fracaso continuo.  La selección natural es el algoritmo de la naturaleza para la corrección de errores. Si somos sabios, podríamos ser los errores que se corrijan. En ese caso, la próxima civilización o especie tendrá su oportunidad, y si no repiten nuestros errores, avanzarán más allá de donde estábamos en el apogeo de nuestra gloria. La hipótesis es que el conocimiento en la biosfera se acumulará en cualquiera de los dos escenarios. 


Pero no tenemos que fallar. El hecho de que los humanos sean realmente, como argumentará este libro, agentes autónomos con libre albedrío, formalizado como poder causal, significa que depende de nosotros decidir entre la extinción y la trascendencia. Tenemos todos los incentivos para trabajar hacia lo segundo y alejarnos de lo primero. A través de los esfuerzos colectivos de la humanidad, a través de nuestro progreso intelectual, cultural y tecnológico, podemos continuar ayudando al cosmos en su gran proceso de despertar. Promover una conciencia de nuestro propósito cósmico emergente podría facilitar el progreso social, económico y tecnológico exponencial, permitiéndonos trascender nuestras limitaciones intrínsecas y que la biosfera se extienda hacia afuera, hacia los cielos en las estrellas. 


Poe supuesto, la nueva narrativa cósmica no debe ser tomada por fe. Cualquier afirmación tan magnifica debe, por regla general, ser recibida con profundo escepticismo. Un cambio de paradigma de esta magnitud requiere una explicación física satisfactoria de la evidencia que apoya una desviación tan radical del consenso científico general. Pero ese relato existe, y las páginas venideras en la ciencia, la ingeniería y al filosofía describirán  las nuevas y emocionantes teorías de la información biológica, hallazgos experimentales y procesos físicos que corroboran estas notables afirmaciones.


Las principales emergencias en la autoorganización del universo se explican mecánicamente, para que podamos ver precisamente cómo y por qué la complejidad adaptativa y el conocimiento que encarna crece inevitablemente y sin límites, como consecuencia de las leyes de la física y las dinámicas evolutivas que emergen de las restricciones que imponen a la materia en movimiento. En nuestra búsqueda para comprender la evolución cósmica, llegaremos a un “teoría del todo” que podamos llamar teoría unificadora de la realidad. Esta ambiciosa teoría intenta resolver los mayores misterios de la ciencia. El infame “duro problema de la conciencia”, el rompecabezas del libre albedrío y el misterio de la creciente complejidad cósmica en un universo cada vez más entrepiso comienza a desmoronarse a medida que la teoría unificadora disuelva las paradojas creadas por las suposiciones injustificadas de la cosmovisión reduccionista y exponer las trampas del lenguaje que nos han impedido hacer progreso intelectual durante tanto tiempo. Al introducir una nueva síntesis evolutiva, la síntesis evolutiva integrada, la teoría unificadora de la realidad cierra la brecha entre lo cuántico y lo cosmológico con principios de la biología evolutiva.


2.1.3 La última frontera teórica de la biología 


El origen de la vida es un asunto altamente probable. Tan pronto como las condiciones lo permitan, ¡aparece! Carl Sagan


A pesar que “información” es un concepto aceptado en muchas áreas de la investigación, en la ingeniería, la química, la física y hasta la biología y las ciencias sociales. Y sin embargo, su estatus como entidad física sigue oscuro. Tradicionalmente es considerado el concepto de información como un derivativo secundario. Debido a que los bits de información siempre se modelan en instancias de grados de libertad, las propiedades podrían, al parecer, reducirse siempre a las del sustrato material. Sin embargo, durante décadas ha habido intentos de invertir esta interdependencia y arraigarla en la información en lugar de la materia. Esta perspectiva contraria se asocia con el nombre de John Archibald Wheeler, quien encapsuló su propuesta en el escueto dictum: ¿bit[7]?


En un sentido práctico y cotidiano, la información a menudo se trata como una “cosa por derecho propio” con una medida de autonomía; de hecho, se compra y se vende como una mercancía junto con la gasolina y el hierro. En la ciencias biológicas, los discursos informativos son indispensables: los biólogos hablan sobre códigos genéticos, sobre traducción y transcripción, sobre señales químicas y procesamiento de datos sensoriales, todos los cuales tratan la información como moneda de actividad, el “aceite” que hace girar las “ruedas biológicas”. Los florecientes campos de la secuenciación genómica y metagenómica y la bioinformática se basan en la noción de que los bits informativos son literalmente vitales. Pero debajo de esta precariedad familiar se esconde una cruda paradoja. Si la información hace una diferencia en el mundo físico, lo que seguramente hace en organizar la energía en estructuras, entonces ¿no deberíamos atribuirle poderes causales? 


Sin embargo, en la física la causalidad se entiende invariablemente a nivel de las interacciones de partículas y campos, no en el ámbito de los bits abstractos o qubits, sus contrapartes cuánticos. ¿Podemos tener ambos? ¿Pueden coexistir dos cadenas causales de manera compatible? ¿Son las narrativas gemelas de causalidad material y causalidad informativa compañeras de cama cómodas? Si es así, ¿cuáles son las leyes y principios que rigen la dinámica de la información para colocarse junto con las leyes de la dinámica material? Si no es así, y la información es simplemente un epifenómeno que navega sobre los grados físicos subyacentes de libertad, ¿podemos determinar bajo qué circunstancia imitará a la agencia autónoma? 


¿Qué es información?

¿Es un mero epifenómeno o tiene sentido causal?

¿Cómo se relaciona con la causalidad arriba-abajo? 

¿De dónde viene?

¿Se conserva y, de ser así, cuándo?

¿Cómo y cuándo asume una vida propia y se convierte en una cosa por derecho propio?

¿Existen leyes de la dinámica de la información análogas a las leyes de la dinámica material?

¿Son las mismas leyes? ¿O puede la información trascender las leyes de la mecánica? ¿Cómo se relaciona la información sobre la mesoescala y macroescala(si lo hace)? 

¿La perdida de información es siempre lo mismo que la entropía?


2.1.4 Filosofía científica de la biología 


Es común que se nos presenten como combinación de azar y necesidad, combinando accidentes estáticos y convergentes evolutivos similares a una ley. Como resultado del punto de vista antropocéntrico, tanto la astrobiología como comprensión de posibilidades de vida; con solo una muestra de vida a nuestra disposición, es difícil separar que características son meramente accidentales o incidentales, de las “similares a leyes” que esperamos que sean comunes a la toda la vida en el universo.


Las discusiones sobre las características universales de la vida generalmente se centran en la química. Ahora mismo se va más allá de este énfasis. Se reconoce en la vida, no solo nivel subyacente (químico), sino que se caracteriza por una organización jerárquica, que va desde el nivel de las células hasta los organismos multicelulares y la sociedades y lingüística[8]. Esto podría aplicarse a múltiples niveles de la biosfera, desde células hasta sociedades y sus formas de aprendizaje, o describir la vida sintética con químicas radicalmente diferentes. Aunque muchos trabajos han tenido como propósito unificar los niveles en jerarquías biológicas, el concepto de información, es una idea prometedora para descubrir principios universales de la biología actualmente ocultos a cualquier escala de complejidad[9], identificando principios que podrían extrapolarse a la vida en todas sus posibilidades. Definir “información biológica”, es un tema abierto de intenso debate por derecho propio[10], queremos enfatizar que para la computación biológica no es un atributo pasivo la información en los sistemas biológicos, sino que desempeña un papel activo en la ejecución de la función biologica[11]. El problema duro de la vida, es la identificación del mecanismo físico real que permite que la información obtenga un efecto causal sobre la materia. Este punto no es cómodo para los actuales enfoques de la física, pero es un camino prometedor para contestar de mejor forma ¿qué es la vida?


El surgimiento de la vida y la mente a partir de sistemas químicos no vivos sigue siendo uno de los grandes problemas pendientes de la ciencia. Cualesquiera que sean los detalles específicos de este camino, podemos estar de acuerdo que representar una transición de lo simple a lo extraordinariamente complejo, el problema, es que el grado “de ajuste fino” necesario para especificar el estado inicial es insatisfactorio y lo es cada vez más cuanto más complejo se vuelve el universo. Pero, hay intentos serios, como la teoría constructora, que tiene como objetivo eliminar las condiciones iniciales de nuestras explicaciones del mundo[12]. Resolver el problema de ajuste fino es esencial para explicar la vida, ya que las estructuras más complejas que conocemos, son las menos explicables a partir de un estado inicial arbitrario, son precisamente las de interés en la discusión contemporánea de los sistemas físicos vivos, tecnológicos artificiales y conscientes.


La inferencia científica generalmente se basa en establecer la causalidad. Este es también el caso de la biología, una disciplina encargada de proporcionar relatos históricos de las propiedades de los seres vivos, así como un modelado de procesos productivos que involucran mecanismos como origen de esas propiedades. Como es de esperar esto apunta una diversidad de temáticas, sin embargo, existe un amplio acuerdo de una explicación de por qué los organismos tienen características particulares, comúnmente implicará un tipo particular de proceso evolutivo, a saber, la evolución por selección natural. 


Como toda ciencia líder de su tiempo, el progreso de la biología depende de la interrelación entre la investigación empírica, la construcción de teoría, el modelado y el contexto social. Si bien la biología molecular y experimental han evolucionado dentro de una avalancha de datos altamente detallados dentro del contexto de los sistemas biológicos, la integración de estos resultados en marcos teóricos útiles se ha quedado rezagado. Se impulsa en gran medida por consideraciones técnicas que involucran herramientas estadísticas, y la biología sigue estando menos guiada por la teoría de lo que parece. Es necesaria la formulación de nuevos enfoques de formación de científicos que hagan suyos conceptos teóricos en las biociencias, para intentar responder preguntas de fondo que están abiertas en la biología: cómo el origen y la organización de la forma del organismo, la relación entre el desarrollo y la evolución, y las bases biológicas de la cognición y la mente; las teorías de información como factor de causalidad… 


Las raíces de la biología moderna están a principios del siglo XX, con los trabajos de Paul Weiss y Ludwig von Bertalanffy, en su comprensión no se limita a la formalización matemática, sino que se extendía a los fundamentos conceptuales de la biología. Identificar las fuerzas intermoleculares dentro de la idea conceptual de autoorganización y la replicación de bioestructuras celulares. Hoy en día, la biología teórica tiene componentes de redes causales complejas, en el seno de la biología de sistemas e implicaciones de la dinámica de nanomáquinas celulares en el desarrollo y evolución que implican factores genéticos, bioquímicos, trascripcionales…, pero también extienden su práctica a la biología computacional de sistemas y la filosofía naturalista de las ciencias. Esta complejidad hace que sea necesario encontrar medios para representar los sistemas biológicos de manera que no dejen de lado los detalles causales, al tiempo que se garantiza que los modelos, las observaciones y los experimentos tengan un peso explicativo y predictivo. Lo que los investigadores ahora mismo están incorporando en sus narrativas de disertación.


Diferentes puntos de vista sobre la casualidad en la práctica de pensamiento, pueden conducir a marcos explicativos alternativos, dictar lo que cuenta como creadores legítimos de conocimiento y dar forma a perspectivas sobre conceptos clave como la selección natural y la adaptación. La forma en que se entiende la casualidad da forma a la estructura del diseño experimental y la estructura de las teorías contemporáneas de la biología que giran en torno al modelado de sistemas biológicos. La formación científica fuera de la complejidad y las herramientas matemáticas, tecnológicas y conceptos filosóficos, limitan las oportunidades creativas y se corre el riesgo de confundir la semántica de la nanociencia y obstaculizar el progreso ético de la tradición intelectual de la comunidad de conocimiento.


Aunque la reflexión biológica y filosófica sobre la naturaleza de la causalidad en los sistemas biológicos tiene su historia[13], la noción de causalidad moderna dentro de sistemas complejos es fundamentalmente diferente. La distinción, es que un conjunto de causas, las “últimas causas”, proporcionan narrativas de la existencia de características particulares en los organismos existentes, explican la “orientación a objetivos” de los seres vivos y permiten predicciones sobre cómo evolucionarán las poblaciones en el futuro[14]. El otro conjunto, el de las “causas próximas”, no son históricas y se consideran que explican y predicen los sistemas biológicos al establecer cómo funcionan los diferentes componentes, al igual que un químico, físico o ingeniero establece la causalidad por mecanismos ligados a combinaciones de leyes naturales[15], creando nuevas experiencias fácticas y contrafactuales. Bajo este punto de vista, los biólogos evolutivos se preocupan por las causas últimas y, los biólogos de sistemas, moleculares, del desarrollo, fisiólogos y la mayoría de los otros biólogos por causas próximas. Más específicamente las causas ecológicas y genéticas son dos categorías de causas últimas[16]. Las causas ecológicas son aquellas que "seleccionan" a los individuos en función de sus características. Las causas genéticas aseguran que esas características varíen entre los individuos antes de ser seleccionados, y la transmisión de esos genes a los descendientes asegura que las variantes, una vez que han sido seleccionados, persistan y puedan acumularse en la población de generación en generación. Desde este punto de vista, la mutación y  recombinación genética introducen variación genética y en la distribución de estas variantes bajo la selección natural, no hay espacio para causas próximas en las explicaciones evolutivas, ya que solo se heredan los genes, evitando efectivamente que las causas del desarrollo no genéticas se conviertan en causas evolutivas.


2.1.5 Causalidad en el papel del organismo


La distinción próxima-última ha proporcionado unidad conceptual para las ciencias biológicas. Es un aspecto central de un consenso compartido en cuanto a qué las formas de causalidad constituyen explicaciones evolutivas satisfactorias (es decir, argumentos históricos y funcionales) y cuáles no (es decir, argumentos mecanicistas y de desarrollo). Con este fin, la distinción se ha utilizado para detectar razonamientos evolutivos, modelos que, además de las diferencias de aptitud y herencia genética, invocan mecanismos próximos para explicar el ajuste de la forma y la función[17]. Podría emplearse uno u otro término próxima-última, esta respuesta parece sólida. Dado que se supone que las mutaciones genéticas no están dirigidas, ni ocurren cuando los organismos las necesitan, según este razonamiento, toda la direccionalidad sostenida en la evolución proviene de las diferencias de aptitud entre genotipos o selección natural.


Si bien pocos discutirían el valor de distinguir entre diferentes tipos de explicación causal, los filósofos y biólogos han reconocido que esta no es la única forma de describir la causalidad en los sistemas vivos[18]. Entiéndase que “una relación entre dos objetos es una relación causal sí y solo si  es ejemplificada por los dos objetos, y existe la posibilidad de que los objetos que son los términos de la relación puedan cambiar. La metafísica básica de la causalidad se trata de objetos, relaciones causales, cambios en los objetos y un primitivo causal[19]”. Por lo tanto, la implementación de la distinción próxima-última, al tiempo que une la biología evolutiva, puede estar descartando inadvertidamente ciertas clases legítimas de explicaciones evolutivas y obstaculizando la capacidad de la biología para extraer de campos adyacentes nuevos conocimientos. Particularmente la polémica ha sido la implicación de que los procesos de desarrollo, que son responsables de crear fenotipos, se consideran irrelevantes para explicar la evolución fenótipica. Varios debates dentro de la biología evolutiva contemporánea se refieren a la medida en que los efectos causales del medio ambiente en el organismo (por ejemplo, plasticidad y herencia epigenética[20]) y los efectos causales del organismo en el medio ambiente (por ejemplo, construcciones de nichos) también pueden tener un origen evolutivo[21].  Si bien los desafíos son nuevos, la exclusión del desarrollo en la explicación evolutiva es cada vez más difícil de conciliar con el conocimiento biológico y la forma en que los biólogos realizan su investigación.


Los investigadores han revelado que la divergencia adaptativa en la dieta y la técnica de caza entre animales no se debe a diferencias genéticas sino al aprendizaje social. Es probable que el origen del nuevo comportamiento de forrajeo se deba a la innovación conductual a través, por ejemplo, de prueba y error en lugar de una mutación genética. Por lo tanto, parece que el aprendizaje social, tradicionalmente considerado un mecanismo próximo, contribuye a la explicación histórica del ajuste adaptativo entre el entorno local y el fenotipo así como el aislamiento reproductivo en algunas poblaciones[22].


Que los procesos de desarrollo como la capacidad conductual y el aprendizaje social impongan una direccionalidad adaptativa persistente en la evolución parece inconsistente con el papel exclusivo de la selección natural en la evolución adaptativa, así como con la postura heurística de que la genética es el enfoque mecanicista adecuado del análisis evolutivo. Esta inconsistencia surge porque la explicación de la divergencia adaptativa en las orcas se basa, en parte, en una explicación transformacional. En contraste, una explicación variacional de por qué una población está compuesta por individuos de una dieta particular, no involucra que la influencia ambiental explique sobre cómo se originan y heredan los rasgos. En este sentido, las condiciones ecológicas (causas ecológicas) han favorecido las variantes genéticas (causas genéticas) que permiten a los individuos ajustar sus preferencias alimentarias a las condiciones locales. Esto evita una explicación transformadora de la evolución al hacer que la direccionalidad adaptativa impuesta por los propios organismos sea una función de la selección natural a largo plazo sobre la variación genética aleatoria. Este escalado de los procesos evolutivos y de desarrollo es una estrategia muy común para proteger la noción de que hay dos tipos fundamentalmente diferentes de cosas en biología. Permite que los efectos evolutivos de la plasticidad fenotípica, la herencia extragenética y la construcción de nichos se acomoden en la instancia genética de la evolución por selección natural. Si bien esto puede proporcionar una explicación histórica válida, el cambio explicativo viene con al menos tres características que parecen problemáticas.


La primera característica es que, para algunos investigadores, la explicación evolutiva simplemente parece incompleta. La segunda característica problemática es que una estricta exclusión de las causas próximas en las explicaciones evolutivas parece conferir a los genes privilegios causales e informativos en el desarrollo. La tercer preocupación es que la justificación del cambio explicativo parece basarse en la suposición de que la variación, la aptitud diferencial y la herencia son procesos autónomos[23]. Por ejemplo, generalmente se acepta que el patrón de selección no afecta las reglas herencia; la herencia es simplemente la transmisión de cualesquiera de los alelos seleccionados. La variación que alimenta la evolución se considera igualmente autónoma. Las mutaciones ocurren aleatoriamente con respecto a sus consecuencias para la variación fenotípica y la aptitud, y la adquisición de nuevas variantes no cambia la forma en que la variación se trasmite de generación en generación. La autonomía del proceso garantiza que toda la direccionalidad adaptativa que surja en el desarrollo, en principio pueda explicarse en términos de rondas previas de selección sobre la variación hereditaria (genética) de forma estable. Pero la misma lógica no tiene por qué aplicarse cuando los procesos están causalmente entrelazados[24].  En este sentido, no importa a qué fenotipo, o qué tan atrás en el tiempo, cambiemos nuestro enfoque; la forma en que se establece los principios de evolución por selección natural está cambiando constantemente, comprometiendo así una explicación estrictamente vocacional de la adaptación y la diversificación.


2.1.6 La revolución causal  


Es importante observar que, independiente de nuestra educación, la ley de causalidad es de hecho una parte esencial de cómo vemos el mundo. Sí ha ocurrido un accidente aéreo y el equipo de investigación regresa con la conclusión de que no hay causas visibles del accidente, obviamente nos sentiremos decepcionados y probablemente incluso los enviaremos de regreso para completar su investigación. Del mismo modo, sí una partícula física que está previamente en reposo de repente comienza a moverse en alguna configuración diseñada, un físico experto, asumirá que un choque con otras partículas fue una causa probable. Nótese, sin embargo, que todas estas conclusiones son lógicamente infundadas, nuestras mejores teorías físicas pueden colisionar en particular pero no pueden inferir lógicamente una colisión a partir de estas consecuencias.


El problema “interno” básico asociado con la ley de causalidad también ha sido descubierto muy temprano, presumiblemente ya por los escépticos. En pocas palabras, equivale al trilema de los tres cuernos exhaustivos: 1) aceptación de una regresión infinita de la casualidad; 2) aceptación de hechos brutos no causados; o 3) aceptación de hechos auto-causados (circularidad infinita). Aristóteles aborda este tema extensamente en el Análisis Posterior; donde rechaza la posibilidad de una regresión infinita en las demostraciones. Muestra que la teoría lógica de la causalidad también tendrá que hacer frente a este problema fundamental, y nuestra solución propuesta podría verse como una versión formal de la doctrina filosófica del falibilismo (fallibilism)  presentada por Charles Sanders Pierce y Karl Popper[25], según el cual todo el conocimiento empírico fuera de las matemáticas y la lógica comprende suposiciones inviables, o hipótesis que deben ser tratadas como tal.


“No hay nada sin una razón, o ningún efecto sin una causa”, “Primeras verdades 1680-1684 por Gotfried W. W. Leibniz.


Desde nuestro punto de vista, la ley más objetiva de la causalidad y el principio más epistémico de la razón suficiente son solo dos caras de la misma moneda. El principio de la razón suficiente establece que cada hecho tiene una razón por la que se sostiene. En consecuencia, afirma implícitamente que el proceso mismo del razonamiento humano debe proceder en términos de razones. No es una exageración afirmar que este principio es también tan antiguo como la filosofía occidental que consideró a la realidad como un todo sin contradicción lógica. Casi todos los filósofos del siglo XX lo emplearon, explícitamente o implícitamente en sus pensamientos. El término “principio de razón suficiente” fue acuñado por Leibniz, aunque Espinoza probablemente lo haya precedido en apreciar la importancia del principio[26], como muchos filósofos entre razón y causas. Y como Aristóteles mucho antes que él, ha considerado la razón suficiente como algo que es proporcionado por la demostración, una prueba lógica que refleja el orden causal de las cosas.


Leibniz ha puesto dos principios de razonamiento, el principio lógico de contradicción y el principio (causal) de razón suficiente, como base de su filosofía. Ambos principios se han convertido en leyes reconocidas del pensamiento que ocuparan un lugar en la pedagogía europea de la lógica y el razonamiento en los siglos XVIII y XIX. Con el avance de la lógica formal, sin embargo, el principio de la razón suficiente ha desaparecido de los libros de lógica. El movimiento hecho por Wittgenstein en 1921-1961, donde el principio de contradicción ha sido proclamado como el único principio lógico que gobierna el mundo. Además, Wittgenstein ya ha argumentado que no hay forma posible de hacer una inferencia de la existencia de una situación a la existencia de otra situación completamente diferente y que no existe un nexo causal que justifique tal inferencia, lo que lo ha llevado a la conclusión de que la creencia en tales conexiones es simplemente una “superstición”. 


La ley de causalidad se ha convertido en uno de los objetivos de la crítica de David Hume en su tratado de la naturaleza humana. Ha considerado varios argumentos que intentó demostrar y ha encontrado que ellos fallan. Sin embargo, el principal interés de Hume en la causalidad ha sido en su conexión con nuestras inferencias de causa a efecto. La relación causal para ser fundamento y tema inmediato de todas nuestras inferencias empíricas. Lo más importante, según Hume, es la única relación que nos permite inferir desde los hechos observados a los asuntos del hecho no observado. Pero lo que el propio Hume ha considerado como su gran descubrimiento, es que son estas inferencias las que constituyen una “fuente de impresión” última para la idea de causalidad, no al revés. Nuestra idea misma de la conexión necesaria entre causa y efecto surge de la proyección de estas inferencias. Una vez que se establece el hábito o costumbre de inferencia de un tipo de evento a otro, los eventos que a priori  “parecen  revelarse completamente sueltos y separados”, se conectan necesariamente, y “entonces llamamos al único objeto, causa; el otro, el efecto de acuerdo con Hume. El propósito de formar tales costumbres causales (predicciones), o suposiciones, es extender nuestro conocimiento más allá de lo que está presente actualmente en la memoria o los sentidos, principalmente para controlar y regular eventos futuros por sus causas. Sin embargo, este tipo de razonamiento no se puede lograr a priori, por ejemplo, construyendo deducciones puramente lógicas (que Hume llamó demostraciones) únicamente sobre la base de nuestro conocimiento de las causas (la teoría). La razón pura es insuficiente para definir efectos de las causas. Sin embargo, podemos tener éxito en el uso de tal razonamiento causal mediante el seguimiento de las regularidades de la naturaleza porque la naturaleza ha implantado en nosotros un instinto Darwiniano de la curiosidad, que lleva adelante el pensamiento en un curso correspondiente a lo que ella ha establecido como mecanismo entre elementos de lo real. El razonamiento causal, es un razonamiento “justo” porque funciona objetivamente[27]. 


Los puntos de vista de Hume sobre la causalidad y especialmente sobre la conexión necesaria entre causa y efecto, han tenido un profundo impacto en las relaciones posteriores entre la causalidad y la lógica. Por lo tanto, se han convertido en la fuente moderna de varias narrativas positivistas y analíticas que han revolucionado la biología, la química, la física y la inteligencia artificial…, pero también, la han rechazado, como el caso de Wittgenstein, que rechazó la conexión necesaria entre existencias distintas. Sin embargo, los puntos de vista de Hume también han “provocado” a Emmanuel Kant a un uso sistemático de tales conexiones en su teoría de la experiencia. Por otro lado, los antiguos puntos de vista aristotélicos de la necesidad natural también han sobrevivido al paso del tiempo y han evolucionado al uso de fuerzas, poderes y disposiciones en los enfoques realistas contemporáneos de la casualidad.


El tratado de John Stuart Mill “A system of logic” es también una contribución importante a una teoría general del razonamiento causal. Para empezar, ha señalado que no toda regularidad de Hume determina una relación causal (por ejemplo, la sucesión del día y la noche). Según Mill, solo esas regularidades podrían cumplir este papel causal que invariablemente ocurren y son incondicionales de cualquier circunstancia posterior. En particular, solo tales regularidades incondicionales podrían asignar un sentido de necesidad a la relación causal. 


Mill ha identificado tales regularidades incondicionales con las leyes de la naturaleza y, ha definido la causa de un fenómeno como “el antecedente, o la concurrencia de antecedentes, sobre los que es invariable e incondicionalmente consecuente”. En otras palabras, una relación causal entre los hechos o eventos puede establecerse solo cuando estén adecuadamente subsumidos, o “cubiertos”, por alguna ley. 


Usando una terminología lógica moderna, la ley de Mill podría verse como una especie de regla condicional o de inferencia, que tiene un conjunto de antecedentes y un consecuente. La forma lógica precisa de tales leyes ha surgido, sin embargo, como un problema clave para lo que se conoce como el enfoque de regularidades de la causalidad.


Para ser incondicional o libre de circunstancias, un condicional legal debe incluir en su antecedente todas las condiciones de las que depende el consiguiente. En principio, estos deben incluir no solo condiciones positivas que respalden el condicional legal correspondiente, sino también numerosas condiciones negativas que indiquen la ausencia de todo los factores que interfieren, y eso se debe a que, como Mill ha señalado, todos las leyes de causalidad son susceptibles de ser contrarrestadas o frustradas. En consecuencia, la causa según Mill es la suma total de las condiciones positivas y negativas tomadas juntas; la totalidad de las contingencias de toda descripción, que al realizarse, sigue invariablemente al consiguiente. 


Sin embargo, una objeción común contra tal noción de una ley se ha convertido en que ningún conjunto finito de condiciones podría ser verdaderamente suficiente para algún consecuente. Además, como ha sido acertadamente señalado por Russell (1912), una vez que hayamos especificado la causa completa de un evento dado para hacer que nuestra regularidad sea excepcional, nos encontramos con una circunstancia que es poco probable que se repita y, por lo tanto, no puede considerarse como un ejemplo de una regularidad en absoluto. Por otro lado, si un condicional similar a la ley no incluye todas estas condiciones negativas, no puede ser visto como la descripción de una regularidad lógicamente invariable. El propio Mill ha abordado este tema de la siguiente manera: las condiciones negativas, sin embargo, de cualquier fenómeno, una enumeración especial de cualesquiera sería generalmente muy prolija, pueden resumirse bajo una sola cabeza, a saber, la ausencia de causas preventivas o compensatorias. Esta descripción se conoce como la condición negativa ómnibus de Mill[28]. Nótese, sin embargo, que dado que ha sido formulada en términos causales, debe quedar claro que si se utilizará como esta última, se utiliza para definir causas, así todo el enfoque se volvería irremediablemente circular.


El problema de la representación lógica de las sentencias de las leyes en realidad ha trascendido los límites del razonamiento causal y se ha convertido en un problema general para todas las teorías de leyes y generalizaciones similares a la ley, a menudo en forma de una discusión de argumentos sobre las llamadas leyes ceteris paribus[29]. Además, el problema se ha vuelto especialmente agudo cuando el enfoque de la ley de cobertura se ha llevado a su “fin lógico” interpretando la noción subyacente de un condicional como una implicación clásica (universalmente cuantificada). Esto es lo que realmente ha sido propuesto por Carl Hempel en su enfoque deductivo-nomológico de la explicación científica[30]. 


En el marco de la lógica clásica, no hay una distinción de principios entre proposiciones condicionales y no condicionales. Como resultado, no solo lo causal sino incluso lo condicional integrado en el significado de las leyes simplemente desaparece en una representación puramente lógica, y nos quedamos solo con la propiedad de lo universal como el rasgo característico básico de la “semejanza a la ley”. Esta eliminación es bastante evidente en el siguiente pasaje de Hempel: 


“Una sentencia similar a la ley generalmente no es solo de forma universal, sino también de forma condicional; hace una afirmación en el sentido de que universalmente, si se realiza un conjunto de condiciones C, entonces otro conjunto especificado de condiciones E, también se realiza. La forma estándar para la expresión simbólica de una sentencia similar a la ley es, por lo tanto, el condicional universal. Sin embargo, dado que cualquier declaración condicional puede transformarse en una no condicional, la forma condicional no se considerará esencial para una sentencia similar a la ley, mientras que el carácter universal se considerará indispensable. 


La reducción lógica anterior de la noción de ley hace que esta última sea solo una instancia especial de una afirmación fáctica, lo que crea un problema inmediato ya porque no nos permite distinguir las leyes verdaderas de las generalizaciones accidéntales como “todas las esferas de oro tienen menos de un kilometro de diámetro” o “incluso todas las monedas en mi bolsillo son de plata”. Además, la representación deductiva correspondiente pierde la característica direccional crucial de las explicaciones causales que ya ha sido enfatizada por Aristóteles en su apodeíctico, por lo que fácilmente explica la altura de un asta de bandera sobre la base de la longitud de su sombra. Como subproducto, esto incluso crear el problema de los epifenómenos, es decir, el problema de que incluso los diferentes efectos de una causa común pueden explicarse sin este sentido. Y finalmente, incluso esta configuración lógica altamente reglamentada conserva el problema de Mill de las condiciones negativas, esta vez como un problema de “condiciones” en la descripción de las leyes científicas. Se han descubierto numerosos problemas y contraejemplos en la literatura que han revelado una amplia brecha entre nuestra comprensión de sentido común de las explicaciones y leyes (causales) y sus explicaciones lógicas sugeridas por Hempel. Desde una perspectiva histórica, estos problemas y discrepancias han llevado a una diminución de todo enfoque de regularidad de las leyes y la casualidad a múltiples intentos de su reemplazo, siendo el más prominente el enfoque contrafáctico de David Lewis[31]. La mayoría de estos nuevos enfoques han desenredado, sin embargo, la conexión entre las leyes (regularidades) y los mecanismos causales, y por lo tanto incluso la conexión misma entre la causalidad y la lógica.


El problema de representar afirmaciones similares a la ley, ha resurgido como un problema práctico clave para el razonamiento y la representación en inteligencia artificial, y se ha convertido en uno de los principales inventivos para el desarrollo del razonamiento no monotónico. 


2.1.6.1 La narrativa causal


El lenguaje natural es tolerante, e incluso hospitalario a todo tipo de entidades que podrían servir como relación causal, como hechos, eventos, personas, objetos, propiedades y sus aspectos… Por otro lado, las teorías filosóficas contemporáneas de la causalidad son mucho menos tolerantes a este respecto, por lo general, restringen dicha relación a un tipo primario. La elección suele estar influenciada  por el nivel de “objetividad” con la que tal teoría tiende a imponer a la relación causal. Esto contrasta sorprendentemente con las descripciones de causalidad de Aristóteles, ya que las causas han sido tratadas por Aristóteles tanto como objetos o eventos en el mundo como premisas, e incluso términos medios, en silogismos. Esta “obliteración” ha persistido también en la literatura escolástica y moderna sobre causalidad. 


Varias teorías singulares, así como las teorías contrafácticas tradicionales de la causalidad, generalmente consideran que es una relación entre eventos. Tales teorías tienen problema, sin embargo, por el hecho de que nuestras afirmaciones causales a menudo requieren distinciones más detalladas que las referencias a eventos espacio-temporales. Esto es especialmente evidente en el discurso jurídico y el ejemplo de Moore puede servir como ilustración[32].


Ejemplo 1. Una lata sin etiquetar de veneno para ratas se coloca junto a la comida de la cocina del restaurante del acusado, y es en gran medida el riego de envenenamiento por accidente la que hace que tal acto se negligente. Sin embargo, el veneno para ratas sin etiquetar en un instante al lado de una estufa encendida no se ingiere sino que explota, como resultado de lo cual el demandante resulta herido. 


Claramente, el evento “desnudo” de colocar una lata en un estante no puede servir como relatum causal adecuado y legalmente relevante en este caso. Los eventos como relación causal también crean problemas inmediatos para tratar la causalidad por ausencias y causalidad a través de ausencias como pasos intermedios. Las ausencias, los eventos negativos o los estados de cosas negativos son, en la frase de David Lewis, entidades falsas; son inadecuados para cualquier tipo de relación causal debido a su inexistencia. Esto también lleva a menudo a la conclusión de que las ausencias y omisiones no pueden ser causas[33].


Esto naturalmente nos lleva a los hechos como candidatos más adecuados en el papel. Una expresión de lenguaje natural es proporcionada por las afirmaciones causales de la forma “E porque C”, donde C y E son proporciones que establecen hechos y porque es un conectivo sentencial. Una defensa filosófica sistemática de tal representación se puede encontrar en Bennett y Mellor[34].  A los efectos de la teoría que se desarrollara en este manuscrito, esta representación tiene ventajas significativas sobre prácticamente cualquier otra forma de representación potencial, en primer lugar porque fácilmente hace de la causalidad un tema de razonamiento. Con esta formulación, también adquirimos toda la expresividad de un lenguaje lógico, como el uso de conectivos proposicionales como la negación, la conjunción y la disyunción. En particular, permite afirmaciones causales que son relaciones causales, como la causalidad por omisión. Por último, pero no menos importante,  esta representación también está de acuerdo con el enfoque estructural contemporáneo de la causalidad, en el que las asignaciones X=x  de valores a variables pueden verse como una relación causal básica. 


La principal objeción contra la formulación proposicional siempre ha sido metafísica, a saber, que las proposiciones no están en el mundo, son a priori, son solo sobre el mundo, por lo que no pueden causar cambios en el mundo. Sin entrar en esta disputa metafísica, sin embargo, esta formulación proposicional de la casualidad nos proporciona suficiente capacidad de representación para todos los propósitos de la ciencia moderna.


En la teoría formal, las afirmaciones causales se representan como condicionales, o reglas de inferencia, de la forma C implica E (A causa E) que conecta las proposiciones clásicas. Esto proporcionará una base sólida para el uso de un lenguaje lógico y las herramientas correspondientes para describir la causalidad. Además, nuestro enfoque preservará la estrecha conexión entre la casualidad y las leyes que constituyen un ingrediente importante de la regularidad tradicional de la causalidad, pero que está ausente en las teorías contrafácticas y singularistas. Resultará, sin embargo, que esta formulación proposicional no nos eximirá de todos los problemas involucrados en la representación de afirmaciones causales, aunque se convertirán en problemas internos no triviales de nuestro formalismo que requerirán una solución formal. 


Una importante alternativa de la comprensión de la causalidad y su papel en nuestro razonamiento ha sido proporcionada por la inteligencia artificial. El razonamiento causal se ha empleado primero en las teorías del diagnóstico y la abducción en la IA, pero la necesidad de tal razonamiento se ha vuelto especialmente urgente en los intentos de proporcionar una representación adecuada, es decir, sucinta y eficiente, para el razonamiento sobre las acciones y el cambio en la IA. En ambas áreas, la causalidad se ha convertido en un concepto de trabajo en las teorías formales correspondientes, lo que nos permite señalar los modelos previstos de descripción de sentido común. Estas novedosas aplicaciones también han confirmado que el razonamiento casual, es decir, preguntar por qué y buscar explicaciones, puede usarse como una herramienta formal de representación del conocimiento en IA. 


Sin embargo, estas aplicaciones también han hecho evidente que, aunque el razonamiento causal incluye una parte de la lógica importante, no es reducible a derivaciones lógicas, exigen lógica causal ingeniosa. En cambio, el razonamiento causal debe verse como una instancia de razonamiento general no monotónico. Los formalistas del razonamiento no monotónico han proporcionado un marco más adecuado para representar el concepto de casualidad en sí mismo. 


Supuestos causales y defactibilidad. El mundo, o más bien la parte de él con la que estamos familiarizados, exhibe, ya que todos debemos estar de acuerdo, una buena cantidad de regularidades de sucesión. Sostenemos que no exhibe ninguna característica llamada necesidad causal, sino que hacemos sentencias llamadas leyes causales de la cuales (es decir, habiendo hecho lo cual) procedemos a acciones y proposiciones conectadas con ellas de cierta manera, y decimos que un hecho afirmado en una proposición que es una instancia de la ley causal. 


El comentario anterior, puede verse como una mezcla particular de los puntos de vista de Hume y Mill sobre la causalidad. Sin embargo, su contenido constructivo y no metafísico está en gran medida de acuerdo con el enfoque de este manuscrito. En el sistema formal de razonamiento causal, las reglas causales funcionarán como suposiciones. Más precisamente, se verán como supuestos predeterminados: es decir, como afirmaciones (condicionales) que aceptamos y aplicamos siempre que no haya evidencia de lo contrario. Esta comprensión presuntiva y normativa hace que las suposiciones predeterminadas sean parcialmente distintas de las afirmaciones fácticas ordinarias. De acuerdo con el principio de la razón suficiente, las afirmaciones fácticas se aceptan solo cuando tenemos una razón por la que debemos aceptarlas. En el razonamiento causal, tales razones generalmente vienen en la forma de las causas de este hecho (de acuerdo con la ley de causalidad). No necesitamos razones para no aceptar afirmaciones fácticas, solo para su aceptación; en este sentido, no se aceptan “por defecto”. Por el contrario, en nuestro sistema formal de razonamiento causal, no necesitamos razones para la aceptación de las reglas causales, solo para su rechazo o cancelación. Esta posibilidad de cancelación hace que las reglas causales sean inviables, lo cual es una propiedad característica de los supuestos. Además, tales cancelaciones se representarán como parte de nuestro sistema de razonamiento causal utilizando reglas causales negativas para la prevención. Es importante tener en cuenta, sin embargo, que a diferencia de las refutaciones directas, las posibles prevenciones no cancelan el estado predeterminado de supuestos, para que podamos seguir utilizándolos en todas las demás situaciones que no impliquen tales prevenciones.


Los formalismos lógicos deductivos no pueden servir de base para el razonamiento con supuestos por defecto, principalmente porque tales formalismos son monótonos: preservan las conclusiones obtenidas bajo adiciones de cualquier otro hecho o suposición, incluso aquellas que contradicen los supuestos que han sido aceptados anteriormente. Para tratar con suposiciones, necesitamos un razonamiento no monotónico. 


En lugar de distinción entre supuestos y hechos, destacamos la importancia de una distinción entre las oraciones que describen mecanismos y las que describen observaciones, porque se presume que las primeras son estables mientras las segundas son transitorias. Aún así, es importante tener en cuenta que la noción clave del enfoque, es la intervención, proporciona una funcionalidad similar de cancelación para ecuaciones estructurales  (leyes) en términos de formación de submodelos. De hecho, un submodelo se produce cancelando una ecuación para una variable endógena particular y reemplazándola con un valor fijo.


El estado predeterminado de las reglas causales crea ventajas inmediatas para la representación  de las leyes causales que han sido un problema para las narrativas basadas en la lógica que hemos mencionado en la historia expuesta anteriormente.  Para empezar, en lugar de la incondicionalidad de las leyes de Mill, o la universalidad de las leyes de Hempel, nuestra representación hace que las reglas causales sean inviables desde el principio. Acordado así, dado su defecto, no hay necesidad de incluir en los antecedentes de tales leyes todas las condiciones negativas que excluyen posibles factores interferentes. En cambio, tales factores pueden introducirse modularmente agregando reglas causales apropiadas de prevención. 


Este enfoque de la causalidad basado en suposiciones en realidad hará que nuestras representaciones de las afirmaciones, cuales sean se presentan muy similares a sus descripciones de lenguaje de sentido común. Usando un ejemplo, es perfectamente legitimo decir que el golpe de A causó que la nariz de B sangrara y sintiera confianza en la verdad de esta afirmación, aunque nos resultaría difícil formular una ley general que pretenda especificar las condiciones bajo las cuales los golpes son invariablemente, o incodicionalmente seguidos de sangrado de la nariz. Además, incluso en este caso simple, existe la posibilidad lógica de que justo en el momento en que A golpeó, ¡B rompió independientemente un vaso sanguíneo! En otras palabras, incluso aquí nuestra afirmación causal es solo una suposición (inviable), aunque muy plausible.


Usamos reglas casuales y suposiciones en general cuando queremos extender nuestro conocimiento más allá de lo que se conoce de hecho. Necesitamos un conocimiento tan amplio para guiarnos en nuestras decisiones en situaciones ubicuas donde nuestro conocimiento fáctico, incluso junto con la lógica, no puede proporcionarnos suficiente información. El hecho de que el razonamiento no monotónico en general y el razonamiento causal en particular no estén lógicamente justificados los convierte en un negocio algo arriesgado. Sin embargo, en la mayoría de los casos de interés, esta es la mejor, si no la única, solución para nuestros problemas urgentes y cotidianos.


Por supuesto, el éxito de este esfuerzo de razonamiento causal depende en gran medida de la calidad y adecuación de nuestros supuestos causales. En este sentido, se ha logrado un progreso significativo en el problema de la búsqueda sistemática de tales supuestos utilizando algoritmos de descubrimiento causal, que es uno de los temas centrales. Sin embargo, toda la cuestión de descubrimiento o de hacer suposiciones causales queda fuera de este manuscrito. 


La necesidad en el razonamiento no monotónico en general y el razonamiento causal en particular se hacen especialmente evidentes cuando tratamos de proporcionar una descripción formal para las situaciones locales, porque en tales descripciones locales una gran parte del mundo debe permanecer fuera de su alcance. El problema, sin embargo, es que este mundo exterior puede influir en la validez de la mayoría de las proposiciones que pertenecen a nuestra intuición. Como resultado, una descripción puramente lógica de tales situaciones generalmente no produce mucha información. No es accidental que una semántica extremadamente simple y estándar para la lógica clásica se formule en términos de valoraciones completas, o mundos posibles, en lugar de situaciones locales. Sin embargo, el precio de su simplicidad es que es mucho menos adecuado para proporcionar una descripción útil de situaciones parciales. Esta semántica proporcionará un marco apropiado (así como un espacio lógico necesario) para la introducción de conceptos y herramientas no monotónicas. 


Se ha argumentado por Pearl que la causalidad no es necesaria en las descripciones de todo el universo, por lo que desaparece en los modelos correspondientes, porque las intervenciones  desaparecen: el manipulador y el manipulado pierden su distinción. Sin embargo, en la mayoría de los casos, el científico talla una pieza del universo, mientras que el resto del universo se considera fuera o en segundo plano y se asume en lo que llamamos condiciones del entorno. Según Pearl, es esta asimetría la que nos permite hablar de intervención externa y, por lo tanto de causalidad y direccionalidad causa-efecto. 


El razonamiento de sentido común utiliza muchas suposiciones para describir situaciones locales. Además de los supuestos causales, una gran parte de los supuestos se basan, en lo que normalmente debería mantenerse en una situación dada. El razonamiento de sentido común también emplea a menudo suposiciones formales, o estipulaciones, que no dependen de situaciones particulares. La estipulación más importante de este tipo es la negación por defecto, o negación como fracaso, según la cual se puede suponer que las afirmaciones negativas se mantienen por defecto: es decir, en ausencia de razones para aceptar la afirmación positiva correspondiente. Básicamente, esta estipulación nos permite restringir nuestras descripciones solo a proposiciones positivas y usar la negación predeterminada para hacernos de los valores de verdad del resto. En otras palabras, usando esta estipulación, también llama apropiadamente la suposición del mundo cerrado, una descripción parcial y positiva de una situación puede transformarse en una valoración completa, o un mundo “pequeño”, para todas las proposiciones relevantes del lenguaje. 


La primera descripción formal de esta suposición del mundo cerrado ha sido proporcionada por la circunscripción de McCarthy[35]. La noción relacionada de negación como fracaso juega un papel clave en la programación lógica moderna[36]. De hecho, el formalismo de la programación lógica puede ser visto como un caso especial de cálculo causal que utilizaremos a lo largo de esta discusión. Esto hace que los estudios recientes de razonamiento humano y la suposición del mundo cerrado sean especialmente relevantes para nuestro enfoque del razonamiento casual[37]. 


El concepto de negación como defecto crea un problema complejo cuando se combina con el concepto de causalidad. En el contexto casual, se reduce al conocido problema de la causalidad negativas; sus orígenes ya se pueden encontrar en el problema de las condiciones causales negativa; sus origines ya se pueden encontrar en el problema de las condiciones por Mill, aunque en realidad podrían remontarse aún más a los puntos de vista de Aristóteles sobre la negación y las demostraciones negativas. Este problema ocupará un lugar decente en lo que sigue. 


2.1.6.2 El cálculo causal 


Basados en las ideas Geffner[38], el cálculo causal se ha introducido como un formalismo no monotónico que pretende servir como base lógica para el razonamiento sobre la acción y el cambio en la IA. Una generalización del cálculo causal al lenguaje clásico de primer orden descrito por Lifschitz[39]. Esta línea de investigación ha dado lugar al lenguaje de descripción de acciones C+, que se basa en este cálculo y sirve para describir dominios dinámicos[40]. Una base lógica del cálculo causal ha sido descrita por Bochman, así como sus posibles usos como un formalismo no monotónico de propósito general[41]. Como tal comparte un punto de partida común tanto con una visión antigua de la causalidad (Aristóteles) como con su renacimiento moderno (Pearl) en el sentido de que nuestro conocimiento puede almacenarse en términos de relaciones causa-efecto[42]. En el lenguaje del cálculo causal, sin embargo, esta relación se representa directamente por las reglas causales de la forma “A causa B”, donde A y B son proposiciones clásicas. Los modelos de ecuaciones estructurales de Pearl resultan ser representables utilizando tales reglas, por lo que nuestro enfoque podría verse como una generalización (lógica) de esta última. 


Reglas causales, A causa B representarán principalmente leyes causales, es decir, afirmaciones causales generales (a nivel de tipo), por lo que naturalmente corresponderán a una serie de nociones de la literatura, como la suficiencia económica o causal, la determinación estructural y las regularidades similares a la ley. Al igual que para estos últimos, una regla  causal resultará ser un concepto inherentemente modal (en realidad se les asignará una semántica simple de muchas posibles). Sin embargo, en contraste con el paradigma de lógica moderna prevaleciente, este aspecto modal de la noción no jugará un papel significativo en nuestro marco lógico, mientras que el  estado de las reglas casuales como supuestos predeterminados se considerará indispensable.


Una forma plausible de interpretación de las reglas causales consistirá en verlas como mecanismos (causales) representativos. De hecho, esta interpretación jugará un papel esencial en nuestro enfoque de la causalidad real, aunque se basará en una comprensión más precisa de los mecanismos de lo que aparentemente se supone en los modelos de ecuaciones estructurales, puede representar una serie de diferentes mecanismos causales estables y autónomos. 


Como uno de sus objetivos primarios, una teoría causal debe determinar el conjunto de situaciones (o mundos) que satisfacen las reglas de la teoría. Sin embargo, una característica distintiva del razonamiento causal es que las situaciones relevantes están determinadas no solo por las reglas que pertenecen a la teoría causal, sino también por las que no pertenecen. En consecuencia, esta función semántica principal se realiza en el cálculo causal asignando a una teoría causal una semántica no monotónica particular. Según la interpretación pretendida, las situaciones que satisfacen una teoría causal no solo deben cerrarse con respecto a las reglas causales de la teoría, sino que también deben satisfacer la ley de causalidad, según la cual cualquier proposición que se sostenga en un modelo debe tener una causa en este modelo. 


La causalidad es una noción notoriamente difícil y compleja. En nuestro enfoque lógico, esta complejidad se reflejará en el hecho de que el cálculo causal no es un sistema lógico simple con axiomas estipulados, sino un formalismo esencialmente no monotónico en el que la lógica y la semántica no monotónica están estrechamente entrelazadas.


2.1.6.3 Causalidad, leyes y contrafácticos 


Tradicionalmente, el trío de nociones de causalidad, contrafácticos y leyes ha estado en el corazón de la filosofía de la ciencia, y las relaciones entre ellas han sido el foco de muchas discusiones y controversia. Una base innegable de estas discusiones, sin embargo, siempre ha sido el hecho de que estas tres nociones están estrechamente correlacionadas, o usando la frase de David Lewis, están rígidamente sujetas entre sí, balanceándose juntas en lugar de por separado. Parece razonable suponer que incluso los problemas encontrados en numerosos intentos de proporcionar un análisis preciso para cada una de estas nociones comparten la misma fuente conceptual. 


La correlación anterior obviamente ha requerido explicación, y se han sugerido muchos enfoques que intentaron definir prácticamente cada uno de estos tres conceptos en términos del resto. En particular, un análisis reducido de la causalidad ha sido sugerido (en efecto por Mill en términos de leyes y David Lewis en términos de contrafácticos). Más recientemente, el marco de los modelos de ecuaciones estructurales ha proporcionado una base rigurosa para razonar con estos conceptos, pero no ha puesto fin a la controversia. 


Según Pearl, los bloques de construcción básicos de la explicación estructural de la causalidad son ecuaciones estructurales, que son funciones que representan mecanismos similares a la ley. Estas ecuaciones pueden ser vistas naturalmente como contrapartes formales de leyes (causales) ya que describen relaciones genéricas (a nivel tipo) entre variables que son aplicables a cada escenario hipotético. Es por eso que son capaces de determinar los contrafácticos correspondientes (a través de las nociones de intervención y submodelo). Hablando de manera más general, las ecuaciones estructurales proporcionan toda la información necesaria para apoyar diversas afirmaciones casuales y contrafácticas y, en particular, las afirmaciones de causalidad singular o real. 


Aunque en el enfoque formal de Pearl las ecuaciones estructurales se tomaron como primitivas, un influyente grupo de filósofos e investigadores ha continuado el legado de David Lewis al argumentar que los contrafácticos, de una manera u otra, aún deberían disfrutar de un estatus principal en el razonamiento causal. El propio Pearl ha argumentado que las ecuaciones estructurales y los contrafácticos son básicamente formalismos equivalentes. Algunos investigadores han visto las ecuaciones estructurales en sí mismas como un modo formal de representar ciertos contrafácticos privilegiados[43]. Este punto de vista ha sido compartido por los oponentes del enfoque estructural[44]. 


En un enfoque más elaborado de Woodward[45], el objetivo principal era proporcionar una explicación manipuladora (contrafáctica) de las nociones casuales que Pearl ha tomado como primitivas. Según Woodward, los hechos sobre los patrones de dependencia contrafácticos son más básicos que los hechos sobre qué causa qué, y la esencia del relato de manipulación se puede poner en un eslogan: no hay causalidad diferente sin diferencia en las relaciones de manipulación, y ninguna diferencia en las relaciones de manipulación hay sin una diferencia causal. 


Parece que esta línea de pensamiento también ha influenciado en la mayor parte de los enfoques contrafácticos recientes de la casualidad real en el marco de las ecuaciones estructurales, incluidas las definiciones contrafácticas de casualidad sugeridas por Pearl y Halpern. 


En la teoría sugerida en este manuscrito, las leyes causales de la forma A implica B serán vistas como un concepto básico mientras que, como en el relato estructural, tanto los contrafactuales como la causalidad (real) se definirán en términos de ella. Ademas, utilizando una traducción de ecuaciones estructurales en el cálculo causal, confirmaremos formalmente que las ecuaciones estructurales y los contrafactuales casuales son formalismos equivalentes. Sin embargo, nuestra definición de causalidad real, no utilizará contrafácticos; en cambio, se basará en (una versión causal de) el enfoque de regularidad tradicional: la prueba NESS[46]. Además, se demostrará que los contrafactuales (y por lo tanto también las ecuaciones estructurales) no se pueden usar para definir esta noción de causalidad real porque borran las distinciones entre ciertas descripciones casuales que podrían producir diferentes afirmaciones de causalidad real.  Esta deficiencia está íntimamente relacionada con el conocido problema de los equivalentes estructurales en la suma de la estructura. De la misma manera, se demostrará que tanto los contrafácticos como las ecuaciones estructurales son formalismos menos expresivos que el cálculo causal, lo que significa, en particular, que esta última teoría no puede traducirse ni a ecuaciones estructurales ni a contrafácticos.


Tim Maudlin ha argumentado que la casualidad y los contrafácticos son nociones analíticamente independientes[47], mientras que las correlaciones entre ellas se deben al tercer factor común: es decir, leyes naturales y regularidades similares a las leyes que proporcionan una base última para ambas. Este punto de vista es notablemente cercano a la representación sugerida de la causalidad en el cálculo causal, ya que en este último las reglas causales servirán como leyes causales que proporcionan una base última para el razonamiento casual, incluidos tanto los contrafácticos como la causalidad real. Ademas, en plena conformidad con los puntos de vista de Maudlin, nuestra perspectiva   sobre las definiciones de estos conceptos no tendrán conexiones analíticas directas entre sí, aunque ambas se formularán en términos de reglas causales. 


El relato estructural de Pearl asigna un papel primordial a las intervenciones y contrafácticos en el razonamiento causal, y los resultados de esta discusión no deben interpretarse como un argumento en contra de este papel. Estos resultados sugieren, sin embargo, que las relaciones causales entre contrafácticos y la casualidad son menos directas de lo que se ha pensado habitualmente, especialmente para la casualidad real. De hecho, nuestro relato modificado de la causalidad real, sostendrá que la idea de que nuestras afirmaciones causales no están completamente determinadas por el mundo real, sino que requieren la comparación con mundos alternativos “contrafácticos”. 


2.1.7 Antecedentes de la era cuántica


Antes de la era cuántica los científicos habían sido definitivos en sus declaraciones sobre la causa y el efecto y, precisamente cómo los objetos se mueven a lo largo de caminos bien definidos, ya que responden a varias fuerzas aplicadas a ellos. Pero la ciencia clásica que había evolucionado desde las brumas de la historia, hasta finales del siglo XIX, siempre implicaba descripciones de cosas que son colecciones de un gran número de átomos. Por ejemplo, unos millones de billones de átomos están contenidos en un solo grano de arena. A principios del siglo XX, el exigente edificio de la física con sus predicciones precisas para el comportamiento de objetos llenos de enormes orquestas de átomos, todo se estrelló contra el suelo. A través de la experimentación recientemente refinada y altamente sofisticada, las propiedades de los átomos individuales, e incluso las partículas más pequeñas que están contenidas dentro de ellos, ahora entraron en el escenario, actuando en solitario o en pequeños conjuntos. El comportamiento observado del átomo individual fue impactante para los primeros científicos que estaban despertando del mundo clásico. 


Estos exploradores del nuevo mundo, los vanguardistas de la física moderna de la época atómica, incluían figuras luminarias como Heinrich Hertz, Ernest Rutherford, J.J. Thompson, Niels Bohr, Marie Curie, Werner Heisenberg, Erwin Schrödinger, Paul Dirac, Luis-Victor de Broglie, Albert Einstein, Max Born, Max Planck, Wolfgang Pauli, y muchos más. Este grupo estaba tan conmocionado por lo que encontraron dentro del átomo como lo habrían estado los viajeros de una nave estelar al encontrarse con una civilización alienígena a través de los vastos confines del universo. La nueva confusión producida por los primeros datos dio paso gradualmente a los esfuerzos desesperados de estos científicos para restaurar el orden y la lógica en este nuevo mundo. Sin embargo, a finales de la década de 1920, la lógica básica de las propiedades del átomo, que definen toda la química y la materia cotidiana, finalmente, se construyó. Los humanos habían comenzado a comprender este nuevo y extraño mundo cuántico.


A principios de 1900 sabían que las nuevas y extrañas leyes cuánticas que rigen el átomo eran primarias y fundamentales para todo, en todas partes del universo. Puesto que todos estamos hechos de átomos, no podemos escapar de las implicaciones de la realidad del dominio atómico. Así descubrimos un mundo  maravilloso, ¡y somos nosotros!


Las impactantes implicaciones de los nuevos descubrimientos científicos desconcertaron a muchos de los científicos que los descubrieron. Al igual que las revoluciones políticas, la teoría cuántica consumió mentalmente a muchos de sus primeros pensadores. Su discusión no fue sobre conspiraciones impulsadas por otros, sino más bien nuevos problemas filosóficos profundos e inquietantes sobre la realidad. Cuando surgió toda la fuerza de la revolución conceptual hacia finales de la década de 1920, muchos de los creadores de la teoría cuántica, incluyendo nada menos que a Albert Einstein, quien reprendió que la teoría tenía una mano significativa en la creación. Sin embargo, a medida que nos sumergimos en el siglo XXI, tenemos una teoría cuántica que funciona en todas las situaciones a las que la hemos aplicado, que nos ha entregado transistores, láseres, energía nuclear, nanosensores y otros inventos y conocimientos. Todavía, hay intentos de grandes esfuerzos por parte de distinguidos físicos de encontrar una comprensión más amable y suave de la teoría cuántica, menos disruptiva para la zona de confort de la intuición humana. Pero tenemos que ponernos de acuerdo con la ciencia de este pensamiento. 


La intuición se basa en la experiencia humana previa, pero incluso en este sentido, la mayor parte de la ciencia clásica anterior era en sí misma contraria a los descubrimientos de sus contemporáneos. La visión de Galileo sobre el movimiento de los cuerpos en ausencia de fricción fue extremadamente contraintuitiva en su tiempo. Pocas personas habían experimentado o considerado un mundo sin fricción. Pero la ciencia clásica que emanaba de Galileo redefinió nuestro propio sentido de la intuición durante los trescientos años hasta 1900, y parecía impermeable a cualquier cambio radical. Eso fue hasta que los descubrimientos de la física cuántica trajeron un nivel completamente nuevo de choque contraintuitivo y existencial. 


Para entender, el átomo, para crear una síntesis de los fenómenos aparentemente contradictorios que salieron de los laboratorios en el período de 1900-1930, significaron que las actitudes y disciplinas tenían que radicalizarse. Las ecuaciones, que en la escala macro hicieron predicciones agudas sobre eventos, ahora rindieron solamente posibilidades, y cada posibilidad ahora podría computar solamente una probabilidad de la ocurrencia física real de un acontecimiento. Las ecuaciones de Newton de exactitud absoluta y certeza fueron reemplazadas por las nuevas ecuaciones de Schrödinger de indeterminación y probabilidad. 


¿Cómo se exhibe esta indeterminación en la naturaleza a nivel atómico? Lo hace en muchos lugares, pero aquí se puede dar un ejemplo sencillo. En el laboratorio aprendemos que si tenemos una colección de algunos átomos radiactivos, como el uranio, la mitad del número de átomos desaparecerá dentro de un cierto tiempo, evento referido “vida media”. Después de otro período de tiempo igual a la vida media, los átomos restantes se reducen de nuevo a la mitad, por lo tanto, después de dos intervalos vida media, solo nos queda una cuarta parte del número original de átomos radiactivos, después de tres vidas medias, solo tenemos una octava parte del número original; y así sucesivamente. Podemos, en principio, con suficiente esfuerzo y ultimando la física cuántica, calcular la vida media de los átomos de uranio. Muchos otros periodos de desintegración atómica se pueden calcular de manera similar para partículas fundamentales, lo que mantiene átomos, núcleos y partículas. La teoría cuántica sin embargo, simplemente no puede predecir cuándo desaparecerá un átomo de uranio.


Este es un resultado discordante. Si los átomos de uranio estuvieran realmente gobernados por las leyes clásicas newtonianas de la física, entonces habría algún mecanismo interno en acción que, con suficiente detalle de estudio, nos permitiría predecir escasamente cuándo  se desintegraría un átomo en particular. Las leyes cuánticas no son solo ciegas a tal mecanismo interno, dándonos solo un resultado probabilístico difuso por mera ignorancia. Más bien, la teoría cuántica afirma que la probabilidad es todo lo que uno puede saber sobre la desintegración de un átomo en particular. 


Consideremos otro ejemplo de este aspecto cuántico del mundo: si dos fotones exactamente idénticos (las partículas que componen la luz) se dirigen exactamente de la misma manera a una ventana de vidrio, uno o ambos fotones pueden penetrar en el vidrio o uno o ambos pueden reflejarse. La nueva física cuántica no puede predecir exactamente cuál de los fotones se refleja o penetra. No podemos, ni siquiera en principio, conocer el futuro exacto de un fotón en particular. Solo podemos calcular las probabilidades de las diversas posibilidades. Podemos calcular, usando la física cuántica, que “cada fotón tiene una probabilidad del 10% de reflejarse en el vidrio y una probabilidad del 90% de ser transmitido a través del vidrio”. Pero es todo. La física cuántica, proporciona un procedimiento correcto, de hecho, el único procedimiento correcto, para entender cómo funcionan las cosas. También proporciona la única manera de comprender la estructura atómica, los procesos atómicos, la formación de moléculas y la emisión de radiación (toda la luz que vemos viene de átomos). En años posteriores demostró ser igualmente exitosa en la comprensión de los núcleos de los átomos, cómo los quarks están eternamente unidos dentro de los protones y neutrones del núcleo atómico, y cómo el Sol genera su enorme producción de energía.


Entonces, ¿cómo la física de Galileo y Newton, que dramáticamente no describen el átomo, predicen tan elegantemente cuándo ocurrirán los eclipses solares, el regreso del cometa Halley en 2061 (jueves por la tarde) y las trayectorias exactas de los vehículos espaciales? Todos dependemos del éxito de la física newtoniana para asegurarnos de que las alas de los aviones permanezcan unidas y puedan volar, o que los puentes y rascacielos permanezcan estables en el viento, o que las herramientas quirúrgicas robóticas sean precisas. ¿Por qué funciona todo tan bien si la teoría cuántica dice enfáticamente que el mundo realmente no funciona de esta manera después de todo?

Resulta que en un gran objeto formado por un gran número de átomos, como un puente o un rascacielos, los comportamientos cuánticos espeluznantes y contraintuitivos, que están cargados de azar e incertidumbre promedian la aparente  previsibilidad adecuada y precisa de la física newtoniana clásica. Entonces, la respuesta corta  es “La estadística”.  Es un poco como la declaración estadística exacta de que el hogar  mexicano en promedio tiene 5.4 residentes, lo que puede ser una declaración bastante precisa, a pesar de que ni un solo hogar tiene 5.4 residentes. 


En el mundo moderno del siglo XXI, la física cuántica se ha convertido en el elemento básico de todo átomo y de toda búsqueda subatómica, así como la investigación de materiales e investigación cósmica. Muchos billones de dólares al año se generan como fruto de la teoría cuántica en la electrónica y otras áreas, debido a la eficiencia que ha traído la comprensión del mundo cuántico. 


Una nueva hipótesis estaba ganando fuerza en la comunidad científica a finales del siglo XIX y principios del siglo XX, que los átomos estaban compuestos por un núcleo central denso con electrones orbitando a su alrededor, como los planetas alrededor del Sol. Heisenberg reflexionó sobre el comportamiento de los electrones en los átomos y se dio cuenta de que no requería ningún conocimiento de las trayectorias orbitales precisas de los electrones alrededor del núcleo. Los electrones parecían sufrir misteriosos saltos de una órbita a otra que iban acompañados de la emisión de luz de un color muy preciso y definido (los colores son “frecuencias” de la onda de luz emitida).   


Heisenberg podía dar algún sentido matemático a esto, pero no necesitaba una imagen mental de un átomo como un pequeño sistema solar con electrones moviéndose en órbitas definidas para hacerlo. Finalmente dejó de intentar calcular la trayectoria de un electrón si se liberaba en el punto A y se detectaba en el punto B. Y Heisenberg comprendió que cualquier medición hecha en el electrón entre A y B necesariamente perturbaría cualquier camino hipotético en el que estuviera el electrón. Heisenberg desarrolló una teoría que daba resultados precisos para la luz emitida por los átomos, pero que no requería conocimiento del camino tomado por los electrones. Vio que, en última instancia, solo existen posibilidades de eventos y sus probabilidades de ocurrir, con incertidumbres intrínsecas. Esta fue la nueva realidad emergente de la física cuántica.


La revolucionaria solución de Heisenberg a los resultados de un conjunto de experimentos desconcertantes sobre física atómica liberó el pensamiento de su predecesor, Niels Bohr, el padre- abuelo de la teoría cuántica. Bohr llevó las ideas radicales de Heisenberg un gran paso adelante, tanto que incluso Heisenberg se sorprendió. Finalmente se recuperó para unirse a la idea de Bohr, mientras que muchos de sus colegas mayores y distinguidos no lo hicieron. Lo que Bohr argumentó fue que si el conocimiento de la trayectoria particular de un electrón no era relevante para determinar el comportamiento atómico, entonces la idea misma de una “órbita” de electrones particulares y bien definida, como la de un planeta que rodea una estrella, debe ser un concepto sin sentido y, por lo tanto, debe ser abandonada. 


La observación y la medición con la actividad definitoria última; el acto de medición en sí mismo obliga a un sistema a elegir una de sus diversas posibilidades. En otras palabras, la realidad no está simplemente disfrazada por la confusión de una medición incierta, sino que es erróneo incluso pensar que la realidad produce certeza en el sentido galileano convencional cuando se llega a un nivel atómico de la naturaleza.


En la física cuántica, parece haber una conexión misteriosa entre el estado físico de un sistema y la conciencia del observador. Pero es realmente el acto de medición por cualquier otro sistema lo que restablece, o “colapsa”, el estado cuántico en una de sus innumerables posibilidades. Esto es espeluznante, considere a los electrones, uno a la vez, que pasan a través de uno de los dos agujeros en una pantalla, y cómo el patrón observado de los electrones, detectando estos en la pantalla, depende de si alguien o algo sabe por qué agujero pasó (o no pasó) el electrón, en otras palabras, si se ha hecho una “medición” en qué agujero pasó el electrón. Si es así, obtenemos un cierto resultado. Pero si no, obtenemos un resultado completamente diferente. Los electrones parecen inquietantemente tomar ambos caminos a la vez si nada está mirando, ¡pero como demostrar un camino definido si alguien o algo está mirando! No son partículas ni ondas, son ambas y tampoco, son algo nuevo, son estados cuánticos. 


No es de extrañar que los físicos que habían participado en las fases formativas de la ciencia atómica no pudieran aceptar estos extraños sucesos. La mejor cara para poner a la interpretación de Heisenberg/Bohr de la realidad cuántica, a veces llamada la “interpretación de Copenhage”, es que cuando medimos algo en el dominio atómico, introducimos una interferencia importante en su estado mismo, en otras palabras, los instrumentos de medición. Al final, sin embargo, la física cuántica simplemente no corresponde a nuestro sentido innato de la realidad. Debemos aprender a acostumbrarnos a la teoría cuántica jugando con ella y probándola, haciendo experimentos y estableciendo problemas teóricos que ejemplifiquen diversas situaciones, familiarizándonos con ella a medida que avanzamos. Al hacerlo, desarrollamos una nueva “intuición cuántica”, tan contradictoria como todo puede parecer inicialmente. 


Otro gran avance cuántico, totalmente independiente del de Heisenberg, tuvo lugar en 1925 por otro físico teórico, también de vacaciones no tan solitario. Erwin Schrödinger, formó una de las colaboraciones más famosas, con su amigo el físico Herman Weyl. Weyl fue un poderoso matemático que jugó un papel decisivo en el desarrollo de la relatividad y la teoría relativista del electrón. Weyl ayudó a Schrödinger con sus matemáticas, y a cambio,  Schrödinger permitió que Herman durmiera con su esposa, Anny. No sabemos cómo se sentía Anny al respecto, pero tales experimentos en las relaciones matrimoniales no eran infrecuentes entre los intelectuales de la sociedad vienesa victoriana tardía. Este arreglo tuvo el beneficio colateral de permitirle a Schrödinger la libertad de disfrutar de copiosas relaciones extramatrimoniales, una de las cuales condujo (más o menos) a uno de los grandes descubrimientos de la teoría cuántica. 


2.1.7.1 La superposición de todas la posibilidades


…cuando uno mira, se revela una de ellas


En diciembre de 1925, Schrödinger partió para unas vacaciones de dos semanas y media a una villa en la ciudad suiza de Arosa. Dejo a Anny en casa y fue acompañado por una vieja amiga vienesa. También llevó consigo algunos artículos científicos, del físico francés Louis de Broglie, y dos perlas. Colocó una perla en cada oído y estudiando detenidamente los papeles de Broglie, Schrödinger inventó la “mecánica cuántica”. La mecánica ondulatoria era una forma novedosa de descomponer la realidad en una ecuación de onda que superpone todo lo que existe. Este gran avance promovió significativamente la incipiente ciencia de la física cuántica a una audiencia mucho más amplia a los propios físicos. La ahora famosa ecuación de Schrödinger, puede haber acelerado el progreso de la civilización, pero llevó a su fundador a un error de interpretación, que corregiría Max Born. Es sorprendente que Schrödinger más tarde se arrepintiera de haber publicado esta obra de literatura, debido a la revolución en el pensamiento, la ingeniería y la filosofía que inspiró.


Schrödinger hizo ver al electrón -en términos matemáticos- como una onda. El electrón, que antes se pensaba que era una esfera dura, también se comporta como una onda en ciertos experimentos. Los fenómenos ondulatorios son familiares para los físicos. Hay innumerables ejemplos de ondas, sonido, luz, aire, sólidos, gravedad, microondas. Todos estos eran bien comprendidos por los físicos en esos días. Schrödinger insistió en que las partículas, como el electrón, eran en realidad a nivel cuántico atómico un nuevo tipo de onda: eran ondas de materia. Tan extraño como sonaba, su ecuación era conveniente para que los físicos la usaran y parecía encontrar todas las respuestas correctas de una manera directa. La mecánica ondulatoria de Schrödinger dio un cierto consuelo a la comunidad física, cuyos miembros estaban luchando por comprender el área floreciente de la teoría cuántica y que, tal vez, encontraron la teoría de Heisenberg demasiado abstracta. 


En esta idea, la superposición de espacio, gravedad, carga eléctrica, tiempo, temperatura (radiación),… se hace el factor clave de la ecuación Schrödinger, es la solución a la ecuación de onda, que describe la onda electrónica. Se denota por el símbolo griego Ψ (psi).  Ψ se conoce como la función de onda  y contiene todo lo que sabemos o podemos saber sobre el electrón. Cuando uno resuelve la ecuación, da Ψ, en función del espacio y el tiempo; en otras palabras, la ecuación de Schrödinger, nos dice cómo varía la función de onda a lo largo del espacio y cómo cambia con el tiempo. 


Schrödinger podía aplicar Ψ al átomo de hidrógeno y determinar completamente qué tipo de danza estaban haciendo los electrones en el átomo: las ondas de electrones, descritas por Ψ, de hecho estaban sonando en varios patrones undulatorios, al igual que los patrones de timbre de una campana u otro instrumento musical. Es como tocar las cuerdas de violines o guitarras; a las vibraciones resultantes de las ondas de materia se les podría asignar una forma definida y observable de una cierta cantidad de energía. La ecuación de Schrödinger dio así los valores correctos de los niveles de energía vibratoria de los electrones en un átomo. Los niveles de energía del átomo de hidrógeno habían sido previamente determinados por Bohr en su primera suposición de una teoría cuántica. Este átomo emite luz de energía definida, las líneas espectrales de luz, y ahora se ve que están asociadas con los electrones que saltan de un estado de movimiento de onda vibratorio de Ψ1 a Ψ2. 


Tal era el poder de la ecuación de Schrödinger, que uno podría visualizar fácilmente los patrones de onda observando la forma matemática de Ψ. El concepto de onda podría aplicarse fácilmente a cualquier sistema de muchos electrones, átomos enteros, moléculas, cristales y metales con electrones, protones y neutrones en movimiento en el núcleo del átomo, y partículas actuales compuestas por Quarks, los bloques de construcción básicos de protones y neutrones y toda la materia nuclear. 


En la mente de Schrödinger, los electrones eran exclusivamente ondas, como ondas de sonido o agua, como si su aspecto de partícula pudiera olvidarse o fuera ilusorio. En la interpretación de Schrödinger,  Ψ era un nuevo tipo de onda de materia, simplemente. Pero en última instancia, la interpretación de Schrödinger de su propia ecuación resultó ser errónea. Si bien Ψ tenía que representar algún tipo de onda, ¿qué era exactamente esta onda? Los electrones todavía se comportaban, paradójicamente, como partículas milimétricas produciendo puntos precisos al impactar en una pantalla fluorescente. ¿Cómo se iba a reconciliar este comportamiento con la onda de materia  Ψ?


El físico alemán Max Born (abuelo de la cantante Olivia Newton-John) pronto ideó una mejor interpretación de la onda de materia de Schrödinger, y se ha convertido en el principal principio de la nueva física hasta el día de hoy. Born afirmó que la onda asociada con el electrón era una onda de probabilidad. Born dijo que en realidad es el cuadrado matemático de Ψ^2, que representa la probabilidad de encontrar el electrón en una ubicación x en el espacio tiempo t. Dondequiera que, en el espacio o el tiempo Ψ^2 sea grande, hay una gran posibilidad de encontrar el electrón. Dondequiera que Ψ^2 sea pequeña, hay pocas posibilidades de encontrar el electrón. Al igual que el avance de Heisenberg, esta fue la última idea impactante, pero presentaba como imagen más clara y fácil de comprender de Schrödinger de las cosas. Todo el mundo lo entendió ahora, finalmente y de una vez por todas. 


Born estaba diciendo claramente que no sabemos y no podemos saber, exactamente dónde está el electrón. ¿Esta aquí? Bueno, hay un 85% de posibilidad de que lo esté. ¿O está ahí? Podría ser, con un 15% de probabilidad. La interpretación de la probabilidad definió claramente lo que se podía o no predecir exactamente sobre cualquier experimento dado en el laboratorio. El gran predictor, es decir, la mecánica cuántica, estaba listo para la impulsar la industria electrónica y en particular la era digital del conocimiento en red. Las partículas parecen darse el lujo de definir dónde estar y qué hacer, sin tener en cuenta las reglas férreas de causa y efecto que uno normalmente había asociado con la ciencia clásica. En la nueva teoría cuántica, Dios de hecho juega a los dados con el universo. 


2.1.7.2 Nacimiento de la biología cuántica


¿Qué tiene que ver toda esta rareza cuántica con el vuelo migratorio del petirrojo por el mundo? En los 1970 Wiltschkos estableció que el sentido magnético del petirrojo funciona de la misma manera que una brújula de inclinación[48]. Esto fue extraordinariamente desconcertante porque, en ese momento, nadie tenía idea de cómo podría funcionar una brújula de inclinación biológica. Sin embargo, casi al mismo tiempo, un científico alemán llamado Klaus Schulten se interesó en cómo se transfieren electrones en las reacciones químicas que involucran radicales libres[49]. Estas son moléculares que tienen electrones desapareados en su capa externa de electrones, en contraste con la mayoría de los electrones, que están emparejados en órbitas atómicas. Esto es importante cuando se considera esa extraña propiedad cuántica del espín, ya que los electrones emparejados tienden a girar en direcciones opuestas, por lo que su espín total se anula a cero. Pero, sin un gemelo útil a la cancelación de espín, los electrones solitarios en los radicales libres tienen un espín neto que les da una propiedad magnética: su espín puede alinearse con un campo magnético externo. 


Schulten propuso que los pares de radicales libres generados por un proceso conocido como reacción rápida de triplete, los electrones correspondientes podrían encontrarse bajo un "entrelazamiento cuántico”. Por razones sutiles, diremos que un estado cuántico tan delicado de los dos electrones separados es altamente sensible a la dirección de cualquier campo magnético externo. Schulten luego propuso que la enigmática brújula aviar podría estar utilizando este tipo de mecanismos de entrelazamiento cuántico. 


Todavía no hemos discutido en nuestros manuscritos el entrelazamiento cuántico por que es probablemente la característica más extraña de la mecánica cuántica. Permite que las partículas que una vez estuvieron juntas permanezcan en comunicación instantánea, casi mágica, entre sí, a pesar de estar separadas por grandes distancias (años luz incluso). Por ejemplo, las partículas que alguna vez estuvieron cerca pero luego se separan tanto como para ubicarse en lados opuestos del universo, al menos en principio y seguir conectadas. En efecto, empujar una partícula haría que su compañero distante saltara instantáneamente. Los pioneros cuánticos demostraron que el entrelazamiento se deriva naturalmente de sus ecuaciones, pero sus implicaciones eran tan extraordinarias que incluso Einstein, que nos dio los agujeros negros y la curvatura del espacio tiempo, se negó a aceptarlo, ridiculizando esto como “acción espeluznante a distancia”. Y, de hecho, es esta acción espeluznante la que a menudo integra a los “místicos cuánticos” que se hacen extravagantes para el entrelazamiento cuántico, por ejemplo, que explican “fenómenos” paranormales como la telepatía. Einstein era escéptico porque el entrelazamiento parecía violar su teoría de la relatividad, que afirma que ninguna influencia o señal puede viajar a través del espacio más rápido que la velocidad de la luz. Las partículas distantes no deberían, según Einstein, poseer conexiones espeluznantes instantáneas. En esto, Einstein estaba equivocado: ahora sabemos empíricamente que las partículas cuánticas realmente pueden tener enlaces instantáneos de largo alcance. Pero, en caso de que te lo estés preguntando, el entrelazamiento cuántico no se puede invocar para validar la telepatía. 


La idea de la extraña propiedad cuántica del entrelazamiento estaba involucrada en reacciones químicas ordinarias, se consideró extravagante a principios de 1970. En ese momento, muchos estaban con Einstein dudando de si las partículas entrelazadas realmente existían. Ya que nadie las había detectado todavía. Pero a lo largo de las décadas  los experimentos confirmaron la realidad de estas conexiones espeluznantes y el más famoso de ellos fue realizado en 1982 por Alain Aspect en París[50]. 


El equipo de Aspect generó pares de fotones (partículas de luz) con estados de polarización entrelazados. La polarización de la luz es probablemente más familiar para nosotros a través del uso de gafas de sol polarizadas. Cada fotón de luz tiene una especie de direccionalidad, su ángulo de polarización, que es un poco como propiedad de giro espín. Los fotones de luz solar vienen en todos los ángulos de polarización posibles, pero las gafas de sol polarizadas los filtran, permitiendo pasar solo aquellos fotones que tienen un ángulo de polarización particular. Aspect genera dos fotones con direcciones de polarización que no solo eran diferentes, no digamos que uno apuntaba hacia arriba y el otro hacia bajo, sino que se entrelazaban, ambos apuntaban en ambas direcciones simultáneamente, hasta que fueron medidos. 


La medición es uno de los aspectos más mentirosos y ciertamente más discutidos de la mecánica cuántica, ya que se relaciona con la pregunta que estamos seguros ya se te ha ocurrido: ¿por qué no todos los objetos que vemos hacen estas cosas extrañas y maravillosas que las partículas cuánticas pueden hacer? La respuesta es que, en el mundo cuántico microscópico, las partículas pueden comportarse de estas maneras extrañas, como hacer dos cosas a la vez, poder pasar a través de paredes o poseer conexiones espeluznantes, solo cuando nadie está mirando. 


Una vez que son observadas, o medidas de alguna manera, pierden su rareza y se comportan como los objetos clásicos que vemos a nuestro alrededor. Pero luego, por supuesto, esto solo arroja otra pregunta: ¿qué tiene de especial la medición que le permite convertir el comportamiento cuántico en comportamiento clásico? La repuesta a esta pregunta es crucial para nuestra historia, porque la medición se encuentra en la frontera entre los mundos cuánticos y clásicos, el borde cuántico, donde para nosotros, como habrás adivinado, también está presente en la biología.


Por ahora, diremos que cuando una propiedad cuántica, como el estado de polarización, es medida por un instrumento científico, entonces se ve instantáneamente  obligada a olvidar sus habilidades cuánticas, como apuntar en muchas direcciones simultáneamente, y debe asumir una propiedad clásica o  convencional, como apuntar en una sola dirección. Aspect midió el estado de polarización de uno de los cualquier par de fotones entrelazados, al observar si podía pasar a través de una lente polarizada, instantáneamente perdió su espeluznante conexión con su pareja y adoptó una sola dirección de polarización. Y también lo hizo su compañero, al instante, sin importar cuán lejos estuviera; al menos, eso es lo que predecían las ecuaciones de la mecánica cuántica, que era, por supuesto, exactamente lo que inquietó a Einstein.


Aspect y su equipo llevaron a cabo su famoso experimento para pares de fotones, separados por varios metros, lo suficiente como para que ni siquiera una influencia a la velocidad de la luz pudiera haber pasado entre ellos para coordinar sus ángulos de polarización. Sin embargo, las mediciones en partículas apareadas estaban correlacionadas: cuando la polarización de un fotón apunta hacia arriba, se encontró que la del otro apunta hacia abajo. Desde 1982, el experimento se ha repetido incluso para partículas separadas por cientos de kilómetros, y todavía poseen esa espeluznante conexión entrelazada que Einstein no pudo aceptar. 


El experimento de Schulten no tenía idea de cómo una reacción química tan oscura podría permitir que un petirrojo viera el campo magnético de la Tierra. Decimos “ver” aquí debido a otro peculiar experimento, descubierto por Wiltschokos. A pesar de que el petirrojo era un migrante nocturno, la activación de su brújula magnética requería una pequeña cantidad de luz en las frecuencias extremas de azul del espectro visible, lo que sugiere que los ojos del ave desempeñan un papel importante en cómo funciona. Pero, aparte de la visión, ¿cómo sus ojos también ayudan a proporcionar un sentido magnético? Con o sin mecanismo de par radical, esto era un completo misterio.


La teoría de que la brújula aviar tenía un mecanismo cuántico languideció en el cajón trasero científico durante unos veinte años. Más tarde, Schulten propuso biomoléculas que son fabricadas por células vivas que podrían generar los pares de radicales necesarios para la reacción de triplete. Pero ninguna encajaba realmente en el hecho,  o no podían generar parejas de radicales o no estaban presentes en los ojos de los pájaros. Pero en 1998 Schulten leyó que se había encontrado un enigmático receptor de luz, llamado criptocromo en los ojos de animales[51]. Esto inmediatamente puso su campana de alarma científica, porque se sabía que el criptocromo era una proteína que potencialmente podría generar  radicales.


Un estudiante de Schulten del doctorado en la Universidad de Frankfurt, decide estudiar la brújula aviar[52]. Fue con Thorsten Ritz, cuando se abre la historia del criptocromo, escribió un artículo en el año 2000 “un modelo para la magnetorrecepción basado en fotorreceptores en aves”, describe cómo el criptocromo podría proporcionar al ojo aviar una brújula cuántica. Ritz y Wiltschkos asociados, aportaron la primera evidencia experimental en apoyo de esta teoría de que las aves utilizan el entrelazamiento cuántico para navegar por todo el mundo, en 2004 fue publicado en la revista Nature, instantáneamente la biología cuántica nació como ciencia[53]. 


2.1.7.3 Átomos y moléculas 


Los componentes básicos microscópicos de la materia: átomos y moléculas. Estas son las partículas más pequeñas responsables de las propiedades características de los gases, líquidos y sólidos. Aunque con las técnicas modernas pueden dividirse en partículas aún más pequeñas, como electrones, protones y neutrones, estas últimas "partículas elementales" no tienen los rasgos característicos del cuerpo macroscópico específico formado por átomos o moléculas. Es necesario dar lugar a la teoría cuántica  en la diversidad de cuerpos macroscópicos llamados compuestos y sus propiedades  relacionadas con su composición de átomos y moléculas.  Un tema muy importante de la física atómica es la interacción de los átomos y moléculas con la radiación electromagnética, que puede ser absorbida o emitida por estas partículas. Los fotones, o “cuantos de energía”, son los constituyentes de la radiación electromagnética y son creados o aniquilados por la materia. Por lo tanto, forman una parte esencial del mundo microscópico. La “física clásica” ya era una teoría cerrada bien establecida a fines del siglo XIX y podía explicar casi todos los aspectos de campos como la mecánica, la electrodinámica y la óptica. Solo se desarrollaron más tarde la teoría de la relatividad y la física de los fenómenos no lineales, que condujeron al descubrimiento del caos. Por otro lado, la mayoría de los descubrimientos sobre átomos y moléculas se realizaron durante el siglo XX e incluso la última década nos trajo todavía muchas sorpresas en la física atómica y molecular. Las razones de este desarrollo relativamente tardío de la física atómica son múltiples. En primer lugar, los objetos de este campo son muy pequeños y no se pueden ver a simple vista. Primero se tuvieron que inventar muchas técnicas experimentales sofisticadas para obtener información confiable sobre estas micropartículas. Además, resultó que las teorías clásicas no eran adecuadas para describir los átomos y las moléculas y sus interacciones. Después de que se desarrollara una nueva teoría llamada "teoría cuántica" en las primeras tres décadas del siglo XX, se produjo un rápido progreso en la física atómica y molecular, y nuestro conocimiento en este campo aumentó explosivamente. Sin embargo, todavía hay una gran cantidad de preguntas abiertas y fenómenos poco entendidos que esperan sus soluciones por parte de las futuras generaciones de investigadores. 


2.1.7.4 Contenido e importancia de la física atómica 


La física atómica se ocupa de la estructura de los átomos, su interacción mutua y su dinámica, es decir, sus propiedades dependientes del tiempo. El objetivo de los esfuerzos experimentales y teóricos en este campo es la comprensión completa de las propiedades macroscópicas de la materia sobre la base de su composición microscópica de los átomos constituyentes y una descripción cuantitativa de las relaciones entre las características microscópicas y macroscópicas. Este objetivo tiene, además de su contribución esencial a la física fundamental y un nuevo concepto de la naturaleza, una enorme influencia en las aplicaciones técnicas de la biología. A principios del siglo XX, cuando la física atómica comenzó a desarrollarse como un campo original, se le consideraba como una ciencia fundamental pura, sin aplicación práctica. Lord Ernest Rutherford (1871–1937), uno de los pioneros de la física atómica temprana, escribió ya en 1927, después del descubrimiento de las posibles transformaciones de los átomos a través del impacto de partículas energéticas. Este punto de vista ha cambiado radicalmente. Además de la investigación fundamental bastante intensiva en física atómica, el número de aplicaciones científicas y técnicas ha aumentado enormemente. Mientras tanto, los métodos desarrollados en la física atómica se utilizan de forma rutinaria en la química, la biología, la medicina y la industria. En particular, los instrumentos inventados durante los trabajos de investigación en física atómica, como el tubo de rayos X, el microscopio electrónico, el osciloscopio, los espectrómetros, los tomógrafos, los láser etc., son ahora herramientas indispensables en otros campos científicos o para la solución de problemas técnicos. Por lo tanto, la importancia de la física atómica no se limita a la física. La física atómica, junto con la física molecular, forman los cimientos de la química y la biología moderna. Explica las propiedades químicas de los átomos y el orden de los elementos en la tabla periódica, la unión de las moléculas y la estructura molecular. Las reacciones químicas se reducen a colisiones entre átomos y moléculas. Por su importancia se ha establecido una nueva rama de la química denominada “química cuántica”, que trata de la fundamentación teórica de la química basada en la teoría cuántica. El famoso filósofo natural Georg Christoph Lichtenberg (1742–1799) escribió: “Alguien que solo sabe química tampoco la entiende realmente”. Las reacciones complejas en la atmósfera terrestre se inician por la interacción de la luz solar con los átomos y las moléculas que conducen a la deposición de energía en las moléculas, su ionización y disociación en fragmentos. Las colisiones entre estas partículas pueden aumentar aún más el número de posibles reacciones químicas. La probabilidad de reacción depende no solo de la temperatura sino también de la energía interna y la estructura de los compañeros de colisión. Una comprensión más detallada de estos procesos y la influencia de las sustancias contaminantes creadas por el hombre en dichos procesos es de importancia crucial para la supervivencia de la humanidad[54]. Durante los últimos años se ha investigado ampliamente la base molecular de los procesos biológicos. Las nuevas técnicas experimentales de la física atómica se han aplicado a los estudios de las células vivas y las reacciones que tienen lugar dentro de una célula. Ahora es posible seguir los caminos de moléculas individuales que se introducen en una célula utilizando métodos espectroscópicos de alta resolución espacial y espectral[55]. También en medicina, muchas herramientas de diagnóstico se toman prestadas de la física atómica e incluso los métodos terapéuticos, como el tratamiento láser específico del cáncer o la irradiación con haces de partículas, se basan en investigaciones de la física atómica[56]. 


El desarrollo de modelos estelares en astrofísica ha obtenido un estímulo importante a partir de experimentos de laboratorio sobre absorción y emisión de radiación por parte de átomos o iones, sobre procesos de recombinación entre electrones y entre iones libres o sobre tiempos de vida de átomos excitados, y sobre procesos de colisión entre electrones, iones y átomos neutros y moléculas. Además de la física de altas energías, la física atómica ha contribuido considerablemente a una mejor comprensión de la formación de estrellas, del transporte de radiación y de la estructura de las atmósferas estelares[57]. La física atómica también ha jugado un papel esencial para la optimización del desarrollo de técnicas modernas. Un ejemplo famoso es la variedad cada vez mayor de láser y sus diversas aplicaciones[58]. Las modernas técnicas de iluminación con lámparas de bajo consumo, tubos de descarga o diodos emisores de luz son esencialmente física atómica aplicada[59]. Los nuevos procedimientos para la inspección no destructiva de materiales o para la mejora de reacciones catalíticas en superficies se basan en resultados de investigación en física atómica. Para muchos desarrollos técnicos en la producción de chips semiconductores, como la difusión controlada de átomos de impurezas en el semiconductor o la interacción de gases y vapores con superficies sólidas, que son procesos estudiados en física atómica, juegan un papel esencial[60]. Sin exagerar, por lo tanto, se puede decir que la física atómica tiene una parte importante en el desarrollo de la tecnología moderna y que sin duda aumentará aún más en el futuro. Para la metrología, las técnicas de medición desarrolladas en la física atómica han aumentado la precisión alcanzable en varios órdenes de magnitud[61]. Con los métodos espectroscópicos láser, por ejemplo, los valores absolutos de las constantes físicas fundamentales, como la constante de Rydberg, la constante de estructura fina o la relación me/mp entre la masa del electrón y la masa del protón, podrían medirse con tanta precisión que la cuestión de si estas "constantes" son realmente constantes o cambian ligeramente con el tiempo a lo largo de millones de años ahora se puede atacar experimentalmente con tiempos de medición de unos pocos años. 


Además de su influencia en el desarrollo tecnológico, la física atómica y la teoría cuántica han contribuido esencialmente a una visión moderna de la naturaleza que reemplaza el antiguo concepto mecanicista de nuestro mundo[62]. La creencia de una separación estricta entre materia y energía tuvo que ser modificada por el reconocimiento de que ambas manifestaciones de la naturaleza son intercambiables y la anticipación de una causalidad estricta para todos los procesos en nuestro entorno ahora se ha visto limitada por las relaciones de incertidumbre en la mecánica cuántica. 


El demonio de la física clásica de Maxwell, que podía predecir exactamente el resultado futuro de los acontecimientos siempre que conociera las condiciones iniciales con suficiente precisión, tiene que ser reemplazado por declaraciones de probabilidad, ya que el conocimiento exacto de todas las condiciones iniciales no es posible. La visión determinista de la naturaleza, donde todos los eventos futuros ya estaban determinados por las condiciones presentes, tuvo que someterse a una revisión crítica. Este cambio en el concepto de naturaleza ha influido considerablemente en la filosofía y la epistemología, es decir, la teoría del conocimiento, y ha suscitado acalorados debates sobre la cuestión de si es posible la cognición objetiva independiente del sujeto pensante[63]. Estos pocos ejemplos deberían haber ilustrado la importancia de la física atómica para nuestro mundo moderno y por qué vale la pena estudiar este fascinante campo con más detalle.


2.1.7.5 Moléculas: bloques de construcción de la naturaleza 


En la naturaleza encontramos 92 elementos diferentes que corresponden a átomos estables. Estos átomos pueden formar entidades más grandes, llamadas moléculas. Las moléculas más pequeñas se componen de dos átomos, como H2, N2, O2, NaCl, etc., mientras que las moléculas grandes (por ejemplo, proteínas o ADN) se componen de varios miles de átomos. La gran variedad y multiplicidad de especies en la naturaleza se debe a la gran cantidad de combinaciones posibles de estos 92 átomos estables para formar moléculas. Las propiedades químicas y por lo tanto biológicas de estas moléculas dependen de: 

• El tipo específico de átomos que las componen. 

• La estructura espacial de las moléculas, es decir, la forma en que los átomos están dispuestos dentro de la molécula. 

• La energía de enlace de los átomos o grupos atómicos en la molécula. 

• La estabilidad, en función de las alturas de la barrera energética, que hay que superar para cambiar la estructura geométrica de la molécula. 


Solo recientemente ha sido posible calcular la estructura y las energías de enlace de moléculas de tamaño pequeño y mediano mediante métodos ab initio utilizando computadoras rápidas[64]. En muchos casos, sin embargo, los métodos experimentales siguen siendo indispensables porque los cálculos suficientemente precisos superan la capacidad incluso de las grandes computadoras. El objetivo de tales investigaciones es un mejor conocimiento de la estructura molecular y las superficies potenciales que determinan esta estructura y las energías de enlace relevantes. En los últimos años, la dinámica de las moléculas excitadas, es decir, la forma en que la energía, bombeada en una molécula (por ejemplo, por absorción de luz), se distribuye dentro de la molécula a lo largo del tiempo, ha atraído cada vez más el interés de los investigadores. Con una resolución temporal de fracciones de femtosegundos (1 fs = 10−15 s) obtenida con pulsos láser ultracortos, ahora es posible observar los movimientos de los átomos en las moléculas en tiempo real y obtener mucha información sobre la dinámica molecular, como disociación o isomerización. Esto permite seguir más de cerca los procesos atómicos en las reacciones químicas. En casos especiales, incluso es posible controlar dichas reacciones, es decir, mejorar los canales de reacción deseados y suprimir los no deseados. Esto abre el camino para la síntesis controlada de moléculas más grandes a partir de constituyentes más pequeños. Muchos procesos biológicos, como la producción de energía en las células vivas, la fotosíntesis, la migración de iones a través de las paredes celulares, el transporte de señales en los nervios o la secuencia temporal del proceso visual desde la retina iluminada en el ojo hasta el reconocimiento de la imagen luminosa en el cerebro, ahora se pueden estudiar con más detalle debido a las técnicas experimentales avanzadas desarrolladas en la física atómica[65]. Por lo tanto, la física molecular experimental y teórica ganan cada vez más atención en muchos campos de la química y la biología moderna. En muchos laboratorios, los investigadores están trabajando en el ambicioso objetivo de desentrañar la estructura y la disposición de diferentes moléculas de aminoácidos en biomoléculas grandes, para comprender su papel en los genes y aclarar el código genético y su relevancia para los rasgos característicos de la vida[66]. La tecnología genética, donde las cadenas de ADN pueden ser citadas en secciones deseadas, se aplica hoy en día.


2.1.7.6 Fuerzas intermoleculares 



“Es nuestra opinión que los procesos de síntesis y plegamiento de moléculas altamente complejas en la célula viva implican, además de la formación de enlaces covalentes, las interacciones intermoleculares de atracción y repulsión de Van der Waals, interacciones electrostáticas, formación de enlaces covalentes, enlaces hidrógeno…, que ahora se entienden bastante bien”.


Linus Pauling y Max Delbrück, “La naturaleza de las fuerzas intermoleculares operativas en los procesos biológicos”.


1.7.6.1 La premisa de Pauling-Delbrück 


Mientras revisábamos la literatura de fondo para estudiar, nos dimos cuenta de los detalles históricos de la investigación de los orígenes de la biología molecular[67]. Encontramos que a nivel de conocimiento físico-químico, es una premisa de sentido común, que enfatiza la importancia de las fuerzas moleculares no covalentes, como el enlace de hidrógeno y las fuerzas electrostáticas, en la estructura funcional (semicristalización) de biomacromoléculas dentro de la célula[68]. En 1940, sin embargo, cuando la mecánica cuántica era bastante fresca y la base molecular de la herencia desconocida, Pauling y Delbrück argumentaban (correctamente) en contra de la idea de que la resonancia de la mecánica cuántica podría dar lugar a la autorreplicación molecular y, por lo tanto, explicar la naturaleza de la herencia[69].  


La premisa de Pauling-Delbrück, enfatiza el hecho de que las células bacterianas están altamente llenas de biomacromoléculas (fracción de volumen del 20-50%), cuyas consecuencias para la investigación del origen de la vida se reconocieron mucho más tarde[70]. La premisa se puede reformular como, solo las reacciones bioquímicas y las fuerzas moleculares no covalentes aseguran el plegamiento funcional y las asociaciones de las biomacromoléculas citoplasmáticas in vivo. La premisa aborda así la arquitectura espacio-temporal de las células biológicas[71]. 


Ha permanecido fuera del enfoque de la premisa de Pauling-Delbrück para la investigación de los orígenes moleculares de la célula, creemos, por una razón histórica: el fracaso de Pauling para deducir la estructura correcta del ADN, y su posterior asistencia de los desarrollos en la biología molecular[72] en los esfuerzos por descifrar el código genético. La vasta acumulación de nuevos conocimientos desde la década de 1950 hace que sea oportuno resucitar la premisa para ver si puede ayudar a desenterrar algunos principios de sentido común del surgimiento de la vida. 


La premisa tiene dos corolarios. En primer lugar, se sabe desde la década de 1930 que todas las células vivas están abarrotadas y, por lo tanto, son complejas y difíciles de entender. Desmontarlas dio lugar a extensas formulaciones de protocolos in vitro en bioquímica y biología molecular, que emplean composiciones diluidas y simplificadas, a veces, solo una sola proteína purificada en un tampón de pH de fuerza iónica relativamente alta. Ahora mismo la aglomeración molecular de una célula viva es un hecho no controvertido y bien apreciado, pero su complejidad espacio-temporal general sigue siendo poco conocida. Podría decirse que la complejidad físico-química de incluso células bacterianas más pequeñas crea un aura de misterio y asombro; a primera vista, es realmente enigmático. Por lo tanto, existe una clara necesidad de desmitificar la biocomplejidad y su aparición en la Tierra[73].


En segundo lugar, desde los experimentos seminales de Stanley Miller a principios de la década de 1950[74], la investigación de los orígenes se ha orientado hacia reacciones químicas de moléculas simples: agua, dióxido de carbono, metano, cianuro de hidrógeno y moléculas cósmicas similares, que producen moléculas más complejas basadas en carbón. En consecuencia, hay muchas ideas y datos considerables sobre la síntesis de los bloques de construcción de la vida (aminoácidos, ácidos nucleicos, azúcares…) en condiciones plausibles prebióticas aunque sin un marco físico-químico claro. En particular, la importancia de los compartimientos coloidales, las futuras envolturas celulares, ha sido subestimada y a menudo se malinterpreta en la investigación del origen molecular.


David Deamer ha sido uno de los primeros defensores de la importancia de las membranas en los estudios del origen de la vida[75]. Históricamente, los compartimentos llegaron a la prominencia con toda su fuerza en la década de 1990 y más tarde, ya sea como membranas inorgánicas en respiraderos hidrotermales o como membranas hidrológicas de vesículas artificiales[76]. Las razones físico-químicas fundamentales por las que la vida biológica de células debe existir como compartimentos con límites permeables no son controvertidas: 1) los compartimentos impiden la disipación por difusión, ordenada por la segunda ley de la termodinámica, de los contenidos citoplasmáticos no equilibrados y 2) su permeabilidad permite el intercambio de moléculas y energía a través de los límites de confinamiento, permite que una célula esté metabólicamente viva y crezca. Por lo tanto, la herencia depende de estar vivo, y estar vivo depende del entorno de nutrientes y de los compartimientos celulares; estos últimos son creados por separaciones de fase, una manifestación macroscópica de fuerzas moleculares no covalentes.  La premisa de Pauling-Delbrück, tomada junto con el registro absoluto de compartimientos y energías (nutritivas), hace probable que los compartimientos, las proteínas y los ácidos nucleicos coevolucionen. 


Esta triple coevolución de compartimientos, proteínas y ácidos nucleicos suena terriblemente complicada, y lo es. Pero es preferible hacer la pregunta de la gallina o el huevo sobre si los ácidos nucleicos con información codificada o las proteínas metabólicas fueron los primeros en evolucionar, una pregunta que tiene un aire incómodo de predestinación antropocéntrica. La pregunta de la apariencia superficial de los orígenes de la vida en una secuencia de problemas químicos separados (más simples y más pequeños) es decir, los origines del metabolismo, la genética y los compartimientos, como si fueran pequeñas moléculas abióticas “sabias” que evolucionaron desde algún principio hacia el final predestinado. ¿Estaban los coacervados metabólicos de Oparin predestinados a dar lugar a ácidos nucleicos? ¿O fueron los polímeros genéticos similares a virus de Haldene predestinados a inducir la evolución química posterior de proteínas y los compartimientos? ¿O los compartimientos, el metabolismo y la herencia evolucionaron por separado y luego, por casualidad, “encajaron” más tarde para formar una célula viva?


La pregunta de la gallina o el huevo es un tema frecuente sobre los orígenes de la vida porque la pregunta persiste a nivel de la biología molecular: los ácidos nucleicos son replicados y transcritos por proteínas, pero las proteínas están codificadas por los ácidos nucleicos, entonces, ¿qué sucedió primero? La repuesta obvia, la coevolución. Refleja el hecho de que los ácidos nucleicos y las proteínas no pueden ser una sin la otra en el citoplasma, ni pueden estar sin un compartimiento para mantener funcional  una célula viva. Esta triple coevolución química, tan complicada como suena, es menos desconcertante que una evolución química simple y ordenada, desde los bloques de construcción de la vida hasta los biopolímeros, que finalmente se encapsularon en organismos antiguos unicelulares. Este paradigma de complejidad, “de lo simple a lo complejo”, además de su aire antropocéntrico de predestinación, esconde una serie de transiciones inexplicables, como el autoensamblaje de protobiopolímeros en una protocélula o la creación de gradientes de concentración de metabolitos indispensables para sus funciones. Tampoco sugiere una solución a uno de los principales problemas de la química orgánica prebiótica (no enzimática); la formación de moléculas alquitranadas a base de carbono, que se conoce desde los primeros experimentos de Stanley Miller y aún espera una resolución incluso en el contexto de la hipótesis del mundo del ARN[77]. 


2.1.8 La vida nace en una triple coevolución 


¿Cómo podemos abordar un problema tan complicado, como el de la triple ecoevolución de ácidos nucleicos y proteínas en pequeños compartimentos coloidales? En la actualidad, en la era postgenómica, la secuencia de proteínas y la determinación de estructuras proteicas, incluidas las estructuras de la maquinaria de biomacromoléculas, están bien establecidas; por lo tanto, la investigación se ha ido desplazando a la interacción entre biomacromoléculas, un área de investigación activa, especialmente en la ciencia de proteínas[78]. Al mismo tiempo, la secuenciación de genomas procariotas también se ha vuelto accesible: los genomas de muchas especies bacterianas y arqueas se han documentado desde 1995. Sin embargo, aún no está claro cómo se explotará este conocimiento en expansión en la investigación de los orígenes de la vida o cómo podría usarse para comprender mejor los procesos bacterianos fisicoquímicos in vivo.  La rápida y vasta acumulación de secuencias totales del genoma y de estructuras proteicas plantea un desafío a la forma hipotética-deductiva clásica de generar hipótesis y datos[79], es decir, plantear preguntas, formular ideas explicativas y deducir experimentos adecuados para ver si las ideas son buenas o malas. La física matemática proporciona un marco más fundamental de leyes y teorías generales que no dependen directamente de detalles moleculares particulares[80]. 


Cualquier idea histórica sobre los orígenes celulares resulta compleja, al estar llena de algunas preguntas sin respuesta, solo puede surgir de datos (hechos) e hipótesis actuales: cuanto mejores sean los hechos actuales, más segura y creíble puede ser la historia de los orígenes de la vida. Claramente, hace 70 años, cuando se buscaba la naturaleza de la herencia en las proteínas, los hechos de entonces eran muy diferentes de los actuales; hace 150 años, cuando se buscaba la naturaleza de la vida en piezas de protoplasma en forma de gel, los hechos eran bastantes diferentes. Tomado hoy como punto de vista, vemos que los hechos se vuelven menos confiables a medida que retrocedemos en la historia;  por ejemplo, las primeras observaciones llevaron a la idea de que la vida podía surgir naturalmente de la suciedad o de carne podrida[81]. Durante la mayor parte de la historia, las sociedades humanas han cultivado en la juventud la curiosidad, y más recientemente la ciencia como modo de vida, se han acumulado muchas ideas y entendimiento sobre fenómenos naturales observables y sobre cómo la Tierra y la vida llegaron a ser. 


El salto histórico de hace unos 500 años, se produjo con la invención de la disertación científica, proporcionó una plataforma adicional y completamente nueva para explicar el mundo y la vida en él: plataforma de hechos e hipótesis observables, abierta a la verificación experimental independiente. El desarrollo inicial de las ciencias naturales tuvo lugar en el periodo de aproximadamente 1500 o 1800, cuando los hechos reproducibles y observables comenzaron a apreciarse entre los primeros científicos y cuando la física, la química y la biología comenzaron su separación por las matemáticas de cálculo de Newton y Leibniz. En el periodo de 1800 a 1900; la física y la química se convirtieron en ciencias duras, basadas en las matemáticas y el electromagnetismo en particular el de Maxwell, cuando publicó sus cuatro ecuaciones diferénciales parciales del electromagnetismo, y no mucho más tarde, Cannizzaro puso la química sobre una base aritmética y algebraica sólida: escribir fórmulas moleculares y relaciones químicas equilibradas con el número correcto de átomos (es decir, consistentemente[82]). Mendeleev luego organizó los elementos conocidos en una tabla periódica que predijo nuevos elementos, los compuestos químicos que podrían conformar, y sus propiedades químicas y físicas. Al mismo tiempo, Darwin y Pasteur hicieron inevitable la cuestión sobre el origen de la primera forma de vida, por el relato de Darwin del origen evolutivo de las especies biológicas a través de la selección natural y por los hallazgos experimentales de Pasteur de que incluso la vida microbiana más simple no surge espontáneamente de la materia inanimada. Los experimentos de Pasteur colocaron a las células biológicas vivas fuera de las leyes vigentes de la física y la química. Sus experimentos apoyaron la hipótesis de que una fuerza vital desconocida reside en el protoplasma similar a un gel, una hipótesis simple que, en ese momento, distinguía la materia biológica viva de la materia inanimada, tanto la materia bioquímica (orgánica) “muerta” como la materia inorgánica[83].


Eran los secretos del universo y la vida lo que deseaba con más fuerza aprender; y si era la sustancia externa de las cosas (la información) o el espíritu interno de la naturaleza (su energía), y el alma misteriosa del hombre lo que tendría lugar en la vida en la literatura, aún así las indagaciones estaban dirigidas a lo metafísico (el conocimiento), o en su sentido más elevado, a los secretos físicos de los mecanismos más profundos que crean el mundo. 


Hace solo unos 100 años, dos revoluciones kuhnianas sucedieron en la física: la revolución cosmológica de la relatividad de Einstein y su espacio-tiempo gravitacional de cuatro dimensiones y la revolución mecánica cuántica de Max Planck (y Einstein). El desarrollo de la mecánica cuántica tuvo un inmenso efecto en la química en la primera mitad del siglo XX, particularmente por Pauling con la estructura tridimensional de las moléculas. Al mismo tiempo, la química física de la difusión se puso sobre una base firme cuando Perrin confirmó experimentalmente la teoría de Einstein del movimiento browniano. Así, las moléculas intangibles se convierten en objetos materiales reales, aunque muy pequeños, invisibles bajo un microscopio, que obedecían a leyes físicas. La comprensión de Brow-Einstein-Perrin de que el movimiento de las partículas de Brown, visibles bajo el microscopio, es causado por colisiones con moléculas muy pequeñas de agua generalmente no se considera una revolución científica, tal vez porque tomó alrededor de 100 años solidificarlo como un hecho, basándose en avances no relacionados en física y química. Aún así, incluso Schrödinger en ¿Qué es la vida? En 1944, lo encontró necesario explicar cuán increíblemente pequeños son los átomos y moléculas (aunque no dijo más sobre los movimientos moleculares). Obviamente, la comprensión de la difusión, los movimientos de traslación y rotación de las moléculas, es importante para desenredar los procesos fisicoquímicos dentro de una célula viva.


Las contribuciones, que abarcan la física, la química y la biología desde el año de 1500 a 1960, están bajo la restricción de la segunda ley de la termodinámica, que “gobierna el Universo”, por así decirlo, particularmente los movimientos de las moléculas. No fue más allá de la década de 1970 que la investigación sobre la vida se aceleró enormemente, estimulada por la solidificación del dogma de la biología molecular y otros avances[84]: “una vez que la información ha entrado en una proteína, no puede volver a salir”. Especialmente importantes fueron las determinaciones de estructuras detalladas de máquinas moleculares citoplasmáticas y de membrana, incluidos los ribosomas; la generación por membranas de trifosfato de adenosina (modelo de quimiosmosis de Perter Mitchell[85]), como fuente de energía en las vías anabólicas y catabólicas de la bioquímica; y la nueva filogenética microbiana que profundiza en las raíces del Árbol de la vida[86]. Desde estos avances sin precedentes en bioquímica y biología molecular ha sido sugerido cada vez más que la solución a los orígenes de la vida es factible y está a la vista por venir. 


La investigación del origen de la vida es un componente importante de la astrobiología. Hoy en día la investigación sintética, los continuos avances en la química sintética prebiótica y el extenso trabajo sobre la hipótesis del mundo del ARN y sobre los origines de la vida en los respiraderos hidrotermales oceánicos profundos no son esfuerzos inútiles de unos pocos pioneros científicos que intentan descifrar el rompecabezas. Son muchos los esfuerzos en colaboración que se realizan en este momento.


Una razón para el progreso más lento de lo deseado en la comprensión del surgimiento de la vida, ha sido la ausencia de una nueva perspectiva fisicoquímica, quizá el mayor acercamiento fue representado por el subdesarrollo de la premisa Pauling-Delbrück, que, por su propia naturaleza, no se basa en ninguna reacción química explícita. Muchos escenarios han sido sobreespecificados con ingeniosos sistemas de ecuaciones químicas, a veces dispuestas en ciclos y a veces utilizando incluso reactivos abstractos, pero con consideraciones limitadas para las restricciones fisicoquímicas, particularmente las que emanan de la segunda ley de la termodinámica. Por lo tanto, la investigación de los orígenes se considera actualmente algo refractaría a una solución plausible (o simple) que tiene que ver con los conceptos de la información y la causalidad.


2.1.8.1 La evidencia de las fuerzas intermoleculares


La idea de que la materia está formada por átomos y moléculas era conocida por los griegos, aunque la evidencia de ello no llegó  a ser persuasiva hasta los siglos XVIII y XIX, cuando las leyes del gas ideal, la teoría cinética de los gases, las leyes de electrólisis de Faraday, y la estequiometría de la mayoría de las reacciones químicas, y una variedad de otros indicadores combinados designaron asunto más allá de toda duda. En el siglo XX, otras técnicas como la difracción de rayos X y, más recientemente la microscopía de alta resolución, han proporcionado más evidencia. 


Dada la idea aparentemente compleja de que la materia consiste de moléculas, la noción de que debe haber fuerzas entre ellas, sin embargo, se basa en evidencia mucho más simple. La existencia misma de fases condensadas de la materia es evidencia concluyente de fuerzas de atracción entre moléculas, ya que en ausencia de fuerzas atractivas, las moléculas en un vaso de agua no tendrían ninguna razón para permanecer confinadas al vidrio y se evaporarían. Además, el hecho de que el agua tiene una densidad definida y no se puede comprimir fácilmente a un volumen más pequeño, muestra que a corto alcance las fuerzas entre las moléculas se convierten en repulsivas. 


Imagen

Fg. 1.1 Función típica de energía potencial intermolecular 


De esto se deduce que la energía de interacción U entre dos moléculas, está en función de la distancia r entre ellas, tomando la forma de la figura 1.1. Es decir, debe tener una región atractiva a largo alcance, donde la fuerza Imagen es negativa y una fuertemente repulsiva (región a corta distancia), teniendo en consideración la baja comprensibilidad de los materiales condensados. 


Imagen

Hay una separación rm donde la energía es mínima, y una distancia más cercana Imagen  donde la energía de la interacción pasa por cero antes de subir empinadamente. Estas son notaciones convencionales como es el Imagen símbolo de la profundidad del pozo atractivo.  La forma precisa de la función U(r) dependerá de las moléculas particulares en cuestión, pero estas características generales serán casi universales. Para algunos pares de moléculas, en algunas orientaciones relativas, la energía de interacción puede ser repulsiva a todas las distancias, pero a menos que las moléculas sean ambas iones con el mismo signo en su carga, habrá una orientación donde la interacción a larga distancia sea atractiva.


Van der Waals fue el primero en tener en cuenta estas ideas al escribir la diferencia entre gases ideales y reales. Sugirió que el volumen V ocupado por un gas incluía un volumen b que está ocupado por moléculas incompresibles, de modo que V-b permanecía para el libre movimiento de las moléculas; y las fuerzas de atracción entre las moléculas tenían el efecto de reducir la presión ejercida por un gas sobre su recipiente, en una cantidad proporcional al cuadrado de la densidad. Por lo tanto, la presión “verdadera”, en el sentido de las leyes de los gases, no es el promedio de la presión P sino P+a/V2.  Boyle descubrió que si la cantidad de gas y la temperatura permanecen constantes, el producto de la presión por el volumen siempre tiene el mismo valor. La ley de los gases PV=RT   (R=constante universal de los gases ideales, T= temperatura absoluta, es el valor de la temperatura medida con respecto a una escala que comienza en el cero absoluto) toma entonces la forma: 


Imagen


Donde P y V son ahora la presión y el volumen medidos en lugar de los valores ideales y T la temperatura. 


Esta simple ecuación dio cuenta notablemente de la condensación de gases en líquidos, y los valores de las constantes a y b se corresponden de modo eficiente con las propiedades de moléculas tal como las entendemos ahora. Aunque este enfoque ha sido redefinido, las fuerzas de atracción y repulsión entre moléculas todavía se llaman a menudo fuerzas de “Van der Waals”. 


El valor del parámetro b de Van der Waals tiene una interpretación clara en términos de tamaños moleculares; pero los métodos más directos, como la cristalografía de rayos X, proporciona valores precisos para la separación de equilibrio en el sólido. Esto no es exactamente lo mismo que rm, porque hay fuerzas de atracción entre moléculas más distantes que comprimen ligeramente la distancia vecina más cercana. La profundidad Imagen del pozo atractivo se puede estimar a través de datos calorimétricos. Un simple método del orden de magnitud se basa en la regla del Trouton, una observación empírica que establece que la entalpía de vaporización (una cantidad relacionada con la energía de un sistema termodinámico) está aproximadamente relacionada con el punto de ebullición en la presión atmosférica Imagen por  Imagen. Aunque esta es una regla empírica, se puede comprender bastante fácil de manera general: el cambio en la energía libre de Gibbs G=H- TS entre el líquido y el vapor es cero en el punto de ebullición, por lo que Imagen. Aproximamos Imagen en términos cambio de volumen entre líquido y gas, Imagen, como si el líquido fuera solo un gas comprimido. 


Normalmente: 

Imagen


Las 3R restantes más o menos pueden ser explicadas por el hecho de que los líquidos están más estructurados que los gases, y por lo tanto tienen una entropía menor en esta visión. Ahora la energía requerida para separar un líquido condensado en sus moléculas constituyentes es aproximada Imagen por cada par de moléculas que están muy juntas. Si cada molécula tiene un n vecinos en el líquido, la energía total para las N moléculas es:


Imagen


Donde el factor 1/2 es necesario para evitar contar cada interacción dos veces. Este es aproximadamente el calor latente de evaporación; realmente deberíamos corregir la energía de punto cero de vibración de las moléculas en el líquido, pero si asumimos que las vibraciones intermoleculares son clásicas, la energía en estas vibraciones serán las mismas que la energía de traslación en el gas. Así encontramos que:


Imagen


Mostramos en la tabla 1.1 lo que resulta para unos pocos átomos y moléculas. El valor de la coordinación n de líquidos es el mismo número que para el sólido; esto es probablemente una ligera sobreestimación en la mayoría de los casos. Los resultados muestran que las predicciones son bastantes buenas, y ciertamente adecuado para estimar el orden de magnitud de Imagen.


“Un pozo de potencial es la región que rodea un mínimo local de energía potencial. La energía capturada en un pozo de potencial no es posible convertirla en otro tipo de energía debido a que se encuentra en un mínimo local de la energía potencial[87]”.


Tabla 1.1 Par potencial de los pozos


Imagen

N

Imagen

Imagen

He

4.2

12

7

11

Ar

87

12

145

142

Xe

166

12

277

281

CH4

111.5

12

186

180-300

H2O

373.2

4

1866

2400 aprox.


Vemos entonces, que la fuerza de las interacciones intermoleculares entre moléculas pequeñas, medida por la profundidad del pozo, es típicamente la región de:


Imagen


Esto es considerablemente más débil que un enlace químico típico, que tiene una energía de disociación por arriba de Imagen, y es por eso que las interacciones intermoleculares se pueden romper fácilmente con simples medios físicos como el calor moderado, mientras que los enlaces químicos solo pueden romperse por procedimientos de mayor energía.


En este análisis, hemos asumido tácitamente que la energía de un conjunto de moléculas en un líquido, se puede tratar como una suma de interacciones por pares; es decir, que la energía total W del conjunto de interacciones se puede expresar en la forma:


Imagen   Ec.1.1.1


Donde Imagen es la energía de la molécula aislada i y Imagen es la energía de la interacción entre i y j.  Tenemos que tener cuidado de contar cada par de moléculas solo una vez, y la suma de pares se puede escribir de varias maneras, como se muestra, la segunda fórmula es una abreviatura convencional de la primera. Esta suposición de aditividad por pares es solo una primera aproximación. La Ec. 1.1.1 es solo el término principal en una serie que debe incluir:


Imagen   Ec. 1.1.2


Por ejemplo, si hay tres moléculas A, B y C, la aproximación por pares, la energía  total  es Imagen, donde Imagen se evalúa como si la molécula C no estuviera presente, y así para cada una. Sin embargo, la presencia de la molécula C modificará la interacción entre las otras dos moléculas, por lo que hay una corrección de tres cuerpos: Imagen. Cuando hay cuatro moléculas, tenemos que incluir una corrección de tres cuerpos para cada conjunto de tres moléculas, y el error que queda es la corrección de cuatro cuerpos. Esperamos que la contribución total Imagen de las correcciones de tres cuerpos será pequeño, y la mayoría de las circunstancias es una aproximación razonablemente buena, por lo que la mayor parte del esfuerzo se refiere a conseguir que las interacciones de pares sean correctas. Sin embargo, los términos de muchos cuerpos no son lo suficientemente pequeños como para cuidar por completo, y tendremos que considerarlos más adelante. En particular los términos de tres cuerpos pueden ser demasiado grandes para ignorarlos. 


La Ec. 1.1.2 ignora otra contribución que puede ser necesario tener en cuenta. Por lo general, la geometría de cada molécula que interactúa se distorsiona en el entorno de sus vecinos. El ejemplo más común es el enlace de hidrógeno Imagen, donde el enlace AH es generalmente más corto por más tiempo que en el complejo de la molécula asilada. La distorsión lejos de la geometría de equilibro cuesta energía, pero si se potencia la interacción con el vecino, la energía general puede reducirse. La diferencia entre energía de la molécula en su geometría distorsionada y su energía Imagen en equilibrio se llama energía de deformación. Si las moléculas son rígidas (constantes de fuerza vibratoria alta), el costo incluso de una pequeña distorsión supera cualquier mejora en la energía de unión y la energía de deformación es insignificante. Si hay modos vibratorios suaves, sin embargo, la deformación puede ser significativa y para la deformación es posible que sea necesario incluir energía. Esto no es fácil de hacer, ya que la distorsión de cada molécula depende de todos sus vecinos, por lo que la energía de deformación es un complicado efecto de muchos cuerpos, y en la práctica a menudo se desprecia por completo. 


2.1.8.2 Clasificación de fuerzas intermoleculares


Podemos identificar una serie de fenómenos físicos que son responsables de la atracción y la repulsión entre las moléculas. Aquí damos una visión general de las principales contribuciones a las fuerzas entre moléculas. Todas las importantes surgen en última instancia de la interacción electrostática entre las partículas que componen las dos tipos principales: “largo alcance”, donde la energía de interacción se comporta como una potencia inversa de r, y “corto alcance”, donde la energía disminuye en magnitud exponencialmente con la distancia. Esta distinción aparentemente arbitraria tiene un fundamento claro en la teoría. 


Los efectos de largo alcance son de tres tipos: electrostáticos, de inducción y de dispersión. Los efectos electrostáticos son los más simples de comprender en términos generales: surgen de la interacción clásica directa entre las distribuciones de carga estática de las demás moléculas. Son estrictamente aditivas por pares y pueden ser atractivas o repulsivas. Efectos de inducción surgen de la distorsión de una molécula particular en el campo eléctrico de todos sus vecinos, y son siempre atractivos. Porque los campos de varias moléculas vecinas pueden reforzarse entre sí o cancelarse, la inducción es fuertemente no aditiva. La dispersión es un efecto que no se puede comprender fácilmente en términos clásicos, pero surge porque las distribuciones de carga de las moléculas fluctúan constantemente a medida que los electrones se mueven. Los movimientos de los electrones en las moléculas se correlacionan, de tal manera que las configuraciones de menor energía son favorecidas y las de mayor energía desfavorecidas. El efecto promedio es una disminución de la energía, dado que el efecto de correlación se hace más fuerte a medida que las moléculas se acercan entre sí, el resultado es una atracción. Otra manera de decirlo: “las fuerzas de dispersión son fuerzas atractivas débiles que se establecen fundamentalmente entre sustancias no polares, aunque también están presentes en las sustancias polares. Se deben a las irregularidades que se producen en la nube electrónica de los átomos de las moléculas por efecto de la proximidad mutua[88]”. Otros efectos pueden surgir a larga distancia, se incluyen por resonancia y efectos magnéticos.


Tabla 1.2 Contribución de la energía de interacción entre moléculas


Contribución 

¿Aditiva?

Signo

Comentario

Rango distanciaImagen




Electrostática 

Si

Imagen

Fuerte dependencia de la orientación 

Inductiva

No

-


Dispersión 

Aproximada

-

Siempre presente 

Resonancia

No

Imagen

Solo estados degenerados 

Magnética 

Si

Imagen

Minúscula 

Corto alcance 

Imagen




Intercambio-repulsión 

Aproximada

+

Domina a muy corto alcance 

Intercambio-inducción 

Aproximada

-


Intercambio-dispersión 

Aproximada

-


Transferencia de carga

No

-

Interacción no donante-receptor


Las interacciones de resonancia y efectos magnéticos al menos en una de las moléculas está en un estado degenerado, generalmente un estado excitado, o cuando las moléculas son idénticas, al menos una está en un estado excitado. En consecuencia, no se producen entre moléculas ordinarias de capa cerrada en sus estados fundamentales. Las interacciones magnéticas que involucran a los electrones pueden ocurrir solo cuando ambas moléculas tienen giros desapareados, pero en cualquier caso son muy pequeñas. Las interacciones magnéticas que involucran núcleos pueden ocurrir siempre que hay núcleos con espín distinto de cero, lo cual es bastante común, pero las energías son varios órdenes de magnitud aún más pequeñas, y nunca son de ninguna importancia en el contexto de fuerzas intermoleculares.  


Las contribuciones electrostáticas, de inducción y dispersión de “largo alcance” se llaman así porque son las que sobreviven en grandes separaciones. Sin embargo, todavía están presentes en distancias cortas, incluso cuando las moléculas se superponen fuertemente. La interacción electrostática, por ejemplo, siendo la interacción electrostática entre las distribuciones de carga molecular imperturbables, está bien definida a cualquier distancia, y sigue siendo finita a menos que los núcleos entren en contacto. Sin embargo, es habitual describir todas estas contribuciones como series de potencias en 1/r, donde r es la separación molecular, y tales series evidentemente divergen con Imagen, por lo que solo son válidas para un r suficientemente grande. Incluso donde la serie converge, todavía puede estar en error, porque la serie trata cada molécula como si estuviera concentrada en un punto, en lugar de extendida en el espacio, este error se denomina “error de penetración”. Además, es necesario en la práctica truncar la serie en un número de términos, lo que lleva a un “error de truncamiento”. 


Otras contribuciones a la energía surgen a corto alcance, es decir, a distancias donde las funciones de onda molecular se superponen significativamente y el intercambio de electrones entre las moléculas se hace posible. Lo más importante, es lo que se describe como intercambio-repulsión o simplemente intercambio. Eso se puede pensar que compromete dos efectos: una parte atractiva, que surge porque los electrones se vuelven libres de moverse sobre ambas moléculas en lugar de solo una, lo que aumenta la incertidumbre en sus posiciones y así permitir que el impulso y la energía disminuyan; y una parte repulsiva, surgiendo porque la función de onda tiene que adaptarse para mantener el requisito de antisimetría de Pauli que dice que los electrones del mismo espín pueden no estar en el mismo lugar, y esto le cuesta energía. Este último domina, lo que lleva a un efecto repulsivo en general. Es habitual tomar estos efectos juntos. El efecto resonante mencionado en la tabla anterior, a saber, inducción de intercambio, intercambio-dispersión y trasferencia de carga, también surgen cuando las funciones de onda se superponen; la interacción carga-transferencia es a menudo un efecto separado, pero es mejor usarlo como parte de ellas como energía de inducción.


2.1.8.3 Superficie de energía potencial



“Una superficie de energía potencial describe la energía de un sistema, principalmente de un conjunto de átomos, en función de ciertos parámetros, normalmente las posiciones de los átomos. La superficie puede definir la energía como una función de una o más coordenadas; si solo hay una coordenada, la superficie se llama curva de energía potencial o perfil de energía[89]”.

Imagen

Solo en el caso de los átomos, es suficiente una sola distancia para describir la geometría relativa. En todos los demás casos se requiere más coordenadas, y en lugar de contemplar una curva de energía de potencial como en la figura 1.1, tenemos que pensar en la “superficie de energía potencial”, que es una función de todas las coordenadas que describen la posición relativa de las moléculas. En el caso de dos moléculas no lineales, hay seis de estas coordenadas y la superficie de energía potencial se vuelve muy difícil de visualizar. Para muchos propósitos, sin embargo, podemos pensar en tres dimensiones: una dimensión vertical para la energía, y dos dimensione horizontales que son realmente de las seis o más coordenadas que realmente deberíamos usar. Esta imagen simplificada es entonces como un paisaje, con colinas, valles y monturas. Hay energía mínima en la superficie de energía potencial que corresponde a depresiones en el paisaje. En paisajes reales tales depresiones suelen estar llenas de agua, para crear lagos; puede que sean muchos de ellos, a diferentes alturas. En el panorama mecánico-cuántico de la superficie de energía potencial, también puede haber muchos mínimos, pero siempre hay un “mínimo global” que es más bajo que cualquiera de los otros. El resto son mínimos locales; la energía de un local mínimo es inferior a la energía de cualquier punto de su vecindad inmediata, pero si nos alejamos podemos encontrar otros puntos que son aún más bajos. 


Así como las depresiones en el paisaje están llenas de agua, podríamos pensar en los mínimos en la superficie de energía potencial como llenas de energía de punto cero; y al igual como los lagos se fusionan entre sí, por lo que la energía de punto cero puede permitir que los sistemas moleculares se muevan libremente entre mínimos adyacentes si las barras entre ellas son demasiado altas. La energía del punto cero en complejas moléculas es a menudo una fracción sustancial de la profundidad del pozo. En el dímero HF, por ejemplo, la profundidad del pozo Imagen es de Imagen, mientras la energía de disociación Do desde el nivel vibratorio más bajo es solo de Imagen. Dada la energía suficiente, el sistema molecular puede organizarse, pasando de un mínimo de energía a otro a través de un estado “punto de sillín o montura”, que es el análogo de un puerto de montaña. Sin embargo, el sistema molecular también puede tener túnel entre mínimos, incluso si la energía del sistema no es lo suficientemente alta como para superar la barrera de la imagen clásica. Un ejemplo bien conocido es la molécula de amoniaco, que puede invertir a través de una estructura de transición plana de un mínimo piramidal al otro. La altura de la barrera en este caso es de Imagen o alrededor de Imagen.  Si se ignora la tunelización, los estados estacionarios de menor energía para la vibración de inversión tienen una energía de Imagen, y hay dos de ellos, uno confinando a cada mínimo. Cuando se tiene en cuenta la tunelización, estos dos estados pueden mezclarse. Si se combinan en fase, el estado resultante tiene una energía ligeramente menor; si está fuera de fase, la energía es ligeramente mayor. La diferencia en la energía, la “división de túneles”, es Imagenen este caso, y se puede medir con mucha precisión por métodos espectroscópicos. Tal  división de túneles es una fuente útil de información sobre las superficies de energía de potencial. En síntesis la superficie de energía de potencial se deduce de las fuerzas que “sienten” los átomos. 


“La energía del punto cero es, en física, la energía más baja que un sistema físico mecano-cuántico puede poseer, y es la energía del estado fundamental del sistema. El concepto de la energía del punto cero fue propuesto por Albert Einstein y Otto Stern en 1913, y fue llamada en un principio energía residual[90]". 


“El puente de hidrógeno es la fuerza eminentemente electrostática atractiva entre un átomo electronegativo y un átomo de hidrógeno unido covalentemente a otro átomo electronegativo. Resulta de la formación de una fuerza carga-dipolo con un átomo de hidrógeno unido a un átomo de nitrógeno, oxígeno o flúor (de ahí el nombre de "enlace de hidrógeno"), que no debe confundirse con un enlace covalente a átomos de hidrógeno. La energía de un enlace de hidrógeno (típicamente de 5 a 30 kJ/mol) es significativamente menor a la de los enlaces covalentes débiles (155 kJ/mol), y un enlace covalente típico es solo 20 veces más fuerte que un enlace de hidrógeno intermolecular. Estos enlaces pueden ocurrir entre moléculas (intermolecularidad), o entre diferentes partes de una misma molécula (intramolecularidad).? El enlace de hidrógeno es una fuerza electrostática dipolo-dipolo fija muy fuerte cuando están muchas moléculas unidas, ya que confieren gran estabilidad, pero más débil que el enlace covalente o el enlace iónico. La fuerza del enlace de hidrógeno se ubica en algún lugar intermedio entre un enlace covalente y una fuerza de Van der Waals (fuerza de dispersión). Este tipo de enlace ocurre tanto en moléculas inorgánicas tales como el agua, y en moléculas orgánicas como el ADN[91]”.


Junto con los mínimos, entonces, las barreras constituyen las otras características importantes de la superficie, correspondientes a los puertos de montaña del paisaje real. Para comprender la naturaleza de la superficie de energía potencial, necesitamos caracterizar los mínimos y los estados de transición. En términos matemáticos, ambos son “puntos estacionarios” donde todas las primeras derivadas de la energía con respecto a las coordenadas geométricas es cero. Para distinguir entre ellos, es necesario considerar las segundas derivadas. Si escribimos la energía U en el marco de un punto estacionario por una expresión de Taylor en las coordenadas geométricas qi, toma la forma de:


Imagen Ec. 1.3.1

Las primeras derivadas son todas cero en un punto estacionario, y podemos ignorar las derivadas superiores si qi son pequeños. La matriz de segundas derivadas se llama “Hessian”; sus componentes son:


Imagen      Ec. 1.3.2


Los valores propios del hessiano son todos positivos como mínimo; en este caso se dice que el hessiano es “positivo definitivo”. Cualquiera que sea la dirección en la que nos alejemos de un mínimo, nos encontramos a nosotros mismos yendo a cuesta arriba. Si dice que tal punto tiene “índice hessiano cero”: es decir, el hessiano no tiene valores propios negativos allí. En un punto de silla o un puerto de montaña, precisamente uno de los valores propios es negativo: el índice de Hesse es 1. Si caminamos a lo largo del vector propio correspondiente a ese valor propio, en cualquier dirección, nos encontramos yendo cuesta abajo, pero los otros vectores propios no llevan cuesta arriba. Al igual que en el paisaje real, los puntos de sillín proporcionan las rutas desde un valle o mínimo a otro. Si dos o más de los valores propios son negativos, hay dos direcciones ortogonales que nos llevarán cuesta abajo. En este caso (en el paisaje real) estamos en la cima de una colina, y todas las direcciones conducen cuesta abajo; en el sistema de muchas dimensiones pueden existir otras direcciones que conducen cuesta arriba. Sin embargo, nunca es necesario de la parte superior de la colina llegar al otro lado; siempre hay una ruta más baja alrededor de la ladera de la colina. Si estamos interesados en caracterizar la superficie de energía potencial, entonces, los puntos estacionarios más importantes son los mínimos, con índice de Hesse 0, y los puntos sillín (o montura), con índice de Hesse 1. Los puntos estacionarios con valores más altos del índice de Hesse son mucho menos importantes. A menudo hay varios mínimos equivalentes con la misma energía, relacionados entre sí por la simetría del sistema. En el dimero HF, por ejemplo, la estructura de equilibrio es enlazada por el hidrógeno, con solo uno de los dos átomos de H en el enlace de hidrógeno. Hay dos estructuras, una con el átomo H de la molécula 1 formando el enlace de hidrógeno, la otra con el átomo H de la molécula 2 en ese papel. Por razones de simetría tienen la misma energía; son distinguibles solo si podemos etiquetar los átomos de alguna manera. Si dice que los dos casos son diferentes “versiones” de la misma estructura. De la misma manera puede haber varias versiones de un estado de transición entre sí por simetría.


Para sistemas grandes, que comprenden muchas moléculas, el número de puntos estacionarios aumenta exponencialmente con el tamaño del sistema, y caracterizarlo detalladamente en su superficie de energía potencial, se vuelve difícil  o imposible. En tales casos, una descripción cualitativa o estadística de la naturaleza del “paisaje energético” es más útil: ¿son las barreras típicas altas y bajas en comparación con la temperatura, o con las diferencias de energía entre los mínimos adyacentes?, y ¿qué son las consecuencias para propiedades como la tasa de reordenamiento al mínimo global? Tales cuestiones no las abordamos aquí pero otros si lo han hecho. 


2.1.8.4 Túnel cuántico


Una propiedad microscópica y ondulatoria, en particular el concepto túnel cuántico. Como analogía, consideremos una persona lanzando una pelota de frontón contra la pared de ladrillo o piedra. El sentido común y la experiencia nos dice que, a menos de que se haga un agujero en la pared, no hay ninguna posibilidad de que la pelota pase a través de ella. Probabilidad cero. Ahora imagine que una persona microscópica, dentro de una caja cuántica tridimensional, está lanzando una bola microscópica contra una pared. Al igual tiene paredes impenetrables, lo que significa que la bola no atraviesa ninguna de las paredes, exactamente como en el caso macroscópico. Hasta ahora, estas situaciones microscópica y macroscópica son análogas perfectas. Pero hay un aspecto hasta ahora no revelado de las paredes impenetrables en la mecánica cuántica, una que las hace completamente diferentes de las paredes de ladrillo; la teoría cuántica requiere que, para ser impenetrable, las paredes deben ser infinitamente altas e infinitamente anchas. Ahora esto se vuelve crucial. ¿Por qué? Porque si una de las paredes impenetrables se convirtiera en una con altura finita pero aún así fuera infinitamente ancha, la bola microscópica, o más exactamente, su función de onda, podría penetrar una distancia finita en ella. Además, si la pared previamente impenetrable se convirtiera en una con un ancho finito, así como un altura finita, la bola, representada por su función de onda, tendrá una probabilidad no nula de penetración en la pared y salir por su otro lado. La probabilidad de pasar a través de la pared es pequeña, pero en contraste con el caso macroscópico, no es cero. 


Lo que acabamos de describir es el extraño efecto cuántico de tunelización; desempeña un papel esencial en la descripción de ciertas características del mundo cuántico. Si la partícula entra en la caja ahora, temblará por dentro y, finalmente, hará un túnel a través de la pared de tamaño finito hacia el exterior. Esta idea, por cierto, subyace en el concepto de “núcleo compuesto”, introducido por Niels Bohr cuando se estudiaron por primera vez las reacciones nucleares, las iniciadas por protones o partículas alfa. En esta situación, el equivalente de la pared con altura y anchura finitas es la repulsión que siente un proyectil de protón o alfa cuando se acerca al núcleo cargado positivamente. Esa repulsión, generalmente conocida como “barrera” repulsiva o un “potencial” repulsivo. Una vez que la particula cargada hace túnel en el núcleo, la fuerza nuclear atractiva, más fuerte que la repulsión de partículas cargadas, le permite permanecer dentro del núcleo durante un tiempo relativamente largo antes de que vuelva a salir. Evidencia sorprendente de este fenómeno fue proporcionada por los estudios de partículas cargadas que chocan con núcleos, a energías bastantes bajas disponibles en ese memento, y también por experimentos sobre colisiones neutrón-núcleo. 


Este escenario es un ejemplo de un sistema de colisión unidimensional en el que una partícula con energía positiva, aquí KE (energía cinética o de movimiento), “choca” con una barrera de algún tipo. Por razones técnicas, en lugar de calcular probabilidades, un teórico cuántico determina las proporciones de probabilidad en particular, lo que se llama coeficiente de “reflexión” y “transmisión”. Es decir, para una probabilidad dada de que la partícula golpee la barrera, ¿Cuáles son las probabilidades relativas de que se recupere, es decir, se refleje o que se transmita a través de la barrera? Lo primero viene dado por el coeficiente de reflexión R y el segundo por el coeficiente de transmisión T. Su suma es la unidad, que es una declaración matemática del requisito físico de que la probabilidad no se pierde ni se gana en este proceso: se conserva.


Las expresiones detalladas para R y T dependen de los valores de KE (energía cinética), B (altura de la barrera) y el ancho de la barrera. Las expresiones matemáticas detalladas para R y T se simplifican en dos situaciones limitantes: una en la que la energía incidente es muy pequeña y la otra en la que el ancho es muy estrecho, aunque en este segundo caso ni KE ni B-KE deben ser pequeños. Para las energías bajas, predomina la reflexión: es simplemente difícil que una partícula de muy baja energía llegue al otro lado. Por otro lado, cuando el ancho es muy estrecho, predomina la transmisión: no hay demasiado espacio para que la amplitud interior decaiga, por lo tanto las posibilidades de transmisión de la partícula mejoran drásticamente.


La reflexión simple ocurre, pero la transmisión se inhibirá en gran medida si la energía es baja o la barrera muy ancha. Lo que puede ser sorprendente para usted, sin embargo, es que, en contraste con el caso macroscópico de una pelota de frontón lanzada contra una pared, ¡existe la posibilidad no nula de que la partícula cuántica no solo penetre la barrera, sino que realmente salga del otro lado! El coeficiente de transmisión cuántica para una pelota de frontón que golpea una pared de ladrillo, es tan infinitamente pequeño que el resultado de la física clásica de la probabilidad cero es cierto. 


En cada caso anterior, el cero tanto de la barrera cinética como de la altura de la barrera estaba en la parte inferior de la barrera, es decir, en B=0. Supongamos, sin embargo, que la barrera está invertida mientras que KE sigue siendo la misma. Reemplazando la barrera repulsiva hay un agujero, cuya profundad es -B. ¿Cómo se puede entender esto? Es decir, ¿qué se entiende por agujero, o como se le suele llamar, un atractivo “pozo de potencial” en física cuántica? Sin embargo, mientras que una barrera cuántica tiene paredes impenetrables, se podría sospechar para el caso de la barrera finita, un incidente de partícula en un pozo potencial puede reflejarse y transmitirse a través de él. De hecho, así es. Además un pozo de potencial, tanto en dos o tres dimensiones como en una dimensión, permiten la posibilidad de estados enlazados. Si pueden ocurrir depende de la profundidad y la extensión del pozo, pero para nuestros propósitos, se supone que ocurren. Eso significa que una partícula unida en un pozo de potencial tiene una probabilidad distinta de cero de estar fuera del pozo en sí, aunque por razones de técnica no pueden desvinculase. Una representación potencial adecuada de la atracción nuclear sentida por una participa alfa en un núcleo se utiliza en la discusión de la desintegración de partículas alfa.


En colisiones de baja energía entre partículas alfa y núcleos, las partículas alfas pueden hacer un túnel en el núcleo y resonar en él (formando un “núcleo compuesto”) antes de hacer un túnel de regreso. No permanecen atados al núcleo porque su energía es positiva, incluso cuando están dentro de él. Es decir, poseen la energía cinética que eventualmente hace que salga del núcleo. En la desintegración alfa, las partículas alfas ya están en el núcleo y salen por un túnel. Para explicar cómo sucede esto, necesitamos describir las interacciones entre una partícula alfa y un núcleo. 


Referencias


[1] Williamson, J.. (2013). Reliable Reasoning, by Gilbert Harman and Sanjeev Kulkarni.. Mind. 121. 1073-1076. 10.1093/mind/fzt006.

[2] Cutting, Gary & Holton, Gerald. (1974). Thematic Origins of Scientific Thought. Technology and Culture. 15. 657. 10.2307/3102263.

[3] Videira, Antonio. (2005). Herbert Dingle and the relation between science and philosophy at the begining of modern cosmology. Scientiae Studia. 3. 243-248. 10.1590/S1678-31662005000200005.

[4] Moyer, Albert. (1992). Interactions with Wright and Peirce. 10.1525/california/9780520076891.003.0004.

[5] Cresswell, James & Wagoner, Brady & Hayes, Andres. (2017). Rediscovering James' Principles of Psychology. New Ideas in Psychology. 46. 10.1016/j.newideapsych.2017.03.001.

[6] Libertin, Mary. (2013). James Joyce's Review of HUMANISM: PHILOSOPHICAL ESSAYS, A Collection of Essays on Pragmatism by Ferdinand C.S. Schiller. Semiotics 2013.

[7] Ciufolini, Ignazio & Matzner, Richard. (2010). General Relativity and John Archibald Wheeler. 10.1007/978-90-481-3735-0.

[8] Kramer, Boris & van Doorn, Sander & Arani, Babak & Pen, Ido. (2022). Eusociality and the Evolution of Aging in Superorganisms. The American Naturalist. 200. 10.1086/719666.

[9] Davies, Paul & Walker, Sara. (2016). The hidden simplicity of biology. Reports on progress in physics. Physical Society (Great Britain). 79. 102601. 10.1088/0034-4885/79/10/102601.

[10] Meyer, Stephen. (2021). The Argument from Biological Information. 10.5040/9781350093881.ch-006.

[11] Fogel, Gary & Corne, David. (2003). An Introduction to Evolutionary Computation for Biologists. 10.1016/B978-155860797-2/50004-4.

[12] Marletto, Chiara. (2015). Constructor Theory of Probability. Proceedings of the Royal Society A: Mathematical, Physical and Engineering Science. 472. 10.1098/rspa.2015.0883.

[13] Cunningham, Andrew. (2022). Aristotle On the causes of the parts of animals. 10.4324/9781003247616-4.

[14] Camacho, Marco. (2019). The Central Dogma Is Empirically Inadequate... No Matter How We Slice It. 11. 10.3998/ptpbio.16039257.0011.006.

[15] Ehrenstein, Kolja. (2022). The Concepts of Ultimate and Proximate Cause. 10.1007/978-3-030-87942-6_4.

[16] Beatty, John. (1994). The proximate/ultimate distinction in the multiple careers of Ernst Mayr. Biology & Philosophy. 9. 333-356. 10.1007/BF00857940.

[17] Ramsey, Grant & Aaby, Bendik. (2022). The proximate-ultimate distinction and the active role of the organism in evolution. Biology & Philosophy. 37. 10.1007/s10539-022-09863-0.

[18] Brundin, Lars. (2008). Evolution, Causal Biology, and Classification. Zoologica Scripta. 1. 107 - 120. 10.1111/j.1463-6409.1972.tb00670.x.

[19] Newman, Andrew. (2022). A causal ontology of objects, causal relations, and various kinds of action. Synthese. 200. 10.1007/s11229-022-03752-5.

[20] Lu, Qiaoying & Bourrat, Pierrick. (2018). The Evolutionary Gene and the Extended Evolutionary Synthesis. The British Journal for the Philosophy of Science. 69. 775-800. 10.1093/bjps/axw035.

[21] Laidre, Mark. (2012). Niche construction drives social dependence in hermit crabs. Current biology : CB. 22. R861-3. 10.1016/j.cub.2012.08.056.

[22] Foote, Andy & Vijay, Nagarjun & Avila-Arcos, Maria & Baird, Robin & Durban, John & Fumagalli, Matteo & Gibbs, Richard & Hanson, M. & Korneliussen, Thorfinn & Martin, Michael & Robertson, Kelly & Sousa, Vitor & Vieira, Filipe & Vina?, Tomáš & Wade, Paul & Worley, Kim & Excoffier, Laurent & Morin, Phillip & Gilbert, M. & Wolf, Jochen. (2016). Genome-culture coevolution promotes rapid divergence in the killer whale. Nature Communications. 7. 10.1038/ncomms11693.

[23] Uller, Tobias & Helanterä, Heikki. (2019). Niche Construction and Conceptual Change in Evolutionary Biology. British Journal for the Philosophy of Science. 70. 351-375. 10.1093/bjps/axx050.

[24] Gefaell, Juan & Saborido, Cristian. (2022). Incommensurability and the Extended Evolutionary Synthesis: Taking Kuhn seriously. European Journal for Philosophy of Science. 12. 10.1007/s13194-022-00456-y.

[25] Anderson, Ronald & Myrvold, Wayne & Christian, Joy. (2009). Balancing Necessity and Fallibilism: Charles Sanders Peirce on the Status of Mathematics and its Intersection with the Inquiry into Nature. 10.1007/978-1-4020-9107-0_2.

[26] Walters, Jordan. (2022). Is There Reason to Believe the Principle of Sufficient Reason?. Philosophia. 50. 10.1007/s11406-021-00414-7.

[27] Bell, Martin. (2008). Hume on Causation. 147-176. 10.1017/CCOL9780521859868.005.

[28] McCabe, Helen. (2021). J.S. Mill's understanding of the “organic” nature of socialism. 10.4324/9781003138655-5.

[29] Uzan, Jean-Philippe. (2010). Ceteris paribus. Quadrature. 10.1051/quadrature/2010011.

[30] Zelenak, Eugen. (2007). At the beginning there was the cowering-law model (Carl Hempel). Filozofia. 62. 834-845.

[31] Parry, William. (1979). Review: David K. Lewis, Counterfactuals. Journal of Symbolic Logic.

[32] Graham, Peter. (2013). M.S. Moore, Causation and Responsibility: An Essay in Law, Morals, and Metaphysics. Journal of Moral Philosophy. 10. 244-246. 10.1163/17455243-01002006.

[33] Lewis, David. (2000). Causation as Influence. The Journal of Philosophy. 97. 182-197. 10.2307/2678389.

[34] Sanford, David. (1991). Symposium Contribution on Events and Their Names by Jonathan Bennett. Philosophy and Phenomenological Research. 51. 633. 10.2307/2107885.

[35] Andresen, S.L.. (2002). John McCarthy: father of AI. Intelligent Systems, IEEE. 17. 84 - 85. 10.1109/MIS.2002.1039837.

[36] Cannataro, Mario & Guzzi, Pietro & Agapito, Giuseppe & Zucco, Chiara & Milano, Marianna. (2022). Knowledge representation and reasoning. 10.1016/B978-0-12-822952-1.00010-3.

[37] Cramer, Marcos & Dietz, Emmanuelle. (2020). Logic Programming, Argumentation and Human Reasoning. 10.1007/978-3-030-44638-3_4.

[38] Helmert, Malte & Geffner, Hector. (2008). Unifying the Causal Graph and Additive Heuristics.. ICAPS 2008 - Proceedings of the 18th International Conference on Automated Planning and Scheduling. 140-147.

[39] Lifschitz, Vladimir & Yang, Fangkai. (2011). Eliminating Function Symbols from a Nonmonotonic Causal Theor https://www.researchgate.net/publication/265542441_Eliminating_Function_Symbols_from_a_Nonmonotonic_Causal_Theory

[40] Lee, Joohyung & Lifschitz, Vladimir & Turner, Hudson. (2001). A Representation of the Zoo World in the Language of the Causal Calculator. https://www.researchgate.net/publication/2380938_A_Representation_of_the_Zoo_World_in_the_Language_of_the_Causal_Calculator

[41] Westreich, Daniel. (2019). Epidemiology by Design: A Causal Approach to the Health SciencesA Causal Approach to the Health Sciences. 10.1093/oso/9780190665760.001.0001.

[42] Robins, James & Scheines, Richard & Spirtes, Peter & Wasserman, Larry. (2003). Uniform consistency in causal inference. Biometrika. 90. 10.1093/biomet/90.3.491.

[43] Gahér, František. (2022). Backtracking counterfactuals. Filozofia. 73. 400-407. 10.1007/s10516-022-09618-2.

[44] Greenberg, Gabriel. (2021). Counterfactuals and modality. Linguistics and Philosophy. 44. 10.1007/s10988-020-09313-8.

[45] Rosenfeld, Gavriel. (2021). Counterfactuals. 10.4324/9780367821814-29.

[46] Baldwin, Richard. (2022). A Structural Model Interpretation of Wright's NESS Test.

[47] Maco, Róbert. (2020). Tim Maudlin: Philosophy of Physics: Quantum Theory. Filozofia. 75. 500-504. 10.31577/filozofia.2020.75.6.6.

[48] Wiltschko, Wolfgang & Traudt, Joachim & Güntürkün, Onur & Prior, Helmut & Wiltschko, Roswitha. (2011). Wiltschko et al. reply. Nature. 471. E1. 10.1038/nature09876.

[49] Amaro, Rommie & Villa, Elizabeth & Luthey-Schulten, Zan. (2017). Biography of Klaus Schulten. The Journal of Physical Chemistry B. 121. 3206-3206. 10.1021/acs.jpcb.7b02141.

[50] Jones, D.G.C.. (2014). The Quantum World, by Michel Le Bellac and Alain Aspect. Contemporary Physics. 55. 10.1080/00107514.2014.953591.

[51] Wiltschko, Roswitha & Nießner, Christine & Wiltschko, Wolfgang. (2021). The Magnetic Compass of Birds: The Role of Cryptochrome. Frontiers in Physiology. 12. 10.3389/fphys.2021.667000.

[52] Netušil, Radek & Tomanová, Kate?ina & Chodakova, Lenka & Chvalová, Daniela & Dolezel, David & Ritz, Thorsten & Vácha, Martin. (2021). Cryptochrome-dependent magnetoreception in heteropteran insect continues even after 24 hours in darkness. The Journal of experimental biology. 10.1242/jeb.243000.

[53] Ahmad, Margaret & Galland, Paul & Ritz, Thorsten & Wiltschko, Roswitha & Wiltschko, Wolfgang. (2007). Ahmad, M., Galland, P., Ritz, T., Wiltschko, R. & Wiltschko, W. Magnetic intensity affects cryptochrome-dependent responses in Arabidopsis thaliana. Planta 225, 615-624. Planta. 225. 615-24. 10.1007/s00425-006-0383-0.

[54] Frederick, John. (2008). Principles of Atmospheric Science. Jones and Bartlett PublishingISBN: 978-0-7637-4089-4


Sadler, Thomas. (2021). Energy, the environment, and climate change. 10.4324/9781003133629-12.

[55] Ried, M. & Büning, Hildegard & Seisenberger, Georg & Endreß, T. & Bräuchle, Christoph & Hallek, M.. (2001). Real-time single molecule imaging of adeno-associated virus uptake in living cells. European Journal of Cancer - EUR J CANCER. 37. 10.1016/S0959-8049(01)80449-4. 



Dastgir, Ghulam & Majeed, Muhammad & Nawaz, Haq & Rashid, Nosheen & Ali, Muhammad & Shakeel, Muhammad & Javed, Mahrosh & Ehsan, Usama & Ishtiaq, Shazra & Fatima, Rida & Abdulraheem, Aliza. (2022). Surface-enhanced Raman spectroscopy of polymerase chain reaction (PCR) products of Rifampin resistant and susceptible tuberculosis patients. Photodiagnosis and Photodynamic Therapy. 38. 102758. 10.1016/j.pdpdt.2022.102758.

[56] Lee, Victor & Lee, Anne. (2021). Principle of Cancer Radiotherapy. 10.1007/978-981-16-1815-4_1.

[57] Jørgensen, Jes & Belloche, Arnaud & Garrod, Robin. (2020). Astrochemistry During the Formation of Stars. Annual Review of Astronomy and Astrophysics. 58. 10.1146/annurev-astro-032620-021927.

[58] Farell, Megan. (2021). Principles of Laser Scanning Microscopes. PhotonicsViews. 18. 48-51. 10.1002/phvs.202100027

[59] Held, Gilbert. (2016). Introduction to Light Emitting Diode Technology and Applications. 10.1201/9781420076639.

[60] Nürnberger, Philipp & Reinhardt, Hendrik & Rhinow, Daniel & Riedel, René & Werner, Simon & Hampp, Norbert. (2017). Controlled growth of periodically aligned copper-silicide nanocrystal arrays on silicon directed by laser-induced periodic surface structures (LIPSS). Applied Surface Science. 420. 10.1016/j.apsusc.2017.05.005.

[61] Iwakuni, Kana & Bui, Thinh & Niedermeyer, Justin & Sukegawa, Takashi & Ye, Jun. (2019). Direct Frequency Comb Spectroscopy with an Immersion Grating. 1-1. 10.1109/CLEOE-EQEC.2019.8872605.

[62] Brody, Thomas & Peña, Luis & Hodgson, Peter. (1993). The Philosophy Behind Physics. 10.1007/978-3-642-78978-6.

[63] d’Espagnat, Bernard. (2021). On Physics and Philosophy. 10.2307/j.ctv21r3pq8.

[64] de Lazaro, Sergio & Leite, Edson & Longo, Elson & Beltrán, Alfred. (2011). Fotoluminiscencia del PbTiO3 en estado amorfo analizada por métodos ab-initio periódicos. Boletín de la Sociedad Española de Cerámica y Vidrio, ISSN 0366-3175, Vol. 43, Nº. 3, 2004 (Ejemplar dedicado a: Electrocerámica, VI Reunión Nacional (Castellón, 19-21 junio 2003)), pags. 644-648. 43. 10.3989/cyv.2004.v43.i3.446.

[65] Yoon, Tae-Young. (2022). Emerging Biophysics Tools for Biologists. Molecules and cells. 45. 4-5. 10.14348/molcells.2022.500

[66] Chevizovich, Dalibor & Michieletto, Davide & Mvogo, Alain & Zakir'yanov, Farit & Zdravkovic, Slobodan. (2020). A review on nonlinear DNA physics. Royal Society Open Science. 7. 10.1098/rsos.200774.

[67] Almafreji, Ibrahim & Manton, Alex & Peck, Fraser. (2021). Cobbs Tufts A Systematic Review. Cureus. 13. 

DOI:10.7759/cureus.20151.

[68] Ding, Fei & Peng, Wei & Peng, Yu-Kui & Liu, Bing-Qi. (2020). Elucidating the potential neurotoxicity of chiral phenthoate: Molecular insight from experimental and computational studies. Chemosphere. 255. 127007. 

DOI:10.1016/j.chemosphere.2020.127007.

[69] Black, James. (1998). I Wish I'd Made You Angry Earlier. Nature Medicine - NATURE MED. 4. 1445-1445. 

DOI:10.1038/4038.

[70] Son, Sungmin & Kang, Joon & Oh, Seungeun & Kirschner, Marc & Mitchison, Timothy & Manalis, Scott. (2015). Resonant microchannel volume and mass measurements show that suspended cells swell during mitosis. The Journal of Cell Biology. 211. 757-763. 

DOI:10.1083/jcb.201505058.

[71] Bartnicki-Garcia, Salomon. (2016). The evolution of fungal morphogenesis, a personal account. Mycologia. 108. 

DOI:10.3852/15-272.

[72] Young, Robert. (2013). Books: ‘BRILLIANT BLUNDERS’ by Mario Livio. Oncology Times. 35. 32. 

DOI:10.1097/01.COT.0000437979.71929.dd.

[73] https://www.sciencedirect.com/topics/materials-science/potential-energy-function

[74] Bada, Jeffrey. (2015). One of the foremost experiments of the 20th century: Stanley Miller and the origin of prebiotic chemistry. Mètode Revista de difusión de la investigación. 

DOI:10.7203/metode.6.4994.

[75] Lancet, Doron & Segrè, Daniel & Kahana, Amit. (2019). Twenty Years of “Lipid World”: A Fertile Partnership with David Deamer. Life. 9. 77. 

DOI:10.3390/life9040077.

[76] Smith, Brendan & Barclay, David. (2021). Passive acoustic monitoring of hydrothermal vents at the endeavour hydrothermal vent field. The Journal of the Acoustical Society of America. 150. A123-A123. 

DOI:10.1121/10.0007843.

[77] Grigoriev, Andrey. (2021). Transfer RNA and Origins of RNA Interference. Frontiers in Molecular Biosciences. 8. 708984. 

DOI:10.3389/fmolb.2021.708984.

[78] Adeyemi, Samson & Choonara, Yahya. (2022). Current advances in cell therapeutics: A biomacromolecules application perspective. Expert Opinion on Drug Delivery. 10.1080/17425247.2022.2064844.

[79] Saghatelian, Alan & Cravatt, Benjamin. (2005). Assignment of protein function in the postgenomic era. Nature chemical biology. 1. 130-42. 10.1038/nchembio0805-130.

[80] Keating, Brian. (2016). The Big Picture: On the Origins of Life, Meaning, and the Universe Itself. Physics Today. 69. 55-55. 10.1063/PT.3.3399.

[81] Underwood, Richard. (2021). A Brief History of Life: From the Origin of Life to the End of the Universe List of book contents.

[82] Zhang, Lijun & Su, Shunpeng & Wu, Hongping & Wang, Shaowu. (2009). Synthesis of amides through the Cannizzaro-type reaction catalyzed by lanthanide chlorides. Tetrahedron. 65. 10022-10024. 10.1016/j.tet.2009.09.101.

[83] Welch, G. & Clegg, James. (2022). The organization of cell matabolism / G. Rickey Welch and James S. Clegg. SERBIULA (sistema Librum 2.0).

[84] Summers, William. (2022). Central Dogma of Molecular Biology. 10.1016/B978-0-12-822563-9.00002-0.

[85] Blackstone, Neil. (2020). Chemiosmosis, Evolutionary Conflict, and Eukaryotic Symbiosis. 10.1007/978-3-030-51849-3_9.

[86] Sapp, Jan & Fox, George. (2013). The Singular Quest for a Universal Tree of Life. Microbiology and molecular biology reviews : MMBR. 77. 541-50. 10.1128/MMBR.00038-13.

[87] https://es.wikipedia.org/wiki/Pozo_de_potencial

[88] http://www.ehu.eus/biomoleculas/moleculas/fuerzas.htm

[89] https://es.wikipedia.org/wiki/Superficie_de_energ%C3%ADa_potencial

[90] https://es.wikipedia.org/wiki/Energ%C3%ADa_del_punto_cero

[91] https://es.wikipedia.org/wiki/Enlace_de_hidrógeno