Julio López
está desaparecido
hace 6402 días
versión para imprimir - envía este articulo por e-mail

Unos apuntes de física cuántica
Por (reenvio) Erraticario - Wednesday, Dec. 03, 2014 at 1:43 AM

17 de junio de 2014 / Para celebrar la entrada en el siglo XX, el viernes 27 de abril del año de nuestro señor 1900, uno de los más ilustres científicos de la época, el físico y matemático Lord William Thomson, primer barón Kelvin, pronunció un discurso por el que los huesos del lord aún castañetean en las noches de luna llena. Comenzaba así: "The beauty and clearness of the dynamical theory, which asserts heat and light to be modes of motion, is at present obscured by two clouds."

download PDF (208.4 kibibytes)

Unos apuntes de física cuántica, I

Sin entrar en detalles, las dos oscuras nubes que empañaban el claro y hermoso cielo de la Física eran, una, la imposibilidad de explicar el movimiento de los cuerpos en relación al éter luminoso que se suponía llenaba el Cosmos; y otra, la denominada “catástrofe ultravioleta”, un “pequeño” error del electromagnetismo clásico que atentaba contra el principio de conservación de la energía.

El discurso de Lord Kelvin permanece para la Historia en treinta y cuatro páginas de las Notices of the proceedings at the meetings of the members of the Royal Institution of Great Britain with abstracts of the discourses, a lo largo de las cuales el barón aporta su granito de arena para, como afirma al concluir, ayudar a disipar el celaje que había oscurecido la física durante un cuarto de siglo y devolverle su fulgor.

Ese mismo año de 1900, otro físico, Max Planck, dio con el camino para solucionar el embrollo. Pero, cual pintor que quita la mancha del cuadro emborronándolo todo, hizo que en el bello paisaje positivista de Lord Kelvin ya no se viera ninguna pequeña nube oscura, sino un tenebroso cielo de tormenta. Sin tener ni idea, todavía, de que su criatura la iba a liar parda, Planck acababa de plantar la semilla de una nueva física que se terminaría conociendo como “mecánica cuántica”.

Un monstruo nacido en noche de tormenta que fue arrasando, despacito pero sin pausa, los cimientos de la realidad “clásica”, y cuyos destrozos no han podido, o no han querido, ser evaluados en toda su magnitud por las autoridades del conocimiento. De momento, la escombrera sigue tapada con un provisional tinglado de cartón piedra que, aunque no termina de dar el pego, al menos permite pasear con cierta serenidad y no preocuparse por que un canto se le venga encima al transeúnte satisfecho.

Cuanto de acción

En 1900, Planck descubrió que la energía está empaquetada en unidades indivisibles; es decir, existe una unidad mínima de acción llamada “cuanto” y no se pueden hacer paquetes de energía más pequeños. Esto quiere decir que la energía no aumenta ni disminuye de manera continua, sino que es siempre múltiplo de un cuanto. A este paquete básico se le denominó constante de Planck y fue el origen de una serie de postulados tan contrarios a lo que la racionalidad humana entiende por pensamiento sano que, cien años después, se sigue sin saber de qué va todo esto.

Poco después de la aparición en escena del cuanto de acción, en 1905, Albert Einstein solucionó muchas de las dudas –algunas nubes negras— sobre el comportamiento de la luz que no podían resolverse en virtud de su naturaleza de onda. Y ello gracias al cuanto: la nueva teoría de Einstein proponía que la luz podía actuar como partícula en ciertos casos; tales partículas eran los fotones, las unidades básicas de energía electromagnética. No obstante, la existencia del fotón no fue aceptada por todos hasta la década de 1920.

Se aceptara o no se aceptara, el lío ya estaba montado. Para seguir el curso de los acontecimientos, primero hemos de remontarnos brevemente a unos años antes, cuando se comprendió que el átomo no era lo que su nombre indica, indivisible: en 1890, para explicar por qué la materia emite radiación, el físico Hendrik A. Lorentz había teorizado sobre la presencia de cargas eléctricas “dentro” de los átomos las cuales, al vibrar, emitían luz. Y si estaban dentro, es que el átomo tenía estructura interna y, por tanto, había más piezas de las que se pensaba hasta ese momento.

En 1911, tras varios intentos por desentrañar dicha estructura, al final se aceptó el modelo propuesto por Rutherford: los electrones, de carga negativa, giraban en torno a un núcleo de carga positiva; entre ellos, todo era espacio vacío. Es decir, el átomo se había convertido en un “sistema planetario”. Pero había otro problemilla con esto: según el planteamiento, al moverse los electrones, pierden energía, de modo que el núcleo los iría atrayendo hasta provocar su destrucción.

En 1913, Niels Bohr aplicó la constante de Planck a su teoría sobre el átomo de hidrógeno: demostró que la radiación emitida por dicho átomo provocaba variaciones en la órbita de su único electrón, y que tales cambios de energía se producían de acuerdo a múltiplos de la constante de Planck. O sea: al disminuir la energía, el electrón orbitaba más cerca del núcleo; cuando subía la energía, se alejaba.

Bohr, al igual que muchos otros, no terminaba de aceptar la existencia del fotón –no lo haría hasta 1925—, por lo que no pudo explicar lo que luego quedaría claro: que el electrón adquiere y pierde energía absorbiendo y desprendiendo fotones, y que tal es la causa de la luz emitida por un átomo, además del cambio de órbitas de sus electrones. Además, su modelo sólo funcionaba bien para el átomo de hidrógeno; en cuanto se aplicaba a otros elementos, que tienen más de un electrón en órbita, comenzaban los problemas. Con todo, el gran logro de Bohr fue que, al aplicar la constante de Planck, había conseguido estabilizar el átomo, al limitar sus estados posibles a múltiplos enteros del cuanto de acción y definir una órbita mínima que impedía su colapso. De momento, algo se había avanzado, así que le dieron el Nobel.

Sin embargo, robar el fuego de los dioses tiene un precio muy alto: de acuerdo al modelo de órbitas, al liberar energía, el electrón se acerca al núcleo, y al absorberlo se aleja a órbitas más externas; y, puesto que las órbitas posibles para el electrón respondían a múltiplos de la constante de Planck, estaban “cuantizadas”: el electrón no se podía mover entre las órbitas, sino que “saltaba” de una a otra sin realizar el trayecto que las separa.

El salto cuántico propuesto por Bohr iba en contra de todo lo conocido hasta entonces y destrozaba el principio que, desde los tiempos de Aristóteles, se dio por hecho natural: “La naturaleza no procede a saltos”. El átomo, definitivamente, ya no podía ser explicado en los términos de la física clásica. Otra realidad era posible. Pero incompatible con el sentido común…

La no conmutabilidad

Un par de décadas después de que Lord Kelvin mirara al cielo con la esperanza de que dos pequeñas nubes no estroperan los brillantes días de la ciencia, la mente de los terrícolas había llegado a su límite, al menos aparente, incapaz de encontrar imágenes nítidas con que visualizar el mundo.

Tras algunos años de debates inciertos sobre la naturaleza del átomo y de la luz, allá por 1925, Werner Heisenberg, un discípulo de Bohr en el instituto que éste dirigía en Copenhague, decidió que la realidad física sólo podía contemplarse mediante formalismos matemáticos, y que toda representación intuitiva era inútil. Buena parte de la culpa de esta actitud radical por parte de Heisenberg la tuvo su formación humanista y su interés por los clásicos, como explica Heinz Pagels en El código del universo:

"Heisenberg estaba interesado en la filosofía clásica, especialmente en Platón y los atomistas, quienes pensaban en los átomos conceptualmente, no como en algo visible. La mayoría de los físicos intentaban construir dibujos atómicos, pero Heisenberg, como los griegos, creía que era necesario prescindir de los dibujos atómicos, de los electrones que describían círculos de radio definido alrededor del núcleo a manera de pequeños sistemas solares. Heisenberg no pensaba en qué eran los átomos, sino en lo que hacían (sus energías de transición). Siguiendo procedimientos matemáticos, describió las transiciones de energía de los átomos como una formación de números. Aplicando su notable ingenio matemático, encontró reglas que eran obedecidas por estas formaciones numéricas y las empleó para calcular los procesos atómicos."

Se trataba de las matemáticas matriciales, donde, en lugar de por un número, cada elemento es descrito por una estructura de números. Y, consecuentemente, al describir una partícula en términos de matrices, la posición (q) y la cantidad de movimiento (p) de la partícula ya no se expresan con un número simple (q=3, por ejemplo), sino con matrices.

Pero, si alguien no sabe qué es una matriz, que no se preocupe; Heisenberg tampoco lo sabía, aunque se puso las pilas enseguida. Él se había limitado a describir los cambios de energía en el átomo mediante una formación de números; fueron Max Born y Pascual Jordan quienes le hicieron ver lo que había descubierto y, poco después, fue Paul Dirac quien completó la nueva mecánica de matrices y William Pauli quien amplió su rango de aplicaciones. Y todo ello entre 1925 y 1927.

¿Qué puede significar para la interpretación de la naturaleza que las cualidades de una partícula estén descritas por matrices y no mediante números simples? La consecuencia fundamental es que las matrices no cumplen la ley conmutativa: pxq no tiene por qué ser igual a qxp. Es decir, el orden de los factores sí altera el producto. Si tenemos las variables “posición” y “momento lineal”, ello significa que si medimos una y después la otra, el resultado será diferente del que habríamos obtenido si los hubiéramos medido en el orden inverso; así que, o bien elegimos conocer la posición de una partícula, o bien elegimos conocer su movimiento. Sólo conoceremos con precisión la primera medida que hagamos, siendo la segunda una aproximación probable, pero jamás cierta.

Si la física clásica presumía de poder establecer la posición y el momento de cualquier objeto conociendo sus parámetros de inicio, con la mecánica cuántica el conocimiento del sistema es incompleto por definición. Con Heisenberg había nacido el “principio de incertidumbre”, por el que la imprecisión es inherente a los sistemas cuánticos y no puede desaparecer por naturaleza.

El principio de incertidumbre y sus consecuencias

Si la primera consecuencia del postulado de Heisenberg fue que la imprecisión era un aspecto natural de la realidad, la segunda consecuencia fue que los resultados estadísticos obtenidos no eran tan naturales, sino que se debían a la perturbación que el científico provocaba en el sistema al intentar observarlo.

Todo experimento requiere un sistema externo, un aparato, que interactúe con el sistema sobre el que se experimenta; la interacción más simple es la de un fotón lanzado dentro del sistema para detectar la posición de un electrón; de la interacción entre ambos, surge un resultado. La interacción entre aparato y sistema es una acción invasiva pero, mientras que, en física clásica, el efecto es inapreciable, en la mecánica cuántica esa interacción condiciona el resultado; ello es así porque cualquier fotón (observador) con la energía suficiente para realizar la medición, también tiene la energía suficiente para alterar la partícula observada.

Según explica Ana Rioja, de la Universidad Complutense de Madrid, en su ensayo “La filosofía de la complementariedad”, de ello se establece que la física clásica es una “idealización” que permite hablar de sistemas cerrados, es decir, ajenos a toda interferencia y por tanto susceptibles de ser estudiados con absoluta objetividad, simplemente por una cuestión de perspectiva; el sistema se altera inevitablemente aunque se estima inapreciable para el resultado buscado. Por tanto, no estaríamos ante la pretendida realidad objetiva, sino ante una realidad a la medida del ser humano:

"La caracterización del conjunto de los sistemas físicos como sistema cerrado, o sea, como un sistema sin intercambio con nada externo, era absolutamente indispensable a este ideal explicativo, a fin de que la noción de objeto observado pudiera tener un sentido definido, perfectamente independiente del sujeto observador y de sus operaciones de observación y medida. Ahora bien, toda observación de la naturaleza, y con más razón cuando se interponen aparatos de medida, supone una entrada y salida de energía, una interacción entre el objeto y el sujeto con sus medios de observación –entre los que al menos hay que mencionar la luz—, que puede llevar a poner en tela de juicio la noción de sistema observado cerrado, y con ello la fundamental distinción entre sujeto y objeto, así como el criterio mismo de objetividad. En efecto, la descripción objetiva y científica del mundo exige dar cuenta de éste tal cual es, sin interferencia, intervención o perturbación por parte del sujeto que observa."

En tercer lugar, y relacionado con todo ello, el principio de incertidumbre desafiaba el principio clásico de causalidad. El principio de causalidad afirma que todo efecto está precedido por una causa única, lo que sostiene la afirmación de Laplace según la cual es posible determinar el movimiento de cualquier partícula si se conocen con exactitud sus condiciones iniciales de posición, cantidad de movimiento y las fuerzas que actúan en el sistema.

La base de la física clásica es que, si se conoce un estado presente, se puede calcular el estado futuro. El problema, según el postulado de Heisenberg, es que no podemos llegar a conocer jamás ningún presente en términos absolutos como pretendía Laplace; sólo se alcanza a describir un rango de posibilidades para la posición y el momento lineal de la partícula en el futuro, por lo que la linealidad causa-efecto se pierde.

La formulación del principio de incertidumbre fue un duro golpe para el sueño positivista. Como afima David Cassidy, de la Universidad Hofstra de Nueva York y experto en la vida y obra de Werner Heisenberg, en un artículo publicado por la revista Investigación y Ciencia (“Heisenberg, imprecisión y revolución cuántica”, nº 190): “Era la primera vez, desde la revolución científica, que un físico de primera línea proclamaba una limitación al conocimiento científico”.

La realidad dominada por un observador absoluto, sin punto de vista, sin cuerpo, sin situación espacial, era cosa del pasado. Niels Bohr se planteó, a partir de estas ideas, las consecuencias ontológicas del postulado cuántico. Su base de argumentación era la existencia del cuanto de acción de Planck. Su existencia hace que cualquier proceso atómico sea no sólo indivisible sino discontinuo, a saltos, por lo que el ideal descriptivo debía ser revisado.

Bohr y Heisenberg estaban de acuerdo en que la nueva física impedía construir imágenes espacio-temporales y causales, y hacía imposible el ideal de objetividad de la ciencia clásica. Por tanto, no podía pensarse en una realidad independiente en el sentido ordinario del término: la realidad es arbitraria, ya que depende de qué objetos pueden interactuar con el elemento observador. Pero, al mismo tiempo que unos forjaban la mecánica cuántica desde las abstracciones y matrices, otros se negaban a renunciar a la capacidad del ser humano para describir el mundo en términos precisos y visuales.

Lo que las matrices venían a decir era que, si se intenta definir el punto concreto de una partícula, su cantidad de movimiento se vuelve impredecible. Suena raro… y, sin embargo, hay un suceso con el que es posible establecer una analogía en la realidad sensible, y que permitió a Louis de Broglie, primero, y a Edward Schrödinger, después, no tan amigos de lo abstracto como Heisenberg y compañía, confirmar de manera independiente los mismos efectos que se extraían de las matrices. A saber: cuando una gota cae sobre un estanque, el agua se ve afectada en un punto concreto, pero enseguida las ondas se propagan; no hay movimiento que trazar, es solo que el estanque está revuelto. Hay olas en su superficie…

Unos apuntes de física cuántica, II

Dualidad onda-corpúsculo

Frente a científicos como Heisenberg o Paul Dirac, que se habían sumergido de lleno en el mundo de lo abstracto, hubo quienes siguieron luchando por “salvar” la realidad sensible, negándose a abandonar los conceptos de ondas y partículas. A pesar de las muchas reticencias, la teoría fotoelétrica de Einstein mostraba que la luz se comportaba bajo dos naturalezas incompatibles: una onda que mostraba ciertos comportamientos de partícula. Al mismo tiempo que Heisenberg y compañía se dedicaban a las abstracciones que definirían la nueva física, el francés Louis de Broglie tuvo la intuición de que esa doble naturaleza de la luz era aplicable a todas las partículas.

Es decir, se le ocurrió que el asunto aquel no tenía por qué limitarse únicamente a una onda que a ratos ejerce como partícula, como se entendía que hacía la luz, sino que lo que hasta entonces se concebía como partícula podría comportarse como onda. Los resultados de Bohr tras su estudio del átomo, donde cada elemento emitía unas frecuencias determinadas, llevaron a De Broglie a imaginar la materia como un instrumento musical que puede emitir un tono básico y una secuencia de tonos superiores, sugiriendo así el aspecto ondulatorio de las partículas.

En su tesis de 1925, De Broglie se imaginó la unión de ondas y partículas a la manera de un objeto montado sobre una onda que guiaba sus posibles recorridos. Obviamente, la cosa no era tan fácil, y Erwin Schrödinger se empeñó en encontrar una ecuación que describiese este comportamiento de las partículas. La ecuación de Schrödinger debía describir la relación de una partícula con su movimiento, pero el movimiento responde a la propagación de una onda, por lo que tenía que encontrar la relación entre el movimiento de la onda y la posición de la partícula: localizarla en la onda.

Es así como se llegaba, pero desde otro punto de vista, a la misma naturaleza probabilística, no determinista, que expresaban las formulaciones de Heisenberg; pues la ecuación de Schrödinger se refiere a una función de onda que señala una distribución de probabilidades, indicando así dónde estaría la partícula de acuerdo a resultados de naturaleza estadística.

En mecánica cuántica, todo objeto es descrito como una función de onda, una entidad abstracta que existe fuera del espacio-tiempo y que determina las probabilidades de aparecer en la matriz que es el universo espacio-temporal. Los matemáticos llaman a ese “no-lugar” espacio de Hilbert, y en él están todos los estados posibles de ser. Es decir, una función de onda puede ser imaginada como una partícula que muestra todas sus cualidades al mismo tiempo –por ejempo, todas sus posibles localizaciones, lo que equivale a estar en todas partes a la vez— como si de un cuadro cubista se tratase.

Esto significa que la ecuación de Schrödinger incluía el “principio de superposición”: todas las propiedades de una partícula están presentes a la vez, siempre y cuando ésta no sea sometida a observación; cuando se realiza una medición, las probabilidades se reducen a cero en todos los puntos de la función de onda, salvo en uno, que adquiere el 100% y establece, por tanto, el estado concreto de la partícula. Y, entre esas propiedades, está, obviamente, su localización espacial. El nuevo modelo de Schrödinger describía el átomo como una nube en la que un solo electrón no está localizable porque se encuentra en todas partes; pero hay más opciones de encontrarlo en una zona que en otra, y esas opciones están descritas por una función de probabilidad.

Schrödinger, sirviéndose de la imagen de De Broglie, entendía que las “ondas de materia” del electrón excitaban modos armónicos de vibración en el interior del átomo, los cuales reemplazaban los estados atómicos estacionarios del átomo de Bohr; ya no había saltos cuánticos, sino transiciones continuas de un armónico a otro. Y, aunque en un principio esta idea no parecía casar muy bien con las matrices de Heisenberg, que sí contemplaba los saltos cuánticos, poco después de la divulgación de sus diferentes modelos, en 1926, Schrödinger afirmó que su planteamiento era matemáticamente equivalente al de Heisenberg.

Entrelazamiento

Pero las cosas se siguieron complicando para quienes querían saber en qué clase de mundo vivimos. En 1935, Schrödinger explicaba los resultados de aplicar la superposición no a una partícula, sino a un sistema de partículas. Y ese resultado era el entrelazamiento. Un principio fundamental de la física clásica es la conservación de la energía en cualquiera de sus formas, como pueden ser la masa y la energía cinética. La energía transmitida a la materia se transforma en inercia, primero, y en masa, después. En condiciones “normales”, apreciamos que toda la energía aplicada a un cuerpo es convertida en movimiento.

Por ejemplo, al golpear una bola de billar. Pero si nos remitimos al mundo de los grandes números, donde la relatividad comienza a jugar un papel importante, veremos que cuanta más velocidad adquiere un objeto, menor cantidad de la energía que se le transmite es convertida en movimiento, sino que se traduce en un aumento de la masa del cuerpo. El límite es la velocidad de la luz, donde la energía sólo se transmite en forma de masa y no hay posibilidad de un aumento de la velocidad.

De ahí que se pueda considerar que el contacto entre dos objetos los convierte en uno sólo a efectos físicos: en un sistema formado por un juego de billar, una bola que golpea a otra pierde energía cinética al transferirla a la bola golpeada: el momento de la bola móvil se divide en dos, el de ésta y el de la bola que estaba quieta pero que ahora se mueve. Ambos cuerpos se han “entrelazado”, y al perder energía uno de ellos el otro la ha ganado para que el sistema siga conservando el equilibrio inicial.

En física cuántica, las consecuencias van más allá del principio de conservación: dos partículas que interactúan entre sí permanecerán enlazadas de una forma un tanto extrema: lo que le suceda a una de ellas, no importa lo lejos que pueda estar de su gemela, afectará inmediatamente a la otra.

Cuando se dice que un sistema se halla en el estado AB, significa que la partícula 1 se halla en el estado A y la partícula 2 en el estado B, siendo A y B propiedades incompatibles entre sí. Ahora, consideremos el estado AB+CD. Significa que si la partícula 1 está en estado A, la partícula 2 se hallará en el estado C, y que si 1 se halla en B, 2 se hallará en D. Pero no hay manera de saber en qué estado se encuentra 1 mientras no se haya medido 2, y viceversa. Mientras tanto, el sistema se halla en una superposición de estados donde se dan todas las combinaciones.

Esta superposición de estados es lo que se denomina entrelazamiento. Una partícula no puede ser descrita sin referirse también a la otra. El entrelazamiento es posible porque los entes entrelazados fueron producidos por un proceso que los ha ligado para siempre; por ejemplo, dos fotones emitidos por el mismo electrón. El sistema queda, por tanto, definido por una gran función de onda que emerge de las funciones de onda de sus partes, ajena a distancias y tiempos, y cuyos misterios, lejos de resolverse, no hacen más que generar discusiones y dolores de cabeza.

El gato de Schrödinger

Desde una perspectiva matemática, la función de onda permite calcular la probabilidad de que se dé un resultado al medir un sistema físico. Pero existe una larga discusión acerca de la realidad de la función de onda, en la que no se termina de aclarar si su carácter es meramente matemático o si existe como realidad física.

El comienzo de estos debates dio origen a la paradoja de Schrödinger. Al igual que otros pioneros en el nuevo mundo cuántico, el vienés tenía cierto síndrome de Frankenstein, por lo que no terminaba de aceptar a su criatura, a la que consideraba monstruosa, tanto más cuanto más se demostraba su acierto y se hacía consciente de haber acabado con el sentido común como guía hacia el conocimiento.

Es por ello que, en un intento de suicidio intelectual para demostrar cuán absurdo era todo, propuso lo siguiente en 1935: coloquemos a un gato y un tarro lleno de gas venenoso dentro de una caja cerrada, en la cual además habrá un poco de uranio y un contador Geiger conectado a un interruptor del cual depende que se suelte un martillo justo encima del tarro. Si el uranio emite radiación, el contador la detectará, se activará el interruptor, el martillo romperá el tarro y el gato morirá.

En términos cuánticos, las partículas radiactivas del uranio están en un estado de superposición hasta que no se las observe, o sea, que antes de que esto ocurra están descritas por una función de onda en la que han sido emitidas y no han sido emitidas al mismo tiempo. Entonces, en esa situación de espera, ¿qué pasa con el gato? Porque, según el planteamiento, el gato está entrelazado con el átomo radiactivo, así que, como se ha mencionado antes, estamos en un sistema AB+CD, es decir: (radiación-gato muerto) + (no radiación-gato vivo).

A su pesar, lejos de acabar con la física cuántica, Schrödinger le dio la vida que necesitaba para convertirse en un problema ontológico de primer orden. De hecho, todos los padres de la criatura acabaron por escribir algún que otro texto filosófico con connotaciones más o menos místicas.

En los ochenta años que llevamos con el gato a cuestas, se han propuesto innumerables soluciones a la paradoja. La primera y más popular fue la denominada interpretación de Copenhague, según la cual el gato, mientras no se abra la caja, está muerto y no está muerto en un plano conceptual cuya comprensión no debe, dicen, incumbir a la labor científica, a la cual le basta saber que los dos estados permanecen en superposición hasta que la onda de probabilidad no se resuelva, y esto no ocurrirá hasta que se abra la caja; sólo entonces, el gato estará definitivamente vivo o definitivamente muerto.

Pero, a pesar de los pinitos filosóficos de los padres de la mecánica cuántica, este tipo de asuntos fue el colmo para muchos. Y, según dicen, la ciencia renunció a ir más allá en su búsqueda seria de la realidad, al tiempo que la filosofía se hizo un poco la tonta cuando de cosas cuánticas se trataba. Entre esos que dicen está David Deutsch, físico de la Universidad de Oxford y miembro de la Royal Society de Londres, quien, como se decía en un artículo anterior, considera que la controversia en torno a la naturaleza cuántica de la realidad carece de sustancia, pues se debe a lo que él denomina “mala filosofía”, donde el adjetivo no se refiere a una filosofía errónea, sino a un pensamiento que niega la posibilidad de un acercamiento diferente al problema de la realidad.

"Según expone en su libro El comienzo del Infinito, tras el éxito probado de la mecánica cuántica a finales de la década de 1920, la comunidad científica no encontró otra salida que la de enrocarse en el instrumentalismo: “si las predicciones funcionan, no hay por qué preocuparse de nada más”; de modo que la teoría de los cuantos se redujo a un manual de instrucciones con el que elaborar artilugios cada vez más eficientes que comenzaron a ver el éxito a partir de la década de 1940."

"Desde entonces, se impondría la máxima nacida en el Rad Lab: “Cállate y calcula”. El blindaje de la física cuántica a cualquier tratamiento desde una perspectiva ontológica ajeno al utilitarismo quedó plasmado, explica Deutsch, en una frase que se ha repetido sin cesar durante más de setenta años: “si crees que has comprendido la mecánica cuántica, no comprendes la mecánica cuántica”; con ella se justificaba la renuncia a todo intento por comprender, intento que, sobre todo durante los primeros años de la Guerra Fría, fue considerado una lamentable pérdida de tiempo si no estaba relacionado con el desarrollo tecnológico."

La falta de pasión, en términos existenciales, ante los nuevos descubrimientos y de todo lo que éstos implicaban a la hora de reflexionar sobre la existencia y el papel del ser humano en el marco más amplio del Cosmos es lo que provocó la reflexión de un Niels Bohr frustrado con el positivismo imperante, al afirmar que “quien no se sorprende ante los descubrimientos de la física cuántica no la ha comprendido” (la frase es citada por Michio Kaku en su libro Visiones). Esta afirmación, entienden quienes piensan como Deutsch, podría ser el origen de la arriba citada (“si crees que has comprendido la mecánica cuántica, no comprendes la mecánica cuántica”), versionada por tanto al gusto de los tiempos (Richard Dawkins se la atribuye a Richard Feynman en El espejismo de Dios).

Una consecuencia de este abandono es que, siempre siguiendo a Deutsch, el campo ontológico en términos “cuánticos” quedó desierto durante décadas, dejando vía libre a ciertas tendencias pseudo-místicas-científicas de las que ahora muchos se quejan, pero de las que esos muchos, por desidia instrumentalista o materialismo ingenuo, son en buena parte responsables. Con todo, y volviendo al tema principal, la única manera de desmentir la paradoja de Schrödinger era estableciendo una barrera entre el mundo microscópico y el macroscópico; pero esta barrera, tal y como ha demostrado el tiempo y el éxito de los innumerables experimentos en laboratorio, no queda clara. Sufre del mismo mal que quiere sanar: superposición.

Unos apuntes de física cuántica, III: la doble rendija

Si existe un experimento que permite comprender de qué va realmente eso de la física cuántica y las reticencias que despierta más allá de la especulación cómoda y entretenida, ese es el experimento de la doble rendija. La versión común consiste en emitir un láser hacia una pantalla receptora, interponiendo en su camino una placa con dos aberturas, a la espera de que el rayo de luz pase por las aberturas y se proyecte en la pantalla sensible. La gracia reside en los resultados que se obtienen tras la proyección, pero para comprender su alcance será mejor ir despacito, que vienen curvas.

En su realización más básica, es algo muy sencillo y casero; de hecho, el experimento fue realizado a principios del siglo XIX para demostrar las cualidades ondulatorias de la luz frente a la teoría newtoniana vigente, según la cual estaba formada por corpúsculos. El 24 de noviembre de 1803, Thomas Young explicó ante las más granadas cabezas pensantes de la Royal Society de Londres lo que se le ocurrió hacer un día cualquiera dos años atrás, en 1801:

"Hice un pequeño agujero en una contraventana y lo cubrí con un trozo grueso de papel, el cual perforé con una aguja fina […] Interferí el rayo de sol con una tira de cartón de aproximadamente la decimotercera parte de una pulgada, y observé su sombra tanto en la pared como en otros cartones colocados a diferentes distancias."

Y, bueno, la sombra formó una sucesión de franjas, como una parrilla, que es lo que se proyecta cuando una onda se divide en dos ondas a causa del obstáculo y esas nuevas ondas, en su expansión, se recombinan parcialmente, es decir, hay unos puntos en que coinciden las crestas y valles de ambas ondas, intensificando la luz, y puntos en que la cresta de una onda coincide con el valle de la otra, anulándose entre sí y “apagando” la luz. Si la luz estuviera formada por partículas, la sombra dibujaría un par de líneas, una para cada camino tomado por los rayos. Así que, con esto, Young demostró que la luz era una onda.

Pero hete aquí que un siglo después, en 1905, apareció Albert Einstein con el asunto aquel de los fotones: que si había aplicado los descubrimientos de Planck sobre el cuanto y que ahora la luz bien podía ser una onda pero que también estaba hecha de partículas y que a ver quién era el listo que explicaba todo aquello. Y, bueno, a partir de ahí el tema se complicó un poco mientras las mentes pensantes de la época trataban de comprender por qué la luz, si estaba formada por fotones, se manifestaba como un patrón de ondas.

En 1909, Geoffrey Ingram Taylor se las ingenió para proyectar un haz de luz que, según sus cálculos, debería emitir un haz tan débil que los fotones –cuya existencia había sido puesta en cuarentena por la salud de la mayoría— deberían pasar de uno en uno por cualquiera de las aberturas practicadas en la placa que obstaculizaba su camino; se trataba de un haz equivalente a luz que emitiría la llama de una vela proyectada desde una distancia de poco más de una milla. Los fotones salían de uno en uno y, si salían de uno en uno, cualquier profano en el asunto podría pensar que, de uno en uno, irían atravesando una u otra rendija y de uno en uno se irían proyectando sobre la placa de modo que, tras emitir los fotones suficientes, se tendría una sombra formada por dos franjas. Pero no: la marca seguía siendo una parrilla.

La explicación a este comportamiento la daría la nueva mecánica cuántica dos décadas más tarde, cuando ésta comenzaba a ser una realidad, al afirmar que cada fotón interfiere consigo mismo debido al principio de superposición: el fotón atraviesa las dos aberturas, como si fuese una onda, y las ondas resultantes interfieren entre sí; o sea, que el fotón en cuanto que onda superpuesta interfiere consigo mismo, y las probabilidades de localizarlo en la pantalla ya no responden a las trayectorias posibles de la partícula, sino a cualquiera de las varias posiciones dadas por las ondas que se recombinan.

La superposición existe siempre y cuando no se concrete la función de onda de una partícula; en palabras llanas, mientras no exista una observación que convierta la onda en partícula. Para entender qué significa esto, será mejor recordar primero que aquello que cualquiera entiende por “observación” no es sino un acto por el que el nervio óptico intercepta los fotones que han chocado contra otras partículas y, debido a que cada átomo provoca unos cambios específicos y exclusivos en la frecuencia del fotón, el cerebro puede reproducir el objeto contra el que tales fotones han chocado. Y esto es lo mismo que decir que se produce una medición, pues toda medición exige establecer una relación entre dos términos, el que se mide y el que sirve de base estándar para la comparación, que es lo que se hace cuando el que “observa” no es el ojo sino un aparato cualquiera. Y de esta manera se puede entender que, en física cuántica, se hable de observación cada vez que hay una interacción entre partículas.

Dicho lo cual, el experimento de Young era extensible a cualquier partícula, pues la dualidad onda-corpúsculo y la superposición no sólo afectan a la luz, sino a la esencia de la materia en su totalidad. Sin embargo, un experimento de doble ranura con partículas con masa fue un juego mental hasta la década de 1960.

Mientras tanto, las contradicciones entre los postulados cuánticos y la lógica conocida se resolvían en rifirrafes de salón; entre contradicciones insuperables, la física más esencial ya no acertaba a determinar cuál era la realidad y sólo sabía recurrir a probabilidades, al tiempo que se discutía si todo aquel enredo era fruto de la naturaleza o de la incompetencia científica.

Durante los años en que el asunto se limitó a la teoría y a juegos lógicos, la peña se las pasó entre indignaciones, como la de Einstein con su dios sospechoso de ludopatía (“Dios no juega a los dados”); flagelaciones redentoras de culpa, como la de Schrödinger martirizándose con mascotas zombis por no perdonarse haber abierto la caja de las insensateces; y, finalmente y como regla general para los años venideros, con la aceptación del trastorno de negación psicótica como norma de comportamiento social: “Cállate y calcula”.

En 1961, por fin, Claus Jönsson logró realizar el experimento de Young con electrones, demostrando en un laboratorio que los componentes básicos de la materia respondían de verdad a las paradojas teóricas de la mecánica cuántica… ¿Por fin? No… la actividad científica también responde a las miserias de la convivencia entre humanos…

La hazaña de Jönsson no fue conocida hasta 1974, año en que apareció publicada en el American Journal of Physics; según explica en un artículo sobre el tema Peter Rodgers, editor de Physics World en 2002, la ignorancia se debió a dos factores fundamentales: uno, el original había sido publicado en alemán en una revista alemana; y dos, la época no estaba interesada en tales experimentos más allá de los juegos mentales.

Y es que, durante los años 60, el experimento de Young con partículas que no fueran fotones, es decir, someter la materia a las leyes cuánticas, fue considerado por la gran mayoría como un entretenimiento teórico con el que enseñar las rarezas que los físicos cuánticos deducían de sus ecuaciones. Nada serio. Uno de los mayores exponentes de esta tendencia fue el físico y divulgador Richard Feynman, cuyas conferencias dadas en 1961 y publicadas en 1963 han sentado cátedra durante décadas en el estilo de abordar la ciencia.

Feynman consideraba que el experimento con electrones era demasiado complejo para poder ser llevado a la práctica. Y es que el bueno de Feynman fomentaba la física cuántica como entretenimiento, provocando el entusiasmo y la atención de su audiencia; pero parte de ese buen ambiente divulgativo pasaba por invitar insistentemente a no pensar las paradojas con demasiada profundidad, a riesgo de volverse loco. La época no daba para términos medios. Y aunque tal se convirtió en la norma de las generaciones posteriores, no todos se han conformado con entretenidas curiosidades: "But I was sick of being patted on the head and told not to worry about understanding it. The quantum works in mysterious ways? Really, science?" (Amanda Gefter, Trespassing Einstein´s Lawn)

En cualquier caso, en 1974, los científicos Pier Giorgio Merli, Gian Franco Missiroli y Giulio Pozzi lograron disparar electrones de uno en uno y versionar con partículas másicas el experimento de Taylor de 1909, en un laboratorio de la ciudad italiana de Bolonia. El artículo en que relataban la proeza fue aceptado para su publicación en 1976, también en el American Journal of Physics. El experimento demostraba que un electrón permanece en estado de superposición, comportándose como si atravesara ambas rendijas a un tiempo e interfiriera consigo mismo, creando así un patrón de ondas. La materia, para ser materia, había de ser “observada”; mientras tanto, era una onda de probabilidad.

Pero, ¡ay!, si Jönsson fue ignorado durante trece años, los de Bolonia permanecieron en el Leteo una treintena. Hasta que una encuesta lanzada por la revista Physics World la lió parda… Así lo cuenta, al menos, Rodolfo Rosa, de la Universidad de Bolonia, en un artículo dedicado al logro olvidado de sus compatriotas. Según el autor, aunque el experimento de 1974 fue expuesto en un premiado corto documental, su recuerdo se fue desvaneciendo hasta el punto de que la mayoría de libros divulgativos, a día de hoy, atribuyen la hazaña a un equipo japonés dirigido por Akira Tonomura, en 1989.

Pero, en 2002, una votación de los lectores de la revista Physics World otorgó el título de “experimento más bello de la física” a la interferencia de un electrón consigo mismo, esto es, a la demostración de Merli, Missiroli y Pozzi; sin embargo, el propio editor de la revista había atribuido el experimento, en un primer momento, al equipo de Tonomura, por lo que hubo de ser reeditado con el añadido de las cartas de los implicados, Merli y Tonomura, dando sus versiones; el japonés se defendió alegando que ellos fueron los primeros en llevar a cabo el experimento con todas las garantías de que los electrones eran disparados de uno en uno.

Hoy, gracias al experimento de la doble rendija, se ha comprobado que la superposición es posible no sólo en partículas con más masa que los electrones, como los neutrones, sino en niveles más complejos de realidad, es decir, en átomos e incluso en moléculas. Más allá, se ha llegado a “borrar” la observación que colapsa la función de onda, una especie de experimento al revés, como si se revirtiera el proceso por el que se concreta la partícula y se la devolviese al estado de superposición. Pero tales historias habrán de quedar para otra ocasión…

"Algo en nuestro interior se niega a entender la realidad cuántica. La aceptamos intelectualmente porque posee consistencia matemática y coincide brillantemente con la experimentación. El modo en que físicos y demás han intentado comprender la realidad cuántica me recuerda la forma que tienen los niños de responder cuando se enfrentan a un concepto que todavía no entienden. El psicólogo Jean Piaget estudió este fenómeno infantil: si se muestra a un niño de determinada edad una colección de vasijas, todas ellas de formas diferentes, llenas de líquido hasta el mismo nivel, el niño piensa que todas las vasijas contienen la misma cantidad de líquido. […] Si se explica al niño la manera correcta de ver el problema, normalmente lo entenderá, pero inmediatamente volverá al modo de pensar original. […] De este mismo modo es la realidad cuántica. Después de pensar que se ha comprendido y se ha formado en tu cabeza un dibujo mental, retornas inmediatamente al modo clásico de pensar, al igual que los niños en el experimento de Piaget." (Henry Pagels, El código del universo)

Unos apuntes de física cuántica IV: el borrador cuántico

El experimento de la doble rendija en su versión elemental es muy simple: un aparato dispara un fotón, el fotón pasa por una placa con dos aberturas e impacta contra una pantalla receptora. Cuando se disparan muchos fotones, siempre de uno en uno, los impactos terminan dibujando una figura que coincide con un patrón de interferencias, como el que crean las ondas que se cruzan entre sí.

Es como si cada fotón, cual onda, atravesara las dos rendijas y se dividiera en dos ondas que, en su camino hacia la pantalla, han de interferir inevitablemente entre sí, de modo que los lugares que puede tocar en la placa receptora están determinados por un patrón de interferencias. Según aumentan los disparos, el dibujo de interferencias va quedando bien definido hasta que, después de que suficientes fotones han sido lanzados de uno en uno, la gráfica final es la misma que mostraría una onda que hubiese atravesado las dos rendijas. En el caso de colocar detectores en las rendijas para localizar el fotón, puesto que la posición concreta en un punto del espacio es una cualidad que sólo tienen las partículas, y no las ondas, el fotón se comporta como un corpúsculo, por lo que ya no se podrá obtener una gráfica final de interferencias.

Einstein, cansado de tantas dualidades paradójicas y para demostrar los defectos de la teoría, aventuró en su día un experimento mental por el que se podría detectar la partícula y, al mismo tiempo, mantener la gráfica del patrón de interferencias: una doble rendija suspendida en muelles muy sensibles de modo que, calculando su oscilación al paso de los fotones, se podría determinar la posición de estos sin alterar su momento lineal; la pantalla receptora mostraría un patrón de ondas al tiempo que se sabría por qué rendija había pasado cada fotón.

Pero la detección indirecta del fotón también haría desaparecer el patrón de interferencias, como le explicó Niels Bohr: el principio de incertidumbre de Heisenberg dice que no es posible conocer con precisión el momento y la posición de un objeto cuántico: si se mide la posición, esto es, por qué ranura ha pasado el fotón, su momento lineal se difumina y el patrón de ondas desaparece, quedando en su lugar una mancha borrosa; si se mide el momento lineal, que es lo que se hace en el experimento tradicional, entonces su posición en las ranuras queda difusa y los dos caminos posibles resultan indistinguibles, como si hubiera seguido ambos a la vez, de ahí que surja un patrón de ondas.

La gracia de todo esto reside en que no es necesario detectar el fotón en cuestión, sino que basta con que exista algún tipo de información que haga posible esa opción para que su momento lineal se desvanezca y la pantalla receptora muestre una difusa mancha de impactos. En 1979, John Archibald Wheeler llevó el caso de la doble rendija a un nuevo nivel de insensatez: si, en el último momento, el experimentador descubriese tras la pantalla receptora dos sensores, uno apuntando a la ranura derecha y el otro a la izquierda, el fotón-onda que ya había cruzado las dos rendijas, al haber sido cazado, sería ahora un fotón-partícula que no podría, por tanto, impactar en los lugares determinados por el patrón de interferencias, ya que su condición de partícula obliga a que haya atravesado una sola de las aberturas.

Este efecto se conoce como “elección retardada”: el experimentador decide qué experimento va a llevar a cabo después de que ya se han dado los resultados del experimento en cuestión, y los datos obtenidos siempre se ajustan a la decisión tomada, aunque sean obtenidos antes de tomar la decisión.

En un intento de llevar esta paradoja desde la teoría a la práctica, en 1982, Marlan O. Scully y Kai Drühl propusieron el “borrado cuántico”: se disparan átomos con un alto nivel de energía de manera que, en su tendencia decaer a niveles de energía menores, irá soltando fotones por el camino; si tras cada rendija se dispone una cavidad de microondas capaz de atrapar fotones, entonces se podrá saber por qué rendija ha pasado el átomo: bastará con comprobar cuál de las dos cavidades ha almacenado el fotón emitido a su paso.

Ahora bien, consideremos que el detector de fotones es una pieza con una pared que la divide en las dos cavidades mencionadas. Si, tras el paso del átomo, se quitase la pared, ya no se sabría qué cavidad almacena el fotón; la información que delataba al átomo se habría perdido y, entonces, el patrón de interferencias se restauraría en la placa receptora. A día de hoy, el borrado cuántico se realiza con polarizadores. Seguiremos la explicación ofrecida por el equipo de científicos que realizó el experimento una década atrás, en la Universidad Federal de Minas Gerais de Brasil.

El campo de una onda electromagnética oscila en un plano perpendicular a la dirección en que se propaga dicha onda, apuntando en las diferentes direcciones de ese plano. Puede girar en un sentido u otro, como un tornillo dextrógiro o levógiro. Por medio de un aparato óptico, se puede establecer una dirección específica a la que apunta esa oscilación, al dejar pasar sólo las ondas con una oscilación concreta, por ejemplo, en vertical, en horizontal o en diagonal con respecto a la horizontal de la propagación. Y también se puede establecer el sentido de la rotación del campo.

Entonces, si, por ejemplo, se coloca un aparato tras una rendija que polarice los fotones hacia la derecha, y un aparato tras la otra rendija que los polarice hacia la izquierda, será posible recabar información sobre qué camino ha seguido cada uno de los fotones del experimento. Cuando esto ocurre, la interferencia desaparece de la pantalla receptora. La clave del experimento está en que no hace falta medir la polarización, es decir, no depende de que el observador atienda a la información o decida permanecer ignorante, al sistema le da igual: basta con que exista la posibilidad de conocer el camino que recorrieron los fotones.

Pero si, a continuación, se les hace pasar por otro polarizador común a las dos rendijas que deshaga la polarización anterior y deje a todos los fotones con una común dirección oscilatoria, ya no se podrá determinar el recorrido: la información desaparece del universo y, puesto que ya no existe posibilidad alguna de conocer por qué rendija pasó cada cual, la pantalla receptora vuelve a mostrar un patrón de interferencias; el fotón ha vuelto a actuar como si fuese una onda.

Esto responde a las características del entrelazamiento cuántico: cuando el fotón pasa por la doble rendija, entra en una superposición de estados, que consiste en el estado “paso por rendija 1” más el estado “paso por rendija 2”. En 1, se da una polarización hacia la derecha; en 2, hacia la izquierda. Ambas informaciones, “paso por la rendija” y “polarización”, han quedado entrelazadas.

Si no se polarizara, el fotón no almacenaría información alguna sobre el paso y seguiría en superposición, como una onda con libertad para cruzar por las dos rendijas, dividirse entonces en dos ondas e interferir consigo mismo. Pero, al quedar polarizado en una manera entrelazada con la rendija, la información sobre el paso anula la libertad de movimientos de que goza una onda, por lo que el fotón ya no puede ser onda, sino partícula.

Pero, cuando pasa por el siguiente polarizador común a las dos rendijas y se borra la información sobre la polarización primera, puesto que ésta información estaba entrelazada con un recorrido concreto y era la única al respecto, se deshace también ese recorrido: el fotón ha perdido la información que le daba el carácter de partícula, y vuelve a ser onda. Y ahora viene la variante extrema del experimento. Se crean dos fotones entrelazados, a y b, de manera que si a está polarizado en horizontal, b estará forzosamente polarizado en vertical, y viceversa.

Se dispara el fotón a través de la doble rendija y del aparato polarizador que permite saber por qué abertura ha cruzado cuando lo detecte la pantalla receptora al final del experimento. Cada polarización horizontal o vertical marcará, en virtud del detector detrás de cada rendija, uno u otro recorrido concreto del fotón a. Pero al fotón b se le envía directamente a otro detector de polarización, sin pasar por las rendijas, en el cual se puede decidir si se mide la polarización horizontal/vertical o si se mide otro tipo de polarización, como la diagonal.

¿Qué pasa si medimos a b? A causa del entrelazamiento, nos tiene que decir cómo está a. Ahora, un experimentador mide a a y otro experimentador mide a b. El experimento se repite las veces suficientes, disparando fotones a que tienen su respectiva compañera b, hasta que se dibuje la gráfica en la pantalla receptora. Si el experimentador de b ha decidido medir la polarización horizontal o vertical, tendrá información sobre la rendija específica que atravesó a. La gráfica que detecta el primer experimentador es una mancha difusa.

Pero, si el experimentador de b decide determinar la polarización diagonal, ya no habrá información sobre el paso de las rendijas, porque la consiguiente medición del otro fotón, a, ya no dará tampoco una polarización vertical ni horizontal, y la gráfica que obtendrá el primer experimentador será un patrón de interferencias. Según esto, el experimentador de b pareciera decidir si a va a ser una partícula o una onda. Como se suele decir, el montaje del experimento determina los resultados que se van a obtener. Pero el entrelazamiento es mucho más raro que eso.

Resulta que da igual qué fotón, a o b, se mida primero: el fotón a se comportará como onda o como partícula antes de que el experimentador de b haya decidido si conservar o borrar la información del paso por las rendijas. Se podría alargar la distancia que ha de recorrer b todo lo que se quisiera, se le podría enviar a un detector situado en Marte, de modo que el experimento con a habría acabado minutos antes de que el observador de b reciba al fotón y decida qué quiere hacer, si borrar o conservar la información; el experimentador de a tendría los datos de lo que ha hecho b minutos antes de que b haya hecho algo.

Frente a los habituales debates sobre cómo el fotón “sabe” que el experimento ha cambiado a una u otra versión y se adapta a ello, con su cualidad de onda o con la de partícula, Wheeler tenía su propia interpretación: el error de partida es considerar que el fotón puede tener una consistencia física, ya sea corpuscular u ondulatoria, antes de que el observador lo interfiera. En realidad, concluye Wheeler, no hay partículas ni tampoco hay ondas, sólo indefinición hasta que se decide erradicarla con una medida. O lo que es lo mismo, sólo hay información en busca de informadores.

Como dice Anton Zeilinger, de la Universidad de Viena: “La mayoría de los físicos son muy ingenuos y aún creen en ondas y en partículas reales”. Por eso, considerar que este, la capacidad de modificar acontecimientos pasados, es uno de los más inconcebibles resultados de las leyes cuánticas no sería la interpretación correcta: en realidad, el experimento pone en evidencia la capacidad de modificar la interpretación que hacemos de los acontecimientos, incluyendo las interpretaciones más sensatas que afirman que aquí no hay nada raro.

Lo único cierto es que, en física cuántica, nunca se sabe qué ocurre durante el experimento, sólo se puede acceder a los resultados finales. Lo que sucede entre el principio y el final de las pruebas es una realidad escondida tras un velo impenetrable para la visión clásica del homo sapiens. Desde nuestra limitada perspectiva, la realidad pareciera conformarse de una manera, luego se borra, después rehace lo que ya ocurrió, más tarde se conforma de otra… como si pasado, presente y futuro no fuesen sino una línea artificial creada por una metahistoria a tiempo real, según se va leyendo el libro de la naturaleza. Como si la memoria sólo fuese un sueño de la razón, y el futuro, una memoria que apenas se recuerda.

Por supuesto, hay una manera de huir de todo ello, y es reducirlo todo a una jerga abstracta según la cual no hay nada más que conveniencias matemáticas que facilitan el trabajo de los físicos, pero en ningún caso real. Todo lo demás es fruto de la mente calenturienta de los profanos. Pero, ¡ay!, esta posición también tiene un fantasma escondido en su armario; según lo conciben los teóricos de una realidad basada en la información, como Max Tegmark, es posible darle la vuelta a la tortilla: efectivamente, todo es un juego matemático, pero, ¿y si lo único real es ese juego matemático?

Quizás, lo que ocurre durante los experimentos cuánticos no se puede saber porque, sólo quizás, sin tiempo nunca ocurre nada. Como decía Wheeler, bien podría ser que la información no sea lo que obtenemos de este mundo, sino aquello que hace surgir este mundo.

"Behind it all is surely an idea so simple, so beautiful, so compelling that when in a decade, century or millenium, we grasp it, we will say to each other, how could it have been otherwise? How could we have been blind for so long?" (J. A. Wheeler, “Law without Law”)

fuente http://www.erraticario.com

agrega un comentario