Nadie aprende si no se ha equivocado al intentarlo...

Home

CBC (U.B.A.)

Matemática

Física

Química

Biología

Links

Videos Educativos

 
 

El Desafío de la Física Cuántica

Autora: Silvia Sokolovsky

Bibliografía

(Si utilizas Firefox puede que no veas correctamente las letras symbol)


Toda teoría física posee dos componentes esenciales: un formalismo y una interpretación

El físico representa los conceptos básicos mediante símbolos matemáticos. Por ejemplo, la posición de una partícula (x), la velocidad (v), la masa (m), etc. Establece procedimientos experimentales bien definidos para asignar a estos símbolos valores numéricos. De esta manera, las relaciones conceptuales se transforman en ecuaciones que podrán ser manipuladas por el aparato matemático. La teoría ha adquirido formalismo.

El  formalismo es interpretado al asignar un significado a estas expresiones matemáticas.

Cuando se acepta universalmente que todos los símbolos del formalismo son interpretados sin ambigüedad representando alguna propiedad de la realidad, se dice que la teoría queda concluida.

Bien, cualquier teoría física, para ser aceptada, debe hacer predicciones detalladas. Dado un experimento bien definido, la teoría ha de especificar correctamente el resultado o, al menos, asignar probabilidades correctas a todos los resultados posibles. Desde este punto de vista formal la mecánica cuántica puede considerarse extraordinariamente buena. En su calidad de teoría moderna fundamental de las partículas elementales, de los átomos, de las moléculas, de la radiación electromagnética y del estado sólido, suministra métodos para calcular los resultados de la experimentación en todos estos campos. Pero se espera que no sólo sea capaz de determinar los resultados de un experimento sino que nos de alguna comprensión de los sucesos que presumiblemente sustentan los resultados observados (interpretación).

Pongamos un ejemplo: ya vimos que en mecánica cuántica una partícula elemental, presupongamos un electrón, se representa mediante una expresión denominada "función onda". Esta representación no está en contra de la experiencia, por el contrario, la función onda da en forma exacta la probabilidad de hallar el electrón en cierto lugar. Sin embargo, cuando el electrón se detecta realmente, siempre tiene una posición definida aunque la ecuación lo describa frecuentemente como esparcido sobre una región del espacio. A causa de esta ambigüedad muchos hombres de física encuentran más adecuado considerar a la mecánica cuántica como un mero conjunto de reglas que permite predecir los resultados de los experimentos. Como se adelantó en la sección anterior, esta ambigüedad es uno de los conceptos básicos de la mecánica cuántica que más cuesta interpretar. Se vuelve a repetir la vieja cuestión de determinar si los habitantes de la materia microscópica son o no partículas, sin olvidar la relación probabilística de la ecuación onda. No olvidemos que cualquier partícula de menor tamaño que el átomo no se rige por las mismas leyes que los objetos macroscópicos. Este concepto es muy difícil de probar, pero a través de los años se ha intentado.

La función onda, llamada estado cuántico, especifica, hasta donde es posible, todas las cantidades de un sistema físico. Según su visión no todas las cantidades de un sistema tienen simultáneamente valores definidos. El ejemplo más claro de esta aseveración lo constituye el "principio de incertidumbre de Heisemberg" que establece la imposibilidad de definir al mismo tiempo la posición y el momento de una partícula. No hay que olvidar que el estado cuántico de un sistema proporciona de manera inequívoca la probabilidad de cada resultado posible de cada experimento que se desarrolla en el sistema.

Estadísticamente, si la probabilidad es 1 el resultado se producirá sin duda, así como al ser la probabilidad cero, el resultado no se dará. En medio de estos dos extremos se halla toda una gama de posibilidades las que se darán con más frecuencia cuanto más se acerquen a 1.

Para muchos personas, científicos inclusive, esta teoría sigue hallándose en conflicto con una imagen del mundo que muchos consideran obvia y natural. Esta imagen se basa en tres axiomas (por lo tanto se toman como verdades indemostrables).

  1. La primera es el realismo, doctrina que establece que las regularidades observadas en los fenómenos apreciados están causadas por alguna realidad física cuya existencia es independiente del observador.

  2. La segunda premisa establece que la inferencia inductiva es una forma válida para aplicarse libremente, por tanto, podemos deducir conclusiones legítimas a partir de observaciones coherentes.

  3. La tercera premisa se la llama separabilidad o localidad de Einstein

Expliquemos con un ejemplo para facilitar su entendimiento. Supongamos que se tiene dos personas, muy distanciadas una de otra, con una moneda cada una. Arrojan las monedas una gran cantidad de veces a fin de determinar la probabilidad que salga cara o cruz. El sentido común nos dice que, si las dos personas se alejan lo suficiente, la probabilidad de que una de ellas obtenga cara en un tiro es independiente del resultado obtenido por la otra. Aceptar la independencia de las probabilidades en juego es aceptar que el sistema formado por las dos monedas es "separable". En efecto, aunque antes hayan estado en estrecho contacto (en un bolsillo, por ejemplo), nadie pondrá en duda, en este caso, la vigencia de la separabilidad. Es más, Einstein establece que ningunas influencia (de la clase que sea) puede propagarse más rápido que la velocidad de la luz.

La argumentación a partir de estas premisas conduce a una predicción explícita de los resultados de una determinada clase de experimentos en física de las partículas elementales. También podemos acudir a las reglas de las mecánica para calcular los resultados de estos experimentos. Ambas predicciones son distintas, por lo tanto, o las teorías realistas locales o la mecánica cuántica, tienen que ser falsas.

Einstein se interesó mucho por la mecánica cuántica, a veces desde el punto de vista crítico. Su sentido físico le decía que la exactitud de las predicciones de la teoría no era razón para aceptar la interpretación probabilística de Max Born, Werner Heisemberg, Niels Bohr y otros, conocida como "Interpretación de Copenhague", debido al nombre de la ciudad en la que residía Bohr. Para refutar esta interpretación, Einstein publicó en 1935, junto a Boris Podolsky y Nathan Rose, un célebre artículo titulado "¿Puede considerarse completa la descripción que de la realidad física da la Mecánica Cuántica?.

En aquel tiempo los éxitos de la mecánica cuántica eran ya tales que era natural considerar exactas sus predicciones. Desde ese punto de vista Einstein, Podolsky y Rose (EPR) idearon un hábil experimento imaginario. Calcularon los resultados que debía obtenerse según la mecánica cuántica y razonaron del modo siguiente: << si para la noción de realidad física se acepta una definición muy natural que proponen en su artículo, entonces la mecánica cuántica deja escapar algunos "elementos de realidad" que, no obstante, aparecen en resultados de medidas macroscópicas. Aunque muy potente y útil, esta teoría sería incompleta y probablemente de carácter provisional >>. De allí extraemos que el movimiento de una partícula debe describirse en términos de probabilidad por la única razón de que hay algunos parámetros que determinan el movimiento que todavía no han sido determinados. En cuanto los valores de estas hipotéticas "variables ocultas" lleguen a conocerse se podrá definir una trayectoria totalmente determinista.

Muchísimos físicos han apoyado la visión del argumento EPR tachando de "dogma" a la interpretación Copenhague: << ese es el dogma, más o menos oficial, de la física teórica, y tal es la lección que exponen los manuales universitarios>> (Teoría alternativa de Bohm a la mecánica cuántica - David Z. Albert - Investigación y Ciencia  Nº 214 - Julio 1994 - Pág. 20). El argumento EPR históricamente fue desarrollado a partir de las variables de posición e impulso de dos partículas correlacionadas. David Bohm, del Colegio Birbeck de Londres, la reformuló para variables de espín (1951); su versión modificada sirvió a Jhon Bell de punto de partida para establecer sus famosas desigualdades. Para cualquier partícula la mecánica cuántica prevee la posibilidad de que posea un momento cinético de rotación interna o espín, incluso en el caso de que tal partícula sea estrictamente puntual. Dicho sea de paso, he aquí otro ejemplo de resultado cuántico poco intuitivo. ¿Cómo imaginar, en efecto, la rotación sobre sí mismo de un objeto puntual que, por tanto, carece de estructura interna?. 

Al igual que el momento clásico el espín está representado por un sector del que cabe medir la componente respecto de un eje cualquiera. El electrón, el muón y el protón son partículas llamadas de espín ½. Ello significa que si se mide la componente del espín sobre un eje cualquiera, sólo cabe esperar dos valores posibles: + /2 ó – /2 (donde es una constante que es igual a h/2p y h es la constante de Planck). Es precisamente por que la nueva teoría conducía a valores cuantificados como este que se la llamó mecánica cuántica. Si bien el espín es análogo sólo en algunos aspectos al momento angular de rotación de un cuerpo macroscópico, nos basta con que se represente mediante un vector.

Supongamos que un físico ha ideado una demostración que pueda efectuarse con partículas subatómicas, por ejemplo, los protones. Tras intentos descubre que unos protones pasan la prueba y otros no; pero él no sabe si está midiendo alguna propiedad real de los protones o simplemente observando fluctuaciones al azar de su aparato. Por eso decide aplicar la prueba a pares de protones. Los protones que constituyen el par están inicialmente muy próximos, lo que se logra aplicando un procedimiento análogo a ambos. Se permite luego que las partículas se separen. Cuando se han alejado cierta distancia macroscópica (medida en cm o m) se les pone la prueba, simultáneamente para algunos pares y con intervalo de tiempo para otros. El físico descubre una estricta correlación (existencia de mayor o menor dependencia entre dos elementos) negativa cuando en un par un protón pasa la prueba y el otro no.

Si se acepta como premisa el realismo, el uso libre de la inducción y la separabilidad de Einstein, el físico se sentirá justificado para concluir que la prueba mide alguna propiedad real de los protones. Para que la correlación pueda explicarse, la propiedad debe existir antes de la separación de los protones en cada par y ha de tener algún valor definido para ellos desde el momento en que exista hasta que se lleve a cabo el experimento.

Existe una prueba real que puede llevarse a cabo con partículas subatómicas y que da resultados análogos. Se trata de la medición de cualquier componente del espín. Como ya se ha dicho, cualquiera sea el eje elegido para medir la componente del espín, los resultados serán siempre los mismos, uno de dos, + /2 ó – /2, ambos de igual valor numérico pero de signos opuestos.

Se observa una correlación estrictamente negativa entre los componentes del espín cuando se juntan dos protones en la configuración mecánico – cuántica llamada estado singlete (single, del inglés, simple). En otras palabras, si dejamos separar dos protones en estado singlete y se mide luego la componente del espín en ambas partículas, será siempre para un protón positivo y para el otro negativo. No hay forma de predecir que partícula tendrá la componente negativa y cual la positiva, sin que ello sea obstáculo para que la correlación esté bien establecida.

En lo concerniente a la medición no hay razón de conflicto entre las predicciones de la mecánica cuántica y las de las teorías realistas locales. Aparecen al complicarse el experimento.

El vector que representa al espín de una partícula se define mediante sus componentes a lo largo de los tres ejes en el espacio. Para un vector asociado con un objeto macroscópico de vida normal, podría darse por sentado (y con razón), que las tres componentes tienen valores definidos en cualquier instante aunque nosotros los desconozcamos.

Aunque los instrumentos pueden medir únicamente una componente del espín cada vez, podemos construir un dispositivo que mida la componente del espín a lo largo de cualquier eje, arbitrariamente. Se designará a cada eje con la letra A, B, C.

Así que los resultados podrán ser: + A ó – A, + B ó – B, + C ó – C.

El investigador puede preparar una gran muestra de protones en estado singlete y observará que se mide la componente A para ambos protones como lo indica la correlación negativa.

Es importante recordar que en estos experimentos no se somete ningún protón a una medición de más de una componente, pero, si se aceptan las tres premisas de las teorías locales (realismo, inducción y localidad) se puede deducir a partir de los resultados, que tomando la medida en distintos componentes del par de protones, se tendrá los valores de ambas componentes para cada uno de los protones. Por ejemplo, si en una medición me da que en el eje A es + y en el otro protón el eje B es –. Tengo dos protones: A + B + el primero y A B el segundo. De allí que el número de pares observados de cada tipo puede representarse por n (A+ B-) ó n (A- B+) donde n es un número natural.

En 1964 John S. Bell, de la Organización Europea de Investigaciones Nucleares (CERN), descubrió la relación que estamos tratando. Para cualquier gran muestra de pares de protones en estado singlete, Bell demostró (matemáticamente) que la hipótesis  de las teorías realistas locales imponían un límite en la correlación que podía esperarse cuando se medían distintas componentes del espin. El límite se expresa en forma de desigualdad, que hoy día se conoce con el nombre de desigualdad de Bell. Dadas las condiciones descriptas, se establece que el número de pares A+ B+ no puede ser superior a la suma de los pares A+ C+ y el número de pares B+ C+.

La desigualdad queda expresada simbólicamente de esta manera: n (A+B+) < n (A+ C+) + n (B+ C+)

Esta desigualdad puede ser fácilmente demostrada dentro del contesto de las teorías locales mediante un simple razonamiento basado en teoría de conjuntos.

Para comenzar podemos introducir la hipótesis contraria, "existe una forma de medir independientemente don componentes del espín en una sola partícula". Supongamos que este aparato, inexistente, ha revelado que un protón posee componente de espìn A+ y B-. La tercera componente no se ha medido por lo que puede ser positiva o negativa. Por lo tanto el protón puede ser A+ B- C+ o A+ B- C -. No hay otra posibilidad.

Si se detectan muchos protones de espín A+B- podríamos escribir: N (A+B-) = N (A+B-C+) + N (A+B- C-) (para evitar confusiones se ha utilizado N(A+B+) para representar electrones simples y n (A+B+) para pares de protones).

La ecuación establece el hecho evidente que cuando un conjunto de partículas se divide en dos conjuntos, el número total de partículas debe ser igual a la suma del número de partículas de los subconjuntos.

Los protones que aparecen con espín A+ C- pueden analizarse de forma análoga. 

De allí que: N (A+C-) = N (A+C-B+) + N (A+C- B-)*

Podemos dar un paso más.

El número de protones N (A+C-)* debe ser mayor o igual a N (A+B- C-), o sea N (A+ C- ) > N (A+B-C-) (1). (suponiendo que el otro conjunto sea vacío). Recordar que la parte no puede ser mayor que el todo. Recurriendo al mismo razonamiento tenemos que N (B- C+) = N (B-C+A+) + N (B- C+A-), entonces, N (B- C+) > N (A+ B- C+) (2)

Consideremos de nuevo la primera ecuación y reemplacemos por (1) y (2):

N (A+B-) = N (A+B-C+) + N (A+B- C-) Þ N (A+B-) < N (A+C-) + N (B- C+) (3)

Aunque esta desigualdad se ha deducido aquí formalmente, no puede comprobarse de manera directa por vía experimental, pues el aparato capaz de hacerlo no existe. Pero los experimentos realizables se refieren a pares de protones y no a protones individuales.

Como ya se había explicado, podemos medir la componente de un espín de un protón y otra componente del segundo protón y deducir las componentes de cada uno. Esto quiere decir que la observación de un par de protones, uno de cuales tiene componente A+ y el otro posee B+ puede emplearse como señal indicativa de la existencia de un único protón A+ B-. Además, mediante un argumento estadístico, puede probarse que n (A+ B+), el número de pares doblemente positivo, debe ser proporcional a N(A+ B-) número de protones individuales con los componentes de espín A+ B-. De manera análoga n (A+C+) debe ser proporcional a N(A+C-) y n (B+ C+) debe ser proporcional a N(B-C+). 

Como la constante de proporcionalidad es la misma para todos, al sustituir cada término arriba especificado en la ecuación (3), se suprime quedando: n (A+B+) < n (A+ C+) + n (B+ C+) que es llamada desigualdad de Bell.

Obviamente, dicha desigualdad se prueba mediante ese razonamiento si sólo si las tres premisas de las teorías realistas locales se consideran válidas.

La desigualdad de Bell constituye una predicción explícita del resultado de un experimento. Las reglas de la mecánica cuántica pueden utilizarse para predecir los resultados del mismo experimento. No se darán detalles del proceso matemático (formalismo), lo que si  hay que destacar es que es totalmente explícito y objetivo, en el sentido que todo aquel que aplique correctamente sus reglas obtendrá el mismo resultado.

Sorpresivamente, las predicciones de la mecánica cuántica difieren de las de las teorías realistas locales. En particular predice que algunas elecciones de los ejes A, B,  y C violan la desigualdad de Bell. Para ello habrá más protones A+B+ que pares combinados en A+ C+ y B+ C+. Por lo tanto las teorías son antagónicos.

A partir de 1971 se idearon experimentos destinados a probar cual de las teorías era la correcta. La mayoría suplantó al protón por el fotón (unidad - cuanta - de la radiación electromagnética).

El fotón, unidad fundamental de la luz, puede comportarse como onda o como partícula y persistir en ese estado de ambigüedad hasta que se realiza una medición. Si se mide una propiedad corpuscular se comporta como partícula; si se mide una propiedad ondulatoria, lo hará como onda. Que el fotón sea onda o partícula que queda indefinido hasta que se haga una medición.

La función onda del fotón permite conocer tres "propiedades" del fotón: su dirección, su frecuencia y su polarización lineal. Esta última es análoga al espín de una partícula másica.

Un aparato adecuado para medir la polarización es una hoja de lámina polarizante. Su versión ideal consta de una lámina llamada eje de transmisión, que deja pasar a todo haz de luz linealmente polarizado a lo largo de su dirección; la lámina bloquea a toda la luz que incide perpendicular a ella si esta se hallara polarizada en dirección perpendicular al eje de transmisión.

Se pueden llevar a cabo diversas experiencias girando las láminas polarizadoras de diferentes maneras. Si el fotón está polarizado linealmente según el eje de transmisión, la probabilidad de que se transmita es 1. Si el fotón está polarizado linealmente en dirección perpendicular al eje de transmisión, la probabilidad de que se transmita es cero. Otra consecuencia de la mecánica cuántica, que trasciende la expuesto hasta ahora, es  que si el fotón está polarizado linealmente formando cierto ángulo con el eje de transmisión, comprendido entre 0º y 90º. La posibilidad de transmisión es un número que es exactamente al coseno de dicho ángulo.

El principio de superposición constituyente otra idea fundamental de la mecánica cuántica. Afirma que, a partir de dos estados cuánticos cualesquiera de un sistema, puede formarse otros estados superponiéndolos. En un contexto físico, la operación corresponde a formar un nuevo estado que se "solapa" con cada uno de los estados que lo constituyeron, de la interferencia de dos ondas resulta una tercera.

Basta las dos ideas básicas (incertidumbre y superposición) para advertir que la mecánica cuántica entra en conflicto con el sentido común, nuevamente.

En 1969 en la Universidad de Harvard se propone un plan para abordar la comprobación requerida. Debían obtenerse pares de fotones, con polarización linealmente correlacionadas, mediante la excitación de átomos hasta un estado inicial apropiado. A continuación estos átomos volverían al estado no excitado por emisión de dos fotones. Filtros y lentes asegurarían que cuando los fotones salieran en sentido opuestos, un fotón incidiría sobre un analizador de polarización y el otro incidiría en otro analizador. Variando las orientaciones de cada analizador de polarización entre dos posibilidades y registrando el número de pares de fotones transmitidos en cada uno de los cuatro combinaciones posibles de las orientaciones de los analizadores, podían acometerse mediciones de las correlaciones de transmisión entre fotones de un par. Como analizadores de polarización se sugirió cristales de calcita o placas de vidrio, dada su mayor eficacia, que las láminas de polarización, a la hora de bloquear fotones polarizados perpendicularmente al eje de transmisión. Si dos fotones, uno en cada detector, se registran en un intervalo de 20 nanosegungos (2.10 - 8 seg), la probabilidad de que los hubiera emitido el mismo átomo sería bastante elevada.

El experimento se lleva a cabo recién en 1975 en la Universidad de Texas, repetido posteriormente por muchos otros grupos. La mayoría de los resultados experimentales están de acuerdo con las predicciones de la mecánica cuántica y discrepan de la de los modelos de las variables ocultas. Si bien hubo experiencias que disienten con las predicciones cuánticas, la elaboración de estos experimentos son de dudosa fiabilidad a causa de ciertos puntos débiles, muy sutiles, en su diseño.

Ello no obstante tiene su talón de Aquiles, hasta comienzo de la década del ochenta, permitiendo mantener las esperanzas a los defensores incondicionales de variables ocultas: los analizadores de polarización persistían en sus respectivas orientaciones durante intervalos aproximados de un minuto, tiempo suficiente para el intercambio de información entre los analizadores mediante algún mecanismo hipotético. Por lo tanto, tales experiencias no consistían ningún banco de prueba para decidir entre la mecánica cuántica y los modelos locales.

Para acabar con ese punto débil, Alain Aspect, Jean Dalibard y Gerard Roger, del Instituto de Óptica de la Universidad de  Paris, realizaron un espectacular experimento en el que la elección entre las orientaciones de los analizadores de polarización se producía mediante conmutadores ópticos mientras los fotones se hallaban en vuelo. Ocho años de trabajo exigió el experimento que concluyó en 1982. En él, cada conmutador es un frasquito de agua donde se generan, ultrasónicamente y con periodicidad, ondas estacionarias. Las ondas sirven como redes de difracción que desvían con un alto rendimiento un fotón incidente. Si se conectan las ondas estacionarias, el fotón viajará sin desviarse hacia el analizador que está orientado de otra. La conmutación entre las orientaciones dura unos 10 nanosegundos (10 – 8 seg). Los generadores que abastecen a los conmutadores funcionan de modo independiente, aunque (desafortunadamente para la total definición del experimento) la operación es periódica y no aleatoria. Un analizador dista de otro 13 m, de manera que una señal que avanza a la velocidad de la luz invierte, aproximadamente, 40 nanosegundos (4.10 – 8 seg.) en recorrer ese intervalo. En consecuencia, la elección de la orientación del primer analizador no debería influir en la transmisión del segundo fotón a través del segundo analizador, ni la elección de la orientación del segundo analizador debería hacerlo en la transmisión del primer fotón a través del primer analizador.

Se esperaba, pues, que el dispositivo experimental satisfaga la condición de localidad de Bell. De ello se infería que, de acuerdo con el teorema, habría violaciones de correlación de la mecánica cuántica en los resultados experimentales. La verdad es que el experimento produjo el resultado opuesto. Los datos de las correlaciones concordaban, dentro del error experimental, con las predicciones mecánico - cuánticas que se calculaban a partir del estado cuántico Y1 (psi). Además, los datos diferían, en más de cinco desviaciones estándar, de los límites permitidos según el teorema de Bell, por cualquier modelo de las teorías realistas locales. Aún cuando el experimento no sea absolutamente definitivo, la mayoría de la gente considera que las perspectivas de invertir los resultados son mínimas.

Parece poco probable que la familia de los modelos locales pueda salvarse. Ahora sólo resta hallar cual de las premisas es la que debe corregirse. Todo apunta que la tercera, la llamada separabilidad de Einstein, deberá analizarse cuidadosamente y verificar hasta donde llega su veracidad.   

Partículas elementales

Octubre 2002


  © copyright 2002

Soko.com.ar es un sitio dedicado a difundir educación