AVISO:

SI VES QUE EN ESTE BLOG SE VIOLAN LOS DERECHOS DE AUTOR, POR FAVOR, AVÍSAME AL shalangen@gmail.com GRACIAS.

11 jul 2015

La aleatoriedad en física cuántica, matemáticas y filosofía

Un congreso reúne en Barcelona a expertos de varias disciplinas para debatir sobre la importancia de un concepto tan intuitivo como difícil de precisar.

ICFO & Fundación John Templeton
Kheng guan Toh/Thinkstock

El concepto de aleatoriedad y el papel que desempeña en la naturaleza ha ocupado a los investigadores desde hace siglos. En su día, pensadores como Leibniz y Laplace desterraron el azar del funcionamiento del mundo al sostener que nada ocurre sin que haya una razón para ello y que todo proceso natural debería poder predecirse sin ambigüedades una vez se conociesen por completo todas las condiciones iniciales de un sistema. En el siglo XX,...

 sin embargo, la mecánica cuántica cambió las reglas del juego y reclamó para sí una noción de aleatoriedad intrínseca en las leyes físicas. Desde entonces, un sinfín de experimentos han demostrado que la naturaleza, después de todo, sí es capaz de llevar a cabo «actos de creación pura».
El mes pasado, una conferencia organizada por el Instituto de Ciencias Fotónicas (ICFO) de Castelldefels y la Fundación John Templeton congregó en Barcelona a físicos, filósofos, matemáticos y teóricos de la computación para debatir las implicaciones en la ciencia actual de un concepto tan fundamental como escurridizo. «La noción de aleatoriedad es amplia e interesa a todas estas comunidades. Queríamos que la conferencia reflejara todos estos intereses y que los asistentes fueran partícipes y tuvieran acceso a esta diversidad», explica Antonio Acín, experto en información cuántica del ICFO y uno de los organizadores del congreso.
Varias charlas enfatizaron la dificultad de definir con precisión la noción de aleatoriedad y los conceptos que se derivan de ella, como el de probabilidad. Renato Renner, por ejemplo, físico del Instituto Politécnico de Zúrich, señaló los problemas que surgen al interpretar la regla de Born desde un punto de vista operacional. Dicha regla dicta cómo calcular la probabilidad de obtener un resultado en un experimento a partir de la función de onda cuántica. Sin embargo, no establece cuántas mediciones deben efectuarse sobre un sistema (¿cien?, ¿un millón?) para que las frecuencias con que aparecen los distintos resultados experimentales comiencen a converger a sus respectivas probabilidades. A fin de sortear los posibles problemas de falsabilidad que ello implica, Renner propuso un método para redefinir la regla de Born en términos puramente operacionales (es decir, físicos) sin pasar por la noción intermedia de probabilidad (un concepto puramente matemático). En su charla, el investigador avanzó la sorprendente posibilidad de derivar la regla de Born a partir de dicho enfoque.
Otras charlas exploraron diversas técnicas para producir secuencias de bits puramente aleatorios, un problema fundamental en física cuántica por sus aplicaciones en criptografía y, desde un punto de vista más fundamental, por su uso en los experimentos sobre las desigualdades de Bell. Desde hace años, se cree que una manera más robusta de verificar la violación de dichas desigualdades consistiría en emplear una secuencia de bits verdaderamente aleatorios para elegir la serie de mediciones que deben efectuarse en tales experimentos. En una de las charlas, sin embargo, Stefano Pironio, físico de la Universidad Libre de Bruselas, argumentó con solidez en contra de dicha estrategia. El investigador defendió que, para descartar por completo las interpretaciones de la mecánica cuántica basadas en variables ocultas, sería mucho más útil emplear un sistema determinista pero caótico (Pironio puso a Twitter como ejemplo) que un generador cuántico de bits aleatorios.
La conexión entre la teoría de la computación, la teoría de la información y las leyes cuánticas fue explorada por físicos como Ariel Bendersky, del ICFO, y Stephanie Wehner, de la Universidad de Delft. En particular, esta última propuso un método basado en la teoría de la información para definir la decoherencia (la pérdida de correlaciones cuánticas inducida en un sistema cuántico por otro clásico) y explicó como usar dicha propuesta para evaluar la decoherencia causada por un sistema gravitatorio.
Las cuestiones epistemológicas fueron tratadas por filósofos como Thomas Müller, de la Universidad de Constanza, Jeremy Butterfield, de la de York, o Carl Hoefer, del Instituto de Filosofía Rotman, en Ontario. La guinda al respecto la puso el matemático Gregory Chaitin, de la Universidad Federal de Río de Janeiro, cuya charla clausuró el congreso. En ella, el investigador recordó que la aleatoriedad pura no solo emerge en física, sino también en matemáticas, debido a la existencia verdades matemáticas «incompresibles» desde el punto de vista de su computabilidad; es decir, verdades «que no tienen una razón de ser más simple que ellas mismas», en palabras del experto.
Chaitin analizó el impacto de los conceptos de información y computabilidad en matemáticas, física y biología y auguró un futuro prometedor a esta nueva manera de entender las teorías sobre la naturaleza. «En mi época de estudiante, los cursos de física cuántica empezaban con la ecuación de Schrödinger. Hoy hay cursos que comienzan con qubits y circuitos cuánticos», señaló. «Los trabajos sobre información cuántica y aleatoriedad presentados en este congreso demuestran la fertilidad de un enfoque basado en reconsiderar el mundo en términos de información y computación, en lugar de materia y energía».

Más información en Randomness in Quantum Physics and Beyond (ICFO y Fundación John Templeton). Los resúmenes de las charlas pueden descargarse aquí (PDF, vía ICFO).

visto en: http://www.investigacionyciencia.es/

No hay comentarios:

Publicar un comentario