Archivo de la categoría: Física

Grupo de físicos confirma la irreversibilidad termodinámica en sistemas cuánticos

Por primera vez, un grupo de físicos han realizado un experimento que confirmaría que que los procesos termodinámicos son irreversibles en un sistema cuántico, lo que significa que, aún a niveles cuánticos, no puedes poner un huevo roto de vuelta a su cascarón. Los resultados tienen implicaciones para comprender la termodinámica que se produce en los sistemas cuánticos y, a su vez, diseñar computadoras cuánticas y otras tecnologías de información cuántica.

Los físicos, Tiago Batalahao, de la Universidad Federal de ABC en Brasil, y sus coautores, han publicado su artículo sobre la demostración experimental de la irreversibilidad termodinámica cuántica en una reciente edición de la revista Physical Review Letters.

La irreversibilidad en el nivel cuántico puede parecer obvia para la mayoría de las personas porque coincide con nuestras observaciones del mundo cotidiano: macroscópico. Sin embargo, no es tan sencillo para los físicos porque las leyes microscópicas de la física, como la ecuación de Schordinger, son simétricas en el tiempo o irreversibles. En teoría, los procesos microscópicos hacia adelante o hacia atrás son indistinguibles.

En realidad, sin embargo, solo observamos procesos hacia adelante, no reversibles, como cáscaras de huevo rotas que se vuelven a juntar. Está claro que, a nivel macroscópico, las leyes van en contra de lo que observamos. Ahora el nuevo estudio muestra que las leyes no coinciden con lo que sucede a nivel cuántico, tampoco.

Observar procesos termodinámicos en un sistema cuántico es muy difícil y no se había hecho hasta ahora. En el experimento, los científicos midieron el cambio de entropía que ocurre cuando se aplica un campo magnético oscilante a átomos de carbono 13 en cloroformo líquido. Primero aplicaron un pulso de campo magnético que causa que que los giros nucleares de los átomos se volteen y luego aplicaron el pulso en reversa para hacer que los giros experimentaran la dinámica invertida.

Si el procedimiento fuera reversible, los giros habrían regresado a su punto de partida, pero no lo hicieron. Básicamente, los pulsos magnéticos hacia adelante y hacia atrás se aplicaron tan rápidamente que el giro de los giros no siempre se mantuvo, por lo que los giros se salieron de equilibrio. Las mediciones de los giros indicaron que la entropía estaba aumentando en los sistemas aislados, lo que mostraba que el proceso termodinámica cuántico era irreversible.

Al demostrar que la irreversibilidad termodinámica se produce incluso a nivel cuántico, los resultados revelan que la irreversibilidad termodinámica emerge también a una escala microscópica. Este hallazgo hace que la pregunta de por qué las leyes microscópicas de la física no coincidan con nuestras observaciones sea aún más apremiante. Si las leyes son realmente reversibles entonces ¿cuáles son los orígenes físicos de la producción de entropía asimétrica en el tiempo que observamos?

Los físicos explican que la respuesta a esta pregunta radica en la elección de las condiciones iniciales. Las leyes microscópicas permiten procesos reversibles solo porque comienzan con un “proceso de equilibrio genuino para el cual la producción de entropía desaparece en todo momento”, escriben los científicos en el artículo. La preparación del estado inicial ideal en un sistema físico es extremadamente complejo y los estados iniciales de todos los procesos observados no están en equilibrio genuino, por lo que conducen a procesos irreversibles.

“Nuestro experimento muestra la naturaleza irreversible de la dinámica cuántica, pero no identifica, experimentalmente, que lo causa a nivel microscópico, lo que determina el inicio de la flecha del tiempo”, dijo el coautor del estudio, Mauro Pateronostro, de la Queen´s University en Belfast, Reino Unido, en una entrevista para phys.org. “Abordarlo aclararía la razón última de su aparición”.

Los investigadores tienen esperanzas de aplicar la nueva comprensión de la termodinámica a nivel cuántico a las tecnologías cuánticas de alto rendimiento.

Cualquier progreso hacia la gestión de procesos termodinámicos de tiempo finito a nivel cuántico es un paso adelante hacia la realización de una termo máquina completa que pueda explotar las leyes de la mecánica cuántica para superar las limitaciones de rendimiento de los dispositivos clásicos.

Este trabajo muestra las implicaciones para la reversibilidad (o la falta de ella) de la dinámica cuántica no equilibrada. Una vez que la caractericemos podemos aprovecharla a nivel tecnológico.

___________________________________

Traducido y editado por Julio García

Referencia: https://phys.org/news/2015-12-physicists-thermodynamic-irreversibility-quantum.html

Anuncios

Físicos exploran la posibilidad de vestigios de un universo previo al Big Bang

La Teoría del Big Bang es la más conocida y la más aceptada explicación para el principio y evolución del universo, pero los científicos todavía no están completamente seguros de ello.

El físico brasileño Juliano Cesar Neves es parte de un grupo de investigadores que se atreven a imaginar un origen diferente. En un estudio recientemente publicado en la revista Teoría General y Gravitación, Neves sugiere la eliminación de un elemento fundamental del modelo standard cosmológico: la necesidad de una singularidad del espacio-tiempo conocido como el Big Bang.

Al plantear esta posibilidad, Neves desafía la idea de que el tiempo tuvo un comienzo y reintroduce la posibilidad de que la actual expansión estuviera precedida por una contracción, “Yo creo que el Big Bang nunca sucedió”, afirma el físico, quien trabaja como investigador en el Instituto de Matemáticas, Estadística y Computación Científica de la Universidad de Campinas, en el estado de Sao Paulo, Brasil.

Para Neves, la etapa de expansión rápida espacio-temporal no excluye la posibilidad de una primera fase de contracción. Además, el cambio de contracción a expansión puede no haber destruido todos los vestigios de la fase anterior.

El artículo, que refleja el trabajo desarrollado bajo el Proyecto Temático “Física y geometría del espacio-tiempo”, considera las soluciones a las ecuaciones de la relatividad general que describen la geometría del cosmos y luego propone la introducción de un “factor de escala” que hace que la tasa en la cual el universo se expande no solo dependa del tiempo sino también de la “escala cosmológica”.

“Para medir la velocidad a la que el universo se está expandiendo con la cosmología estándar en la que hay un Big Bang, se usa una función matemática que depende solo del tiempo cosmológico”, dijo Neves, quién elaboró la idea con el profesor Alberto Vázquez.

Con el “factor de escala”, el Big Bang mismo, una singularidad cosmológica, deja de ser una condición necesaria para que el cosmos comience la expansión universal. Un concepto de las matemáticas que expresa indefinición, el término “singularidad”, fue utilizado por los cosmólogos para caracterizar el estado cosmológico primordial que existía hace 13,800 millones de años, cuando toda la materia y la energía estaba comprimida en un estado de densidad y temperatura infinitas, donde las leyes tradicionales de la física ya no se aplican.

La teoría del Big Bang tiene sus orígenes a finales de la década de 1920 cuando el astrónomo estadounidense Edwin Hubble descubrió que casi todas las galaxias se alejan unas de otras a velocidades cada vez más rápidas.

Desde la década de 1940 en adelante, los científicos guiados por la teoría general de la Relatividad de Einstein construyeron un modelo detallado de la evolución del universo desde el Big Bang. El modelo podría conducir a tres resultados posibles: la expansion infinita del universo a velocidades cada vez más altas; el estancamiento de la expansión de forma permanente; o un proceso invertido de retracción causado por la atracción gravitatoria ejercida por la masa del universo, conocida como Big Crunch.

“Eliminar la singularidad o el Big Bang trae de vuelta el universo que rebota en la etapa teórica de la cosmología. La ausencia de una singularidad al comienzo del espacio-tiempo abre la posibilidad de que los vestigios de una fase de contracción anterior puedan haber resistido el cambio de fase y aún así estar con nosotros en la expansión en curso del universo”, afirma Neves.

Neves conceptualiza que la “cosmología del rebote” tiene su origen en la hipótesis de que el Big Crunch cedería el paso de una sucesión eterna de universos, creando condiciones extremas de densidad y temperatura para instigar una nueva inversión en el proceso, dando paso a la expansión en otro rebote.

 

Vestigios de contracción.

Los agujero negros son el punto de partida de las investigaciones de Neves sobre un hipotético “universo de rebote”.

“¿Quién realmente sabe? puede haber restos de agujeros negros en la expansión en curso que datan de la fase de contracción anterior y pasaron intactos a través del cuello de botella producido por el rebote”, dice.

Consistente en el núcleo implosionado que queda después de la explosión de una estrella gigante, los agujeros negros son una especie de objeto cósmico cuyo núcleo se contrajo para formar una singularidad en el espacio-tiempo, un punto con densidad infinita y la fuente de atracción gravitatoria más fuerte jamás vista. Nada se puede escapar de esta atracción, ni siquiera la luz.

De acuerdo con Neves, un agujero negro no es definido por una singularidad, sino más bien por un horizonte de sucesos: una membrana que indica el punto de no retorno del que nada escapa al inexorable destino de ser devorado y destruido por la singularidad,
“Fuera del horizonte de sucesos de un agujero negro regular, no hay cambios importantes, pero dentro de él, los cambios son profundos. Hay un espacio-tiempo diferente que evita la formación de una singularidad”, afirma el investigador.

El factor de escala formulado por Neves y Saa estuvo inspirado por el físico de los Estados Unidos James Bardeen. En 1968, Bardeen utilizó un truco matemático para modificar la solución a las ecuaciones de la Teoría General de la Relatividad, la cual describe los agujeros negros.

El truco consistía en pensar en la masa del agujero negro no como una constante, como había sido el caso anterior, sino como una función que depende de la distancia al centro del agujero negro. Con este cambio, un agujero negro diferente, denominado agujero negro regular, emergió a la solución de las ecuaciones. “Se permiten los agujeros negros regulares, ya que no violan la Relatividad General. El concepto no es nuevo y ha sido revisado con frecuencia en las últimas décadas”, dice Neves.

Dado que la inserción de un truco matemático en las ecuaciones de la Relatividad General podría evitar la formación de singularidades en los agujeros negros regulares, Neves consideró crear un artificio similar para eliminar la singularidad en un rebote regular.

En la ciencia moderna, una teoría no tiene valor si no se puede verificar, por bella e inspiradora que sea. ¿Cómo se prueba la hipótesis de un Big Bang que no comenzó con una singularidad? Buscando rastros de los eventos en una fase de contracción que pueden haber permanecido un la fase de expansión en curso. Los candidatos incluyen remanentes de agujeros negros de una fase previa de contracción universal que puede haber sobrevivido al rebote.

 

___________________________________

Traducido y editado por Julio García

Referencia: https://phys.org/news/2017-11-physicist-explores-possibility-vestiges-universe.html

 

 

 

 

La Tierra es bombardeada por mucha antimateria y nadie sabe por qué

Pulsar en la Nebulosa del Cangrejo (NASA)

Los rayos cósmicos que provienen del espacio profundo y que llegan a la Tierra son un puñado de partículas llamadas positrones.

Los astrónomos piensan que la Tierra es bañada por estos antielectrones (positrones) debido a la presencia de los llamados pulsares, pero no están tan seguros de que ésta sea la única fuente del origen de estas elusivas partículas. Un nuevo estudio publicado recientemente podría dar más luz al respecto.

Resulta que los rayos cósmicos son partículas increíblemente rápidas que se propagan por el espacio a muy altas energías. Los positrones forman tan solo una pequeña parte de estas super rápidas partículas, pero nadie sabe hasta ahora con certeza de qué están hechas ni cómo llegan a crearse.

Recientemente un equipo internacional de investigadores de varios países han logrado hacer mediciones de las partículas nombradas anteriormente gracias al Observatorio Cherenkov de Gran Altitud (HAWC, por sus siglas en inglés) que se encuentra en el Cerro La Negra en México, a tan solo unos cuantos kilómetros de la ciudad de Puebla. Los científicos tienen la hipótesis de que estas partículas son producidas por objetos muy poderosos llamados pulsares.

Los pulsares son estrellas de neutrones que emiten pulsos de luz y partículas cargadas eléctricamente que luego son expelidas al espacio a la velocidad de la luz y que generan campos magnéticos muy poderosos. Obtienen el nombre de pulsares por el haz de partículas que generan en forma de círculo y que, conforme la estrella rota, es visto desde la Tierra como pulsos de luz que se emiten de forma muy rápida.

A medida que el haz de luz de un pulsar choca con el polvo y los gases circundantes, estos gases y polvo actúan como un gran acelerador de partículas, haciendo chocar partículas y produciendo nueva materia a partir de la energía generada.

En medio de esta carnicería, pueden surgir partículas como electrones y, por supuesto, también antielectrones, que son partículas como los electrones pero con diferente carga eléctrica a los que también se les llama positrones. Estos choques generan antimateria que rápidamente es eliminada por las ondas de choque producidas por las colisiones.

Al menos esta es la teoría que se tiene respecto a todo esto.

Por otro lado, cuando recientemente el observatorio HAWC detectó un par de candidatos perfectos de pulsares a algunos años cientos de años luz de distancia, con la finalidad de detectar sus energéticos positrones, pareció una excelente oportunidad para poner a prueba la hipótesis a la que nos hemos referido anteriormente.

“Los detectores del observatorio HAWC grabaron radiación de rayos gamma producida por una gran población de electrones que a su vez fueron producidos por pulsares que aceleraron estas partículas a muy alta energías”, comentó Francisco Salesa Greus de la Academia de Ciencias de Polonia.

“La pregunta fundamental es: ¿hay suficiente de estos electrones que sean capaces de interactuar para producir el número correcto de positrones?

La respuesta es no.

Después de 17 meses recabando información y posteriormente analizándola profundamente, los investigadores encontraron que los pulsares fueron responsables de algo de la energía extra de los positrones, pero la cantidad de datos no explica en su totalidad a todos ellos.

“Dado que las altas energías que generan los pulsares sigue siendo baja y modesta, otras explicaciones se vuelven más probables”, afirma Sabrina Casanova, del Instituto de Física Nuclear de la Academia polaca de Ciencias.

Una de estas explicaciones que se tienen es el decaimiento de partículas masivas de materia oscura.

La materia oscura produce un cuarto de toda la materia que hay en el universo, junto con la energía oscura y la materia visible. Comprenderla es uno de los grandes retos de la física contemporánea.

El misterio tanto de la materia oscura como de los rápidos positrones a los que nos hemos referido ya en este artículo, son tan solo una parte del rompecabezas que se tiene que armar para adquirir una comprensión más profunda del universo y ahora solamente queda esperar y seguir observando.

___________________________________

Traducido y editado por Julio García

Referencia: http://www.sciencealert.com/pulsars-fail-to-explain-extra-cosmic-ray-positrons

Nuevas evidencias sugieren que las partículas subatómicas podrían desafiar el Modelo Estándar

evidencesugg

El Modelo Estándar de la física de partículas, el cuál explica la mayoría de las interacciones y comportamientos de las partículas subatómicas, se ha mantenido notablemente bien durante varias décadas. Esta teoría de largo alcance tiene algunas deficiencias, una de ellas es que la fuerza de gravedad no puede integrarse bien  en el modelo estándar. Con la esperanza de revelar partículas y fuerzas que no son estándar, los físicos han estado en la búsqueda de las condiciones y el comportamiento que directamente violan el modelo estándar.

Ahora, un equipo de científicos que trabajan en el acelerador de partículas más grande del mundo, que se encuentra en la frontera entre Francia y Suiza, mejor conocido como CERN, han encontrado nuevas pistas de la existencia de partículas (leptones, para ser más precisos), que están siendo tratados de forma extraña ya que no han sido predichas por el modelo estándar. El descubrimiento, que se encuentra listo para ser publicado el 4 de septiembre de 2015 en la revista Physical Review Letters, podría probar la existencia de partículas que no se rigen bajo los principios de este modelo.

El equipo, que incluye a físicos de la Universidad de Maryland, quienes han hecho contribuciones claves para el estudio, analizaron datos que fueron coleccionados por el Gran Acelerador de Partículas. Los científicos se han encargado de analizar el decaimiento del meson B: proceso que produce partículas de luz, incluyendo a dos tipos de leptones: el leptón tau y el muon. Al contrario que su lepton estable, al que conocemos como electrón, los leptones tau y los muones son altamente inestables y rápidamente decaen en fracciones de segundo.

En este sentido, de acuerdo al concepto del Modelo Estándar llamado “universalidad del leptón”, que asume que los leptones son tratados de igual manera por todas las fuerzas fundamentales, el decaimiento del leptón tau y del muon suceden a la misma velocidad, una vez corregida su diferencia de masas. Sin embargo, el equipo encontró una pequeña pero notable diferencia en las tasas predichas de decaimiento. sugiriendo que las actuales fuerzas o partículas podrían estar interfiriendo en el proceso.

“El modelo estándar afirma que el mundo interactúa con todos los leptones de la misma manera. Hay una democracia ahí. Pero no hay garantía de que esto sea verdad si descubrimos nuevas partículas o nuevas fuerzas”, afirma uno de los investigadores que se han hecho cargo de escribir el artículo. “La universalidad del leptón está realmente consagrada en el Modelo Estándard. Si esta universalidad se rompe, podemos decir que hemos encontrado evidencia de un nuevo modelo no estándar.

El resultado del LCHb se suma al descubrimiento de un decaimiento previo, uno que se hizo a través del experimento BaBar del Centro de Aceleración Lineal de la Universidad de Stanford, que sugiere una desviación similar a las predicciones realizadas por el Modelo Estándar.

“Los experimentos fueron hechos en ambientes totalmente diferentes, pero ambos reflejan el mismo modelo físico. Esta respuesta otorga una importante independencia de las observaciones”, explicó el coautor del estudio Brian Hamilton.

“Mientras que estos resultados tomados juntos son muy prometedores, la observación del fenómeno no podría considerarse una verdadera violación del modelo Estándar mientras no se hagan futuros experimentos para verificar las observaciones”.

“Estamos planeando una gama de otro tipo de medidas. El experimento LHCb está obteniendo más información durante su segunda puesta en funcionamiento ahora mismo. Estamos trabajando en actualizaciones en el detector LHCb para los próximos años. Si este fenómeno es corroborado, tendremos décadas de trabajo por delante. Podría llevarnos a lugares aún desconocidos de la física teórica y hacia nuevas maneras de observar el modelo estándar y el modelo no estándar de la física”, afirma otro de los investigadores.

Con el descubrimiento del bosón de Higgs, (la mayor pieza perdida del Modelo Estándar de la Física), los físicos están buscando ahora fenómenos que no estén relacionados, que se desvíen, de las predicciones del Modelo Estándar. Los investigadores están emocionados con el futuro. Y es que la física teórica se mueve hacia terrenos aún desconocidos.

___________________________________

Traducido y editado por Julio Moll. 

Referencia: http://phys.org/news/2015-08-evidence-subatomic-particles-defy-standard.html

 

La teoría de cuerdas: ¿una manera de comprender la realidad?

stringtheory2fb

por Julio García. La “realidad” que percibimos a través de los sentidos está plagada de información, la cual codificamos y decodificamos a través de nuestros cerebros. Gracias a esta información es posible crearnos una representación del mundo y de los objetos. ¿Pero qué tiene que ver la información con el mundo de la teoría de cuerdas?

Esta teoría afirma, en términos generales, que las partículas, que son aparentemente puntuales, son en realidad estados vibratorios de un objeto llamado cuerda o filamento. En otras palabras, la información que nos transmite la teoría de cuerdas se produce en estados vibratorios específicos que son imposibles de percibir mediante los sentidos. De hecho nadie, hasta ahora, ha podido comprobar empíricamente esta teoría, la cual fue formulada por Joel Scherk y John Henry Schwarz en 1974. En su trabajo, estos dos físicos intentaron demostrar que “una teoría basada en objetos unidmensionales o cuerdas, en lugar de partículas puntuales, podía describir la fuerza de gravedad”.

Hasta ahora no existe una teoría que explique por qué hay gravedad. Se habla de que esta podría estar hecha de una partícula llamada gravitón, el cual funcionaría como el fotón a la fuerza electromagnética. Recordemos que la luz se transmite a través de pequeños cuantos de luz o partículas discretas.

Fue Albert Einstein que en 1915 propuso una teoría para intentar explicar el tema de la gravedad. Propuso que entre más masivo es un cuerpo, mayor curvatura produce en el tejido del espacio tiempo. El espacio-tiempo debe ser entendido como un conjunto de dimensiones, tres de espacio y una de tiempo, que convergen y se afectan unas a las otras. A mayor peso, mayor curvatura y, por ende, mayor fuerza de gravedad. Pero esta teoría no explica qué es la fuerza de gravedad o cuál es su esencia.

Para ello, en 1974, tanto Scherk com o Schwarz, trataron de explicarla a través de la teoría de cuerdas pero sin llegar a una conclusión definitiva. Las ideas fundamentales de estos dos físicos son las siguiente:

Los objetos básicos de la teoría no serían partículas puntuales sino objetos unidimensionales extendidos. A estos objetos unidemensionales extendidos les llamaron cuerdas por sus características matemáticas.

2.  El espacio tiempo en el que se mueven las cuerdas de la teoría no sería el espacio-tiempo ordinario de cuatro dimensiones sino un espacio de tipo Kaluza-Klein, en el que, a las cuatro dimensiones convencionales, se le añaden 6 dimensiones.

De acuerdo con esta perspectiva, las partículas puntuales pasan a ser objetos de una sola dimensión que vive en 10 dimensiones. En la vida real, esto es imposible de observar y mucho menos imaginar.

Las dimensiones extras a las que nos estamos refiriendo son prácticamente imposible de cuantificarlas ya que actúan a longitudes de Planck. Estas longitudes son más pequeñas que un átomo y nos lleva a preguntarnos cómo es el universo de lo muy pequeño.

Por otro lado, a la teoría de cuerdas se le ha llamado también teoría de las supercuerdas. En este sentido, existe una teoría supersimétrica que incluye fermiones y bosones. Los fermiones son partículas que tienen espín semi entero (1/2, 3/2, etc.) y entre ellos podemos mencionar a los quarks y los leptones. Los fermiones son los constituyentes básicos de la materia e interactúan entre ellos gracias a los bosones. Digamos que los bosones son las partículas que hacen interactuar a los fermiones.

Para darle un mayor sentido a la teoría de cuerdas los científicos le han dado el rango de supercuerdas para poder encajar con la teoría supersimétrica. Cuando decimos que algo es supersimétrico significa que sus características van más allá de la simetría. Cuando algo es simétrico es que ese algo, esa entidad, tiene las mismas características aunque las condiciones de su entorno cambien, por lo que permanecerá siempre igual.

Como hemos dicho, hasta el momento no se ha comprobado empíricamente la teoría de cuerdas. Sigue siendo un constructo teórico que busca responder a preguntas tan importantes y fundamentales como: ¿por qué la materia es como es y no de otra manera? ¿Por qué los átomos tienen las características que tienen y no manifiestan otras características? ¿Realmente existen otras dimensiones más allá de las cuatro que conocemos que son absolutamente inalcanzables a los instrumentos de observación con los que hoy contamos?

Las respuestas a estas interrogantes podrán llegar a través de los aceleradores de partículas como el gran Acelerador de Partículas de Ginebra, Suiza, el cual funciona gracias los investigadores del CERN. Lo que hace el acelerador, a grandes rasgos, es producir choques  de las partículas subatómicas, como protones, con la finalidad de encontrar en esos choques partículas aún más pequeñas y fundamentales. Una forma de representar este choque, es imaginando dos bolas de billar que son aceleradas a casi la velocidad de la luz. El resultado de esta colisión produce una cantidad determinada de energía, que el acelerador mide, y que nos muestra partículas aún más pequeñas y cada vez más energéticas. Hay un límite en la cantidad de energía a la que podemos llegar y que tiene que ver con la llamada longitud de Planck a la que nos hemos referido ya en párrafos anteriores.

En fin… solo nos queda esperar y comprobar que la teoría de cuerdas o es tan solo un invento de seres humanos que tratan de explicar la realidad a toda costa o es una herramienta con la que podremos comprender de una vez por todas como es que está estructurada la naturaleza. Nos queda mucho aprender y también mucho camino por recorrer.