domingo, 17 de agosto de 2025

Estamos rodeados de un Universo de masas negativas, en el que están grabados todos los estados cuánticos de lo que ha sucedido en nuestro Universo y que evoluciona según la ecuación de entropía de Shannon y la segunda ley de la infodinámica de Vopson

 

Álvaro Ballesteros

17. Agosto. 2025

 

Índice:

RESUMEN

1.Estamos rodeados de un Universo de masas negativas

2.Un simple signo negativo puede solucionar muchos de los grandes problemas de la Física

3.Ambos Universos están entrelazados

4.El espacio-tiempo cuántico está hecho de pixeles

5.Todos los estados cuánticos de lo que ha ocurrido están grabados en el Universo de masas negativas

6.El espacio-tiempo no es pasivo, está hecho de pixeles que tienen existencia/propiedades propias

7.Los sistemas/moléculas/virus de nuestro espacio/tiempo evolucionan de acuerdo a la ecuación de la entropía de Shannon  y la segunda ley de la infodinámica de Vopson

8.La inteligencia/virus usan el Algoritmo de Grover para evolucionar hacia estados de entropía óptimos

Pies de nota de mi planteamiento

ANEXOS

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia.html

Masa negativa: Explicando el universo que no vemos

https://www.astrobitacora.com/masa-negativa-explicando-el-universo/

Crean un objeto con "masa negativa": va para el lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton

https://www.bbc.com/mundo/noticias-39642708

Nuevo modelo para unificar la materia oscura y la energía oscura en gravedad negativa

https://www.xatakaciencia.com/astronomia/nuevo-modelo-para-unificar-materia-oscura-energia-oscura-gravedad-negativa

Un físico propone que la gravedad no es una fuerza real, sino la prueba de que vivimos en una gigantesca simulación informática diseñada para optimizar y comprimir la información del universo

https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html

Conjetura de Maldacena / Correspondencia AdS/CFT: Equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por uno. Correspondencia AdS/CFT:

https://www.wikiwand.com/es/Correspondencia_AdS/CFT

El principio holográfico: el más bello avance hacia la gravedad cuántica

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

El Modelo Estándar de la Física de Partículas

https://www.i-cpan.es/es/content/el-modelo-est%C3%A1ndar-de-la-f%C3%ADsica-de-part%C3%ADculas

Agujeros negros primordiales, MACHOs y WIMMP´s. Los agujeros negros primordiales podrían explicar la materia oscura, el crecimiento de las galaxias y mucho más

https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales

El tiempo corre en dos sentidos, según Julian Barbour

https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/

La Integral de caminos de Feynman

https://culturacientifica.com/2023/04/04/integral-de-caminos/

La Gravedad cuántica de bucles

https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles

Energía del vacío. La mayor discordancia de la historia de la ciencia

http://www.javierdelucas.es/vaciomedir.htm

La Ecuación de la Relatividad General de Einstein y la energía oscura

https://historiasdellean.blogspot.com/2023/04/el-entrelazamiento-cuantico-explicado.html

La Ecuación de Dirac y la antimateria

https://significado.com/ecuacion-de-dirac/

La Métrica de Alcubierre y la densidad de energía negativa para los viajes superlumínicos

https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre

Los 10 pasos clave de la evolución

https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/

La Mecánica Cuántica de la fotosíntesis

http://neofronteras.com/?p=3012

Tunelaje cuántico para conseguir la fusión nuclear en el Sol

 https://triplenlace.com/2014/01/16/la-quimica-del-sol/

¿Es nuestra consciencia cuántica?

https://es.resonancescience.org/blog/confirmacion-de-la-resonancia-cuantica-en-los-microtubulos-del-cerebro

Teoría de cuerdas y supersimetría

http://www.nocierreslosojos.com/teoria-cuerdas/

Un fotón ha retrocedido en el tiempo

https://wolksoftcr.com/como-en-fisica-cuantica-estan-logrando-lo-que-hasta-ahora-parecia-imposible-revertir-el-tiempo/

Modelo Cosmológico Lambda-CDM (Cold Dark Matter)

https://es.wikipedia.org/wiki/Modelo_Lambda-CDM

Principio de incertidumbre de Heisenberg para la energía-tiempo

https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

Tipos de partículas virtuales

https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual

Experimento de la doble rendija explicado por la interferencia de los fotones virtuales

 https://www.gsjournal.net/Science-Journals/Research%20Papers-Mechanics%20/%20Electrodynamics/Download/748

Dualidad onda-partícula, Postulado de Louis de Broglie y longitudes de onda de un electrón y de una pelota de beisbol

https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo

Ecuación de onda de Schroedinger, aplicada al caso de un túnel cuántico

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

La entropía de Shannon

https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/

Evolución de las mutaciones del virus del Covid para reducir su entropía, según un estudio de Vopson:

https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics

Hallazgo en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad similar a los "cambios de fase" estudiados en física

https://www.muyinteresante.com/ciencia/hallazgo-adn-salto-matematico-vida-complejidad-cambio-fase.html

¿Y si la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una simulación

https://wwwhatsnew.com/2025/05/05/y-si-la-gravedad-fuera-un-algoritmo-una-sorprendente-teoria-sobre-vivir-en-una-simulacion/

La información de los estados de un sistema cuántico no se puede perder

 https://gemini.google.com/app/2aef51477ffae076?hl=es-ES

¿Cuáles son los dos pasos principales del algoritmo de Grover y cómo contribuyen al proceso de búsqueda?

https://es.eitca.org/quantum-information/eitc-qi-qif-quantum-information-fundamentals/grovers-quantum-search-algorithm/grovers-algorithm/examination-review-grovers-algorithm/what-are-the-two-main-steps-of-grovers-algorithm-and-how-do-they-contribute-to-the-search-process/

Einstein y la teoría unificada: una nueva propuesta reabre su idea más ambiciosa. Una formulación geométrica alternativa plantea que el electromagnetismo podría entenderse sin partículas ni campos, solo como curvaturas del espacio-tiempo

https://www.eldiario.es/spin/einstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html#amp_tf=De%20%251%24s&aoh=17447048300984&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.eldiario.es%2Fspin%2Feinstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html

El algoritmo de Grover como parte fundamental de la propia naturaleza

https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/

La Endosimbiosis como forma de cooperación entre bacterias para conseguir dos saltos clave en la evolución

https://culturacientifica.com/2024/05/06/nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis/?utm_source=rss&utm_medium=rss&utm_campaign=nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis

Nueva teoría sobre materia oscura apunta a un "mundo espejo"

https://www.dw.com/es/nuevas-teor%C3%ADas-sobre-la-materia-oscura-apuntan-a-un-mundo-espejo/a-73562913

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia.html

 

RESUMEN

1.Estamos rodeados de un Universo de masas negativas

2.Un simple signo negativo puede solucionar muchos de los grandes problemas de la Física

3.Ambos Universos están entrelazados

4.El espacio-tiempo cuántico está hecho de pixeles

5.Todos los estados cuánticos de lo que ha ocurrido están grabados en el Universo de masas negativas

6.El espacio-tiempo no es pasivo, está hecho de pixeles que tienen existencia/propiedades propias

7.Los sistemas/moléculas/virus de nuestro espacio/tiempo evolucionan de acuerdo a la ecuación de la entropía de Shannon  y la segunda ley de la infodinámica de Vopson

8.La inteligencia/virus usan el Algoritmo de Grover para evolucionar hacia estados de entropía más óptimos

 

1.Estamos rodeados de un Universo de masas negativas

Jamie Farnes ha elaborado un modelo matemático basado en la masa negativa que es capaz de explicar la formación de halos de materia oscura alrededor de galaxias de masa positiva.

https://www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia.html

«Parece que un simple signo negativo podría solucionar dos de los mayores problemas de la Física », ha explicado a ABC Jamie Farnes , primer autor del estudio. «Nuestra teoría parece no solo explicar la materia oscura, sino que también obtenemos una posible solución para la energía oscura».

En primer lugar, ¿cómo sería esta masa negativa? Según el autor, sería «extraña y peculiar para nosotros, porque vivimos en una región del espacio dominada por la materia positiva». De hecho, aventura que tendría una exótica propiedad: «Si empujaras una masa negativa, ¡esta iría hacia ti!».

«Mi modelo muestra que la fuerza repulsiva de los alrededores, proveniente de la masa negativa, puede mantener unida a una galaxia», ha explicado Farnes. «La gravedad de la masa positiva de la galaxia atrae la masa negativa en todas las direcciones y, a medida que esta masa negativa se acerca, ejerce una fuerza repulsiva cada vez con más fuerza que permite a la galaxia girar a gran velocidad sin salir disparada».

¿Y si la masa negativa se genera espontáneamente? «En nuestra teoría, las partículas de masa negativa son creadas continuamente por un "tensor de creación ", de modo que se regeneran a medida que el Universo se expande. Con esta propuesta, estas masas negativas creadas continuamente parecen ser idénticas a la energía oscura». Por tanto, serían compatibles con lo observado.

El «tensor de creación»

Este científico ha detallado que este «tensor de creación» no es más que una construcción matemática, «que permite a la materia aparecer espontáneamente en la existencia, como una especie de palomita microscópica».

En su opinión, sería interesante observar si esta idea puede ser compatible con la Mecánica Cuántica, para estudiar si podría haber partículas que aparecieran espontáneamente en el vacío, o incluso para ayudar a la unificación de las incompatibles Relatividad y Mecánica Cuántica. Puede parecer inverosímil, pero, ¿no lo es también la base de una realidad tan cotidiana como la gravedad? ¿O la de los fenómenos que permiten el funcionamiento de satélites o televisiones?

Aceptando el marco propuesto por esta investigación, resultaría que la energía y la materia oscuras pueden ser unificadas en una sola sustancia, cuya naturaleza se explica sencillamente como resultado de que « la masa positiva –del Universo– surfea en un mar de masas negativas », según Farnes.

Jamie Farnes sugiere que la Materia Oscura es un Universo de masas negativas que rodea nuestro Universo de masas positivas

 

2.Ambos Universos están entrelazados

Julian Barbour propone que hay dos Universos, uno en el que el tiempo se mueve hacia adelante, en el que el caos aumenta, y otro hacia atrás, en el que el caos disminuye y la complejidad aumenta

Ambos Universos están entrelazados, dado que tuvieron un origen común, para respetar la simetría masas positivas = masas negativas

Ambos Universos nacieron a partir de una fluctuación cuántica

De acuerdo con la conjetura EPR = ER, donde hay entrelazamiento hay agujeros de gusano

Ambos Universos están conectados a través de agujeros de gusano

Esos agujeros de gusano se abren gracias a las masas negativas del otro Universo, según las soluciones de la Relatividad General descubiertas por Miguel Alcubierre y Kip Thorne  

La información de lo que ocurre en nuestro Universo queda grabada en el Horizonte de Sucesos del Universo de masas negativas, de manera similar a lo que predice el Principio Holográfico y la Conjetura de Maldacena

 

3.El espacio-tiempo cuántico está hecho de pixeles

El espacio-tiempo de nuestro Universo y del Universo de masas negativas está hecho de pixeles

El Universo de masas negativas tiene como componente clave una capa de cebolla externa que es similar al Horizonte de Sucesos de un Agujero Negro

A cada pixel de nuestro espacio-tiempo de 3 Dimensiones le corresponde un pixel de 2 Dimensiones en el Universo de masas negativas, según la conjetura Maldadena

Toda la información de lo que ocurre en el espacio de tres dimensiones de nuestro universo ordinario es almacenada en el contorno de 2 dimensiones del Horizonte de Sucesos del Universo de Materia Negativa   

Cada pixel tiene la longitud de Planck: 1,6 x 10 exp -35 metros

Por debajo de la longitud de Planck aparecen los efectos de la gravedad cuántica

Cada pixel es único y está definido por información exclusiva de él

Por visualizar, cada pixel tiene propiedades que lo definen, como una celda de un Excel

Los pixeles son la base para demostrar la segunda ley de la infodinámica de Vopson

Los pixeles pueden ser la base para el cálculo integral de posibles ecuaciones de leyes básicas del Universo, como es el caso de la ley de Gauss del campo eléctrico, una de las ecuaciones de Maxwell del electromagnetismo:

Texto

El contenido generado por IA puede ser incorrecto.

Realmente, la integral del flujo eléctrico se puede pensar como integral de los campos eléctricos que hay en cada pixel de Planck

Cada pixel de Planck tiene números cuánticos propios, como los tienen los electrones o los fotones

El número cuántico de cada pixel incluye información sobre los objetos que contiene, por ejemplo, la posición y velocidad de la masa que alberga o la información sobre los campos eléctrico y/o magnéticos que hay en él

 

5.Todos los estados cuánticos de lo que ha ocurrido en nuestro universo están grabados en el Universo de masas negativas

Cada pixel de nuestro Universo tiene un pixel gemelo en el Universo gemelo hecho de masas negativas

Siguiendo este ejemplo, en ese pixel del Universo de masas negativas quedan grabados todos los estados del campo eléctrico que ha tenido el pixel de nuestro Universo a lo largo del tiempo

O sea, cada pixel del Universo de masas negativas guarda trazabilidad de todo lo que le ha ocurrido a todas las partículas de nuestro Universo de Materia Ordinaria

Así, tenemos en los pixeles de nuestro Universo de masas negativas almacenada una gigantesca memoria cósmica

 

6.Los sistemas / moléculas / virus de nuestro espacio-tiempo evolucionan de acuerdo a la ecuación de la entropía de Shannon y de la 2º ley de la infodinámica de Vopson

-La ecuación de la entropía de Shannon: La entropía de una fuente de datos indica el número mínimo de bits necesarios para codificar la información sin perder ningún contenido

-La segunda ley de la infodinámica de Vopson: los sistemas / partículas / moléculas que están en el espacio-tiempo (en las celdas de la Excel) evolucionan hacia nuevas “formas” / mutaciones que tengan menos entropía

El Universo gemelo, donde radica toda la información de todo lo que ha pasado en nuestro Universo, trata de optimizar su “espacio en disco” por medio de lo que le impone la segunda ley de la infodinámica de Vopson

Si en el Horizonte de Sucesos del Universo de masas negativas queda grabado todo lo que ha sucedido en nuestro Universo, ahí es donde radica toda la sabiduría

Asimismo, todo lo que le ocurre ahora a una persona se está grabando en ese Horizonte de Sucesos

Eso quiere decir que mis recuerdos y los de todo el resto de los seres de este mundo están grabados en ese Horizonte de Sucesos

Así pues, el espacio-tiempo no es un simple escenario pasivo, sino que es un participante activo con una capacidad enorme para almacenar y recordar información

Cada celda cuántica de espacio-tiempo funciona como una unidad de memoria elemental

Así pues, el espacio-tiempo no solo permite que las cosas sucedan en él, sino que también las recuerda activamente

Las propiedades cuánticas de cualquier materia o campo que haya en el espacio-tiempo de nuestro Universo de materia ordinaria se "imprimen" en las celdas del horizonte de sucesos del Universo de masas negativas

Bajo determinadas circunstancias, se puede acceder a la información previamente codificada

De esta manera, queda preservada la ley fundamental de la Mecánica Cuántica que dice que la información de los estados cuánticos de las partículas definidas en el Modelo Estándar NO se puede perder

 

7.La inteligencia / virus usa el Algoritmo de Grover para evolucionar hacia estados de entropía de mayor complejidad

¿Cómo descubre la CPU del virus cuáles son esas formas / mutaciones que tengan menos entropía?: haciendo cálculos mediante el Algoritmo de Grover

La puntualización clave es que el Algoritmo de Grover está diseñado para correr en ordenadores cuánticos

¿Por qué?: porque esa computación cuántica le permite hacer muchas más simulaciones en muy poco tiempo, hasta que descubre la solución buscada: esa nueva mutación que tiene menos entropía, o sea más complejidad

Esa nueva complejidad le hace sobrevivir al virus, adaptarse a nuevos desafíos

Para que el Algoritmo de Grover funcione de manera óptima, el “programador” / el virus ha descubierto que la molécula de ADN tiene que tener el número 4 como nº óptimo de bases de nucleótiodos y el nº 20 como nº óptimo de aminoácidos

 

Pies de nota de mi planteamiento

La información puede tener masa, incluso las partículas elementales almacenan información sobre sí mismos, de manera similar a como el ADN almacena información sobre nosotros

La información es una entidad física, equivalente en importancia a la equivalencia masa = energía

Principio de equivalencia masa = energía = información

La información podría ser la elusiva Materia Oscura

Ley de la Infodinámica: describe cómo evoluciona la información y cómo se comporta en el Universo

La información se organiza y comprime constantemente

El universo podría estar compuesto de Q-bits de información

Los sistemas de información tienden a reducir su nivel de entropía, es decir se ordenan o comprimen con el tiempo

Lo sistemas que gestionan información, como el ADN, podrían estar sujetos a un principio natural que busca la eficiencia, la compresión y la minimización del ruído

Las mutaciones de los virus tienden a moverse hacia una optimización del código genético, reduciendo su complejidad informacional a la vez que aumentan la eficacia del virus para replicarse y transmitirse

El ADN actúa no solo como una cadena biológica sino como un sistema de almacenamiento de datos que sigue las leyes de compresión similares a las utilizadas en informática

¿Cuánta información contienen una partícula subatómica?

Un electrón podría contener 1,5 x 10 exp -30 Kg de masa como contenido informacional

Este enfoque refuerza la idea de que la información no es meramente un fenómeno derivado sino un componente medible, que contribuye a las propiedades físicas de la materia

Los datos que componen el Universo no son simplemente conceptos abstractos, sino entidades físicas con peso propio

Un poco como ocurre con el ADN, que almacena toda la información genética en una cadena molecular tangible: la información necesita / tiene masa

Imagina que cada partícula del Universo fuera una espacie de unidad de almacenamiento, como una memoria USB microscópica. Así, la realidad física sería como una gran base de datos en constante reorganización, y las leyes de la física serían los algoritmos que las gestionan

El Modelo de Vopson sugiere que la gravedad NO es una causa, sino una consecuencia

Un síntoma de que el Universo opera bajo reglas de procesamiento de la información, igual que un videojuego necesita un motor gráfico para mostrar los objetos

Si esta visión resulta acertada, podría ser una de las pistas más claras de que el Universo no es una creación espontánea, sino una construcción lógica, basada en código

Si los datos son materia y la materia es información, entonces el Universo podría leerse como un gigantesco libro codificado

O como en un videojuego extremadamente avanzado, del que no somos más que personajes conscientes dentro de un entorno virtual muy bien diseñado

El virus del Covid muta de acuerdo a la segunda ley de la infodinámica de Vopson

Ecosistema del virus de Covid si él fuera la Inteligencia Creadora:

-Tiene un sistema / lugar donde guardar toda la información de sus “experimentos” : el Horizonte de Sucesos del Universo de masas negativas que rodea a nuestro Universo y / o cada ser vivo

-Ese lugar es una “Excel” vacía, llena de celdas, que cada una de ellas es diferente a las demás -à tiene u spin seientero ---- > obedecen al Principio de Exclusión de Pauli

Tenemos la memoria, tenemos al Ecel llena de celdas infinitamente pequeñas: del área de Plank: 2,6 x 10  exp – 70 m2   

 

Nuestro Universo está regido por las siguientes leyes fundamentales:

La ecuación de la entropía de Shannon, que con sus Algoritmos de compresión define la cantidad mínima posible de bits que define un sistema de partículas

La segunda ley de la infodinámica de Vopson, lo que hace que las formas de las partículas / moléculas / sistemas evolucionen hacia nuevas formas con menos entropía y, por tanto, más complejidad: por ejemplo, la evolución de las mutaciones del virus del Covid

El Algoritmo de computación cuántica de Grover para definir 4 como el número clave de nucleótidos y 20 como el número clave de aminoácidos en la molécula de ADN

La computación cuántica para producir procesos como la fotosíntesis, donde el efecto de túnel cuántico es clave para que los electrones sin energía suficiente alcancen los centros transformadores que producen ATP

La Conjetura Maldacena / el Principio Holográfico para almacenar la información en el Horizonte de Sucesos del Universo de Masas Negativas de todos los estados cuánticos que han ocurrido en nuestro Universo

La Conjetura EPR = ER, o sea donde hay entrelazamiento cuántico hay agujeros de gusano, para comunicar instantáneamente ambos Universos

Otros casos clave de aplicación de la segunda ley de la infdinámica de Vopson son:

-La colaboración entre las cianobacterias para producir las células eucariotas y las mitocondrias son otros dos casos de evolución a soluciones con menos grado de entropía infodinámica

 

Las cianobacterias de la fotosíntesis distorsionan el espacio-tiempo

Explicación alternativa de la distorsión del espacio-tiempo producida por una entropía cuántica

La entropía es cuántica

La entropía acopla los campos de materia con la geometría del espacio-tiempo

La entropía cuántica describe las diferencias entre materia y espacio-tiempo

La gravedad cuántica existe en forma de partículas y de ondas

Si la gravedad existe en forma de partículas, eso podría explicar la materia oscura

Al principio el desorden era máximo (la entropía era mínima), por lo que el espacio-tiempo tenía una energía baja, una curvatura pequeña y una constante cosmológica pequeña

 Cuando aparece un salto clave en la evolución, la complejidad aumenta, la entropía disminuye y el espacio-tiempo cambia

Un ejemplo claro de salto cuántico evolutivo clave sería cuando las cianobacterias colaboran para producir la fotosíntesis

Así pues, acción de cianobacterias = fotosíntesis = cambio en entropía = cambio en geometría del espacio-tiempo = distorsión del espacio-tiempo = paso del electrón desde el punto A al B, a pesar de que NO tiene energía suficiente

Conclusión: las cianobacterias son capaces de crear distorsiones del espacio-tiempo y al hacerlo consiguen que los electrones de la fotosíntesis lleguen, por efecto túnel, a su meta (aunque no tengan energía suficiente)

 

Cuando ocurrió un salto evolutivo clave, por ejemplo, el descubrimiento de la fotosíntesis por unas cianobacterias en algún lugar de la Tierra, esa experiencia quedó grabada en el Horizonte de Sucesos, y de ahí cogieron la información el resto de las cianobacterias para reproducirlo a nivel masivo

Es como si esa información quedara grabada en la “nube” de las cianobacterias, espacio especial del Horizonte de Sucesos reservado para la comunidad de cianobacterias

Los experimentos hechos por cada cianobacteria quedan grabados originalmente por separado, pero con el objetivo último de reducir el espacio ocupado en el Horizonte de Sucesos, se terminan agrupando todos los experimentos de cada cianobacteria en unos pocos

El proceso anterior es consecuencia de la segunda ley de la infodinámica, propuesta por Vopson

El espacio-tiempo de ese Horizonte de Sucesos no es continuo, es discreto, como una pixelación

Cada pixel almacena información sobre los objetos que contiene, creando una gigantesca memoria cósmica

 

Conclusión

El Modelo Estándar de partículas debe incluir los “entes” del espacio-tiempo de la Materia Oscura / Masas Negativas

Partículas del Universo de Masas Negativas: habrá que incluir los quarks y gluones de masas negativas

Habrá que incluir las celdas / pixeles del espacio-tiempo

El Modelo Estándar debe incluir las partículas de masas negativas

La masa negativa existe porque la distorsión del espacio-tiempo es real: las galaxias más lejanas se alejan entre ellas “a más velocidad que la de la luz” porque existe un Warp-Drive de Alcubierre que lo permite

La solución de Alcubierre es de una densidad de masa negativa

Estamos rodeados de un océano de masa negativa

Este océano de masa negativa tiene un Horizonte de Sucesos

Este Horizonte de Sucesos está hecho de pixeles cuánticos de espacio-tiempo

En esta Horizonte de Sucesos queda grabada toda la historia de nuestro Universo, según la Conjetura de Maldacena, correspondencia  AdS/CFT

Este Horizonte de Sucesos funciona según la Segunda Ley de la Infodinámica de Vopson

Este Universo de masas negativas se comunica con el nuestro a través de agujeros de gusano, según la conjetura EPR = ER

Eso quiere decir que donde hay entrelazamientos entre partículas cuánticas hay agujeros de gusano

Los dos Universos se comunican a través de agujeros de gusano porque están entrelazados

Estos agujeros de gusano se abren debido a las masas negativas, tal como predice la solución de Alcubierre de la Relatividad General  

La densidad de masa negativa de la solución de Alcubierre es:

 

 

Todos los estados de nuestro pasado quedan grabados, porque según la Mecánica Cuántica, no se puede perder la información de la evolución de una función de onda

La evolución de la función de onda de un determinado sistema queda determinada por la ecuación de onda de Schroedinger de ese sistema

La información queda grabada en el horizonte de sucesos de ese Universo de masas negativas, conforme a lo que predice el Principio Holográfico y la Conjetura de Maldacena

Esa información grabada en el Universo de masas negativas evoluciona optimizando el espacio ocupado por la información según la segunda ley de la infodinámica de Vopson 

Si en ese Universo de masas negativas está grabado todo lo que ha sucedido en nuestro Universo, ahí es donde radica toda la sabiduría

La información puede tener masa, incluso las partículas elementales almacenan información sobre sí mismos, de manera similar a como el ADN almacena información sobre nosotros

La información es una entidad física, equivalente en importancia a la equivalencia masa = energía

Principio de equivalencia masa = energía = información

La información podría ser la elusiva Materia Oscura

Ley de la Infodinámica: describe cómo evoluciona la información y cómo se comporta en el Universo

La información se organiza y comprime constantemente

Uno no es de carne y hueso, sino que está hecho de Q-Bits

El universo podría estar compuesto de Q-bits de información

Los sistemas de información tienden a reducir su nivel de entropía, es decir se ordenan o comprimen con el tiempo

Lo sistemas que gestionan información, como el ADN, podrían estar sujetos a un principio natural que busca la eficiencia, la compresión y la minimización del ruido

Las mutaciones de los virus tienden a moverse hacia una optimización del código genético, reduciendo su complejidad informacional a la vez que aumentan la eficacia del virus para replicarse y transmitirse

El ADN actúa no solo como una cadena biológica sino como un sistema de almacenamiento de datos que sigue las leyes de compresión similares a las utilizadas en informática

¿Cuánta información contienen una partícula subatómica?

Un electrón podría contener 1,5 x 10 exp -30 Kg de masa como contenido informacional

Este enfoque refuerza la idea de que la información no es meramente un fenómeno derivado sino un componente medible, que contribuye a las propiedades físicas de la materia

Los datos que componen el Universo no son simplemente conceptos abstractos, sino entidades físicas con peso propio

Un poco como ocurre con el ADN, que almacena toda la información genética en una cadena molecular tangible: la información necesita / tiene masa

Imagina que cada partícula del Universo fuera una espacie de unidad de almacenamiento, como una memoria USB microscópica. Así, la realidad física sería como una gran base de datos en constante reorganización, y las leyes de la física serían los algoritmos que las gestionan

El Modelo de Vopson sugiere que la gravedad NO es una causa, sino una consecuencia

Un síntoma de que el Universo opera bajo reglas de procesamiento de la información, igual que un videojuego necesita un motor gráfico para mostrar los objetos

Si esta visión resulta acertada, podría ser una de la pistas más claras de que el Universo no es una creación espontánea, sino una construcción lógica, basada en código

Si los datos son materia y la materia es información, entonces el Universo podría leerse como un gigantesco libro codificado

O como un videojuego extremadamente avanzado, del que no somos más que personajes conscientes dentro de un entorno virtual muy bien diseñado

El virus del Covid muta de acuerdo a la segunda ley de la infodinámica de Vopson

Ecosistema del virus de Covid si él fuera la Inteligencia Creadora:

-Tiene un sistema / lugar donde guardar toda la información de sus “experimentos” : el Horizonte de Sucesos del Universo de masas negativas que rodea a nuestro Universo y / o cada ser vivo

-Ese lugar es una “Excel” vacía, llena de celdas, que cada una de ellas es diferente a las demás -à tiene un spin semientero ---- > obedecen al Principio de Exclusión de Pauli

Tenemos la memoria, tenemos al Excel llena de celdas infinitamente pequeñas: del área de Plank: 2,6 x 10  exp – 70 m2  

Tenemos la memoria del ordenador = pixeles del espacio-tiempo, tenemos la Excel llena de celdas infinitamente pequeñas, área de Plank: 2,6 x 10 exp -70 m2

Programas que el virus hace funcionar / correr:

-La ecuación de la entropía de Shannon: La entropía de una fuente de datos indica el número mínimo de bits necesarios para codificar la información sin perder ningún contenido

-La segunda ley de la infodinámica de Vopson: los sistemas / partículas / moléculas que están en el espacio-tiempo (en las celdas de la Excel) evolucionan hacia nuevas “formas” / mutaciones que tengan menos entropía

¿Cómo descubre la CPU del virus cuáles son esas formas / mutaciones que tengan menos entropía?: haciendo cálculos mediante el Algoritmo de Grover

La puntualización clave es que el Algoritmo de Grover está diseñado para correr en ordenadores cuánticos

¿Por qué?: porque esa computación cuántica le permite hacer muchas más simulaciones en muy poco tiempo, hasta que descubre la solución buscada: esa nueva mutación que tiene menos entropía, o sea más complejidad

Esa nueva complejidad le hace sobrevivir al virus, adaptarse a nuevos desafíos

Para que el Algoritmo de Grover funcione de manera óptima, el “programador” / el virus ha descubierto que la molécula de ADN tiene que tener el número 4 como nº óptimo de bases de nucleótiodos y el nº 20 como nº óptimo de aminoácidos

 

ANEXOS

 

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia.html

Pero, ¿qué es la gravedad? ¿Como actúa a distancia, de dónde obtiene la energía para tirar al suelo una simple fruta? ¿Por qué unas cosas pesan más que otras? La respuesta aceptada es que existe un campo, el llamado campo de Higgs, que permea el espacio-tiempo y que, al interaccionar con la materia, le proporciona a las partículas su masa. Es decir, algo totalmente cotidiano y evidente, la propia existencia de la gravedad, depende de algo invisible, difícil de comprender y muy lejos de ser evidente. Tan es así que la existencia del bosón de Higgs , la partícula que genera el campo del mismo nombre, solo se pudo constatar hace seis años.

Y esto es solo una ínfima parte del enorme desafío que es comprender el funcionamiento de lo que nos rodea. De hecho, en la actualidad se desconoce la naturaleza del 95 por ciento del Universo . La materia visible, que forma estrellas, planetas y nubes de polvo y gas, no explica cómo las galaxias giran tan rápido como lo hacen sin deshacerse. Debe de existir algo invisible que las mantiene unidas, gracias a la gravedad: quizás la llamada materia oscura. Por otro lado, la materia visible tampoco explica por qué existe una misteriosa fuerza repulsiva que separa el espacio-tiempo y expande el Universo, con más aceleración cuanto más disperso está. Debe de existir algo que lo separa todo: podría ser la llamada energía oscura. Pero, ¿de dónde surgen estos fenómenos? Si algo tan natural como la gravedad que sentimos tiene una base tan extraña, ¿qué podemos esperar de estos fenómenos oscuros que no tenemos ni idea de cómo son?

Hasta el momento, no ha habido forma de detectar ni una traza de la fracción oscura del Universo, y no es de extrañar que haya cientos de investigadores devanándose los sesos por ello. Ahora, un grupo de científicos de la universidad de Oxford (Reino Unido) acaba de publicar un artículo en la revista Astronomy and Astrophysics donde propone una explicación, basada en modelos matemáticos que son capaces de reproducir parcialmente nuestro Universo, y que unifican tanto la materia como la energía oscuras . Su propuesta consiste en sugerir la existencia de la masa negativa , una exótica forma de materia que se caracteriza por alejar a la masa de su alrededor. Si las masas se atraen entre sí gracias a la gravedad, ¿por qué no puede ocurrir lo contrario? ¿Podría ser que el Universo fuera simétrico y hubiera masas positivas y negativas?

«Parece que un simple signo negativo podría solucionar dos de los mayores problemas de la Física », ha explicado a ABC Jamie Farnes , primer autor del estudio. «Nuestra teoría parece no solo explicar la materia oscura, sino que también obtenemos una posible solución para la energía oscura».

En primer lugar, ¿cómo sería esta masa negativa? Según el autor, sería «extraña y peculiar para nosotros, porque vivimos en una región del espacio dominada por la materia positiva». De hecho, aventura que tendría una exótica propiedad: «Si empujaras una masa negativa, ¡esta iría hacia ti!».

La repulsión que une galaxias

El investigador ha recordado que el callejón sin salida de la materia y la energía oscuras, que es resultado de no poder explicar lo que vemos en el Universo con nuestras teorías, ha llevado a algunos científicos a coger el camino de en medio. Algunos trabajan en una «gravedad modificada» que se comporta de una forma distinta en las grandes escalas y otros han creado el concepto del «fluido oscuro», una exótica forma de materia que combinan algunas de las propiedades de la energía y la materia oscuras. ¿Es por esto por lo que el Universo se expande tan rápido? ¿O el motivo por el que se mantienen unidas las galaxias? ¿Que no lo veamos indica que no existe?

Responder a estas preguntas puede ser una tarea demasiado ambiciosa, o no. De momento, Jamie Farnes ha elaborado un modelo matemático basado en la masa negativa que es capaz de explicar la formación de halos de materia oscura alrededor de galaxias de masa positiva.

«Mi modelo muestra que la fuerza repulsiva de los alrededores, proveniente de la masa negativa, puede mantener unida a una galaxia», ha explicado Farnes. «La gravedad de la masa positiva de la galaxia atrae la masa negativa en todas las direcciones y, a medida que esta masa negativa se acerca, ejerce una fuerza repulsiva cada vez con más fuerza que permite a la galaxia girar a gran velocidad sin salir disparada».

La fuerza que expande el espacio-tiempo

Si la masa negativa puede explicar la materia oscura, ¿puede explicar también la energía oscura y la expansión del Universo? Hasta ahora, siempre se ha rechazado esta posibilidad, porque no parece compatible con lo observado.

«Sabemos que la materia, incluyendo las partículas de masa negativa, se dispersarían más a medida que el Universo se expande. Sin embargo, las observaciones de energía oscura muestran que esta sustancia no se hace más fina con el tiempo, de hecho permanece constante durante la expansión del Universo», ha resumido Jamie Farnes.

Sin embargo, este científico ha ideado una posibilidad que acabaría con esta incompatibilidad. ¿Y si la masa negativa se genera espontáneamente? «En nuestra teoría, las partículas de masa negativa son creadas continuamente por un "tensor de creación ", de modo que se regeneran a medida que el Universo se expande. Con esta propuesta, estas masas negativas creadas continuamente parecen ser idénticas a la energía oscura». Por tanto, serían compatibles con lo observado.

El «tensor de creación»

Este científico ha detallado que este «tensor de creación» no es más que una construcción matemática, «que permite a la materia aparecer espontáneamente en la existencia, como una especie de palomita microscópica».

En su opinión, sería interesante observar si esta idea puede ser compatible con la Mecánica Cuántica, para estudiar si podría haber partículas que aparecieran espontáneamente en el vacío, o incluso para ayudar a la unificación de las incompatibles Relatividad y Mecánica Cuántica. Puede parecer inverosímil, pero, ¿no lo es también la base de una realidad tan cotidiana como la gravedad? ¿O la de los fenómenos que permiten el funcionamiento de satélites o televisiones?

Aceptando el marco propuesto por esta investigación, resultaría que la energía y la materia oscuras pueden ser unificadas en una sola sustancia, cuya naturaleza se explica sencillamente como resultado de que « la masa positiva –del Universo– surfea en un mar de masas negativas », según Farnes.

Los pasos para confirmarlo

¿Qué harán a continuación para tratar de validar esta hipótesis? El investigador ha explicado que este modelo predice que la distribución de las galaxias debería variar de una forma muy concreta en función el tiempo. Pues bien, están desarrollando herramientas para procesar los datos que obtendrá el Square Kilometre Array (SKA), un inmenso radiotelescopio con un área colectora de un millón de metros cuadrados y capaz de generar 5 millones de petabytes de información cada año, para estudiar la distribución de las galaxias, según ha dicho Farnes, «más atrás en el tiempo que ninguna otra máquina ha podido mirar».

Esto les permitirá comparar la teoría propuesta con el modelo cosmológico convencional, que no puede explicar la energía o la materia oscuras, y quizás incluso contraponera con otras teorías cosmológicas.

Todo esto no ocurrirá hasta al menos 2030, según Jamie Farnes. Sin embargo, es posible que antes de eso los experimentos Alpha-G y ATLAS, del CERN, encuentren indicios de la antimateria de masa negativa , lo que serían un importante impulso en la búsqueda de partículas de masa negativa.

 

 

Un físico propone que la gravedad no es una fuerza real, sino la prueba de que vivimos en una gigantesca simulación informática diseñada para optimizar y comprimir la información del universo

https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html

"La segunda ley de infodinámica describe la evolución temporal de la entropía de los estados de información en un sistema aislado hacia el equilibrio", explica Vopson en su artículo. Según esta idea, la materia en el espacio estaría obligada a reorganizarse para reducir su huella informativa, no para maximizarla.

Esta perspectiva lleva a pensar que el espacio-tiempo no sería continuo, sino "discreto, similar a una pixelación o al mallado en análisis de elementos finitos". Cada "píxel" del espacio almacenaría información sobre los objetos que contiene, como una especie de gigantesca mente cósmica

 

Gráfico, Calendario, Gráfico de dispersión

El contenido generado por IA puede ser incorrecto. 

 

Según Vopson, el propio proceso de agrupación está impulsado por una fuerza entrópica: "La fuerza atractiva generada por el requerimiento de reducir la entropía de la información tiene todas las características de una fuerza gravitacional". Así, la gravedad no sería más que el esfuerzo del universo por mantener su información comprimida y organizada.

Aplicando esta idea, el autor consigue derivar la ley de la gravitación universal de Newton: "Recuperamos una expresión de la fuerza entrópica que es idéntica a la ley de la gravedad de Newton". Esto implica que lo que percibimos como gravedad podría ser un efecto secundario de la tendencia fundamental del cosmos a optimizar su almacenamiento de datos.

 

 

 

Conjetura de Maldacena / Correspondencia AdS/CFT: Equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por uno.

Correspondencia AdS/CFT:

https://www.wikiwand.com/es/Correspondencia_AdS/CFT

En física teórica, la correspondencia AdS/CFT (espacio anti-de Sitter/teoría conforme de campos) también llamada conjetura de Maldacenadualidad Maldacena o dualidad gauge/gravedad, es una relación conjeturada entre dos tipos de teorías físicas. Por un lado están los espacios anti-de Sitter (AdS) que se utilizan en las teorías de la gravedad cuántica, formulados en términos de la teoría de cuerdas o la teoría M. En el otro lado de la correspondencia están las teorías de campos conformes (CFT) que son teorías de campos cuánticos, que incluyen teorías similares a las teorías de Yang-Mills que describen partículas elementales.

La dualidad representa un gran avance en nuestra comprensión de la teoría de cuerdas y la gravedad cuántica. Esto se debe a que proporciona una formulación no perturbativa de la teoría de cuerdas con ciertas condiciones de frontera y porque es la realización más exitosa del principio holográfico, una idea en gravedad cuántica propuesta originalmente por Gerard 't Hooft y promovida por Leonard Susskind.

En física, la correspondencia AdS/CFT es la equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por uno.

El espacio anti-de Sitter (AdS) corresponde a una solución a las ecuaciones de Einstein con constante cosmológica negativa, y es una teoría clásica de la gravedad; mientras que la teoría conforme de campos (CFT:Conformal Field Theory) es una teoría cuántica. Esta correspondencia entre una teoría clásica de la gravedad y una cuántica, puede ser el camino hacia la gravedad cuántica.

La correspondencia AdS/CFT fue propuesta originalmente por el físico argentino Juan Maldacena a finales de 1997, y algunas de sus propiedades técnicas pronto fueron clarificadas en un artículo de Edward Witten y otro artículo de Gubser, Klebanov y Polyakov. Para 2015, el artículo de Maldacena tenía más de 10.000 citas, convirtiéndose en el artículo más citado en el campo de la física de partículas.

 

El principio holográfico: el más bello avance hacia la gravedad cuántica

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

 

Agujeros negros y determinismo en relatividad general:

Como vimos en la entrada sobre órbitas alrededor de agujeros negros, cuando un cuerpo llegaba al horizonte de sucesos su tiempo pasaba infinitamente más despacio que en el exterior. Esto implica que cuando uno atraviesa el horizonte de un agujero negro en principio el universo del que procede ha acabado: ha pasado infinito tiempo mientras caía. Este hecho era el que hacía de los agujeros negros objetos tan especiales y les dio tanta relevancia en la ciencia-ficción. Si uno consigue salir de un agujero negro relativista, no puede aparecer en el universo desde el que entró porque ya no existe.

No obstante, la relatividad general es perfectamente determinista: la trayectoria del cuerpo que cae al agujero negro se puede seguir matemáticamente hasta que llega a la singularidad central, aunque ahí no se sepa qué le sucede.

Agujeros negros y determinismo con gravedad cuántica:

En el momento en el que combinamos la relatividad general con la teoría cuántica de campos los agujeros negros no solo pueden sino que además deben radiar. Más cuanto más pequeños sean. Su temperatura disminuye solo a medida que crecen, mientras que por contrapartida aumentan su entropía.

Sin embargo, dado que radian, contrariamente a lo previsto por la relatividad general los agujeros negros tienden a disminuir su tamaño salvo que se los alimente constantemente con materia nueva.

La termodinámica de agujeros negros surgió porque era necesario asignarles entropía dentro de un marco teórico adecuado: si no la poseían, era posible cargarse la entropía del universo arrojando cosas a un agujero negro.

La paradoja de la información:

La conocida como «Guerra de los agujeros negros» comenzó cuando Hawking empezó a decir que lo que radiaban los agujeros negros era completamente aleatorio, dado que la ley de radiación era de naturaleza no determinista.

Y el lector familiarizado con la física cuántica podría pensar: «tiene sentido, en física cuántica se supone que todo es aleatorio». En principio, podría parecer que los únicos que no tendrían que estar contentos con la conclusión de Hawking serían los físicos que renegasen de las teorías cuánticas.

Sin embargo, había un punto flaco que ponía en jaque los propios conceptos cuánticos básicos: la interpretación de Hawking ni siquiera era respetuosa con el determinismo de la onda de probabilidad.

En mecánica cuántica podrás no saber exactamente las magnitudes de un sistema, pero si conoces su función de onda puedes calcular deterministamente la evolución de esta siguiendo la ecuación de Schrödinger o la que proceda para estimar cómo será dicha función un tiempo después. Es uno de los presupuestos básicos: la función de onda es determinista. Más aún, la función de onda propaga toda la información del sistema cuántico, por lo que no es concebible que sea destructible.

Hawking insistía en que la función de onda de una partícula se descomponía al atravesar el horizonte de sucesos y esta perdía su identidad, contribuyendo simplemente a la masa neta del agujero negro. Después el agujero negro radiaría cosas al azar, no dejando rastro de lo que había entrado en él.

Hay un ejemplo que ilustra bien el problema. Hasta la la llegada de Hawking se daba por hecho que un agujero negro era como una caja fuerte sin llave: había cosas guardadas en él pero no había forma de sacarlas fuera o saber cuáles eran. Con la llegada de Hawking la caja fuerte directamente desaparece. Cuando el agujero negro se evapora no quedaría ni rastro de todo lo que un día entró en él y la radiación liberada sería información nueva.

Una locura.

La paradoja mayor:

Pensando en estas cosas, al físico de cuerdas Leonard Susskind le dio por pensar en algún absurdo al que se llegase con todo este asunto donde cada cosa parecía tener menos sentido que la anterior.

En la teoría de Hawking, la radiación térmica solo era percibida por un observador externo al agujero negro debido al principio de equivalencia de la relatividad general: un observador en un espacio-tiempo curvado no puede percibirlo en su entorno. Dado que la radiación es un efecto asociado a la curvatura, un observador cayendo a un agujero negro no percibiría nunca dicho efecto. Lo que para él es vacío, para alguien viéndolo desde fuera es un mar de partículas calientes.

Y aquí había una cuestión muy importante que resolver: si se arroja un cuerpo a un agujero negro muy caliente (muy pequeño), ¿se incinera antes de llegar al horizonte o no le pasa nada? La incompatibilidad estaba ahí.

Reflexionando sobre esto, surgieron dos posibles soluciones: o el principio de equivalencia de Einstein era incorrecto, o los agujeros negros no tenían temperatura.

Cargarse el principio de equivalencia implicaría cargarse de base toda la relatividad general, dado que se basa en este de forma central. El concepto de curvatura es inseparable de que esta no sea percibida en la cercanía de quien la observa.

Por el otro lado, cargarse la temperatura de Hawking volvía a dejar sin resolver el problema de la entropía y los agujeros negros.

El principio holográfico:

Pese a que se hablaba largo y tendido sobre la temperatura de Hawking y sus consecuencias, no muchos se preocupaban de entender la entropía de Bekenstein asociada al agujero negro.

Cuando en mecánica estadística hablamos de la entropía de un sistema típicamente estamos contando la cantidad de información de la que no disponemos sobre dicho objeto. Así pues, ¿qué estamos contando cuando asignamos al agujero negro una entropía?

En 1994 Bekenstein escribió un artículo llamado «¿Entendemos la entropía de los agujeros negros?«, en el cual reflexionaba sobre su propia ecuación, planteando que era una entropía debida al entrelazamiento cuántico. Las partículas de fuera del agujero y las de dentro quedaban entrelazadas cuando un agujero negro se formaba y si el agujero negro tenía entropía podía ser debido fundamentalmente  a que desconocer los estados en su interior implicaba un cierto desconocimiento sobre los estados fuera. En particular, la entropía que nosotros asignamos a un agujero negro tendría que ser la misma que la que desde el interior de un agujero negro se asignaría al exterior.

El hecho de que la entropía fuese de entrelazamiento y tuviese estas propiedades iba de la mano, de forma obvia, con que dependía del área de contacto entre el agujero negro y el exterior y no del volumen de ninguno de ambos. Esta intepretación es 100% coherente con la fórmula de Bekenstein en unidades naturales, donde la entropía S del agujero es un cuarto de su área A:

Entropía BH

En paralelo con las reflexiones de Bekenstein, Leonard Susskind y Gerardus ‘t Hooft intentaban resolver las paradojas de los agujeros negros de una vez por todas, y se dieron cuenta de algo genial: de hecho, cuando uno dice que lo que observa alguien desde fuera de un agujero negro y lo que observa alguien desde dentro es incompatible está presuponiendo que en algún momento van a poder comparar sus medidas. Si dos observadores miden cosas incompatibles pero nunca van a poder quedar para comentarlas, ¿qué más da?

Cuentan que llegados a esta reflexión ‘t Hooft dijo: «¿Qué tenemos que cargarnos para que ambos observadores tengan razón?». Y ahí radicaba la clave de todo.

Del mismo modo que los principios fundamentales de la física cuántica dicen que solo podemos medir la posición o la velocidad de una partícula, y que si medimos una cosa implícitamente renunciamos a conocer la otra, en el problema del agujero negro si lo observamos desde fuera renunciamos a observarlo desde dentro. Son dos realidades diferentes desligadas.

Ahora bien, la coherencia sugiere que dado que el agujero negro se evapora no puede ser que lo que haya pasado dentro sea incompatible con lo que haya pasado fuera. Es decir, que de algún modo u otro lo que vemos incinerarse en el horizonte debe de haberse incinerado. ¿Y cuándo puede que un cuerpo que está dentro del agujero perciba su propia incineración? En la singularidad.

Surge así la siguiente propuesta: lo que vemos que sucede en el horizonte es una representación perfecta de lo que sucede en el interior del agujero negro, y una representación perfecta. De modo que de hecho siempre estaríamos viendo el interior del agujero sin necesidad de entrar en él.

Para que esto fuera posible era necesario imponerle a la naturaleza una restricción que a día de hoy aún no ha podido ser probada: un cierto volumen físico de nuestro universo no puede contener más información que la que se pueda codificar en su frontera. De lo contrario, si un agujero negro tuviese más información que la codificable en su horizonte, sería imposible concluir que una cosa y la otra son equivalentes.

¿Y cuál tendría que ser la unidad mínima de información? ¿El bit cósmico? Planck había dado la respuesta casi 100 años antes con su sistema de unidades. Si queremos escribir la ecuación de la entropía de Bekenstein con constantes, solo tenemos que dividir cada término por su asociado de Planck. Es decir, la entropía entre la entropía de Planck (la constante de Boltzmann) y el área entre el área de Planck (el área de Planck al cuadrado):

Imagen que contiene Texto

El contenido generado por IA puede ser incorrecto.

G es la constante de gravitación universal, h la constante cuántica de Planck y c la velocidad de la luz en el vacío.

Al hacer las operaciones indicadas, obtenemos la ecuación de Bekenstein en unidades de sistema internacional:

Entropía 2

Con este razonamiento, la propuesta fue que el horizonte del agujero negro contenía un bit de información por cada pequeño recinto de tamaño igual al área de Planck sobre su superficie. Un agujero negro que almacenase tres millones de bits de información cuántica tendría que tener un área de tres millones de áreas de Planck, que son diminutas.

Si nos vamos a un caso bien sencillo, como podría ser un agujero negro de un centímetro de radio (que es lo que mediría el de la Tierra si esta se comprimiese), la información que podría almacenar sería de:

Información tierra

Para calcular el área del agujero hemos usado la fórmula del área de una esfera.

Esto es una barbaridad. Un ordenador normal almacena no más de 10 elevado a 13 bits, una cantidad prácticamente nula en comparación con la que nos ha salido. La propia Tierra, en principio, requiere menos bits de información para ser descrita que esa cantidad.

Pongamos otro ejemplo planteado por el propio Susskind, rellenando todo el universo observable de libros. Si cada caracter en un libro lo consideramos con un bit, un libro posee aproximadamente 6000 bits por centímetro cúbico. El tamaño del universo observable, por otra parte, son 4 por 10 elevado a 80 metros cúbicos. Toda esa barbaridad de libros podrían ser acogidos como bits en la frontera de un agujero negro de apenas 7 kilómetros:

Diagrama

El contenido generado por IA puede ser incorrecto.

Consecuentemente, la información en el universo está muy poco concentrada en comparación con lo que podría estarlo.

La propuesta de ‘t Hooft y Susskind se conoce como principio holográfico porque trata el interior del agujero negro como si fuese un holograma codificado en su superficie, del mismo modo que en películas de ciencia ficción como Star Wars las imágenes tridimensionales que usan para comunicarse están codificadas en el plano que las genera.

Dentro de la propuesta, se incluye el axioma de que en el universo en un volumen delimitado por cierta área no puede haber mayor cantidad de información que la que tendría un agujero negro con dicha área y que, análogamente, dada una cierta cantidad de información no se puede comprimir más que lo que la comprimiría un agujero negro. De haber en el cosmos algo con mayor densidad de información que un agujero negro la propuesta tendría que ser revisada, como poco reduciendo el tamaño de los bits para que entren más en menos sitio.

Finalmente, gracias al principio holográfico, en el agujero negro en principio dejaron de haber paradojas. La información no se pierde porque queda registrada constantemente en la frontera del agujero negro y los dos observadores llegan a las mismas conclusiones.

Leonard Susskind se lanzó a la aventura explicando esta propuesta en su artículo «El universo como un holograma«.

Determinismo holográfico:

A partir de lo expuesto resulta obvio que la paradoja de la información desaparece. Las funciones de onda se propagan y evolucionan deterministamente codificadas en el horizonte del agujero negro para el observador externo, mientras que el observador interno verá que las cosas entran y más adelante salen despedidas en algún momento como radiación térmica, pero sin haber perdido su identidad.

Otras formas de verlo sugieren incluso que dado que ver algo atravesar el agujero negro lleva un tiempo infinito según la relatividad general, los bits de información en la frontera realmente son las propias partículas que todavía no han podido ser observadas entrando, y que sin embargo se ven saliendo como radiación antes incluso de atravesar el horizonte. De aquí surge toda la idea de que finalmente es posible que ni siquiera los agujeros negros existan con sus propiedades mágicas, aunque habrán servido para desarrollar una teoría muy completa necesaria para desmentirlos.

Superdeterminismo:

En la entrada anterior, explicamos que Bell demostró que la mecánica cuántica era incompatible con una teoría determinista de variables ocultas locales. Es decir, que no era posible que los efectos aleatorios de la mecánica cuántica fuese debida a falta de información interna sobre las partículas.

Sin embargo, quedaba la veda abierta para que la información necesaria a tener en cuenta estuviese en cualquier parte del universo. El principio holográfico, que es posible gracias al entrelazamiento cuántico (del que se deduce la fórmula de Bekenstein), da de nuevo así un empujón al determinismo.

Si, no importa lo grande que sea una región física del universo, toda la información que contiene debe estar codificada en la frontera que la envuelve, resulta evidente la comunicación a velocidades superiores a las de la luz (ya lo era desde Bell) y el hecho de que todo el universo esté entrelazado es más aceptable.

Y si todo el universo está entrelazado… obviamente nunca controlaremos todas las variables en un experimento cuántico porque el resultado puede depender de cosas que pasen en Alfa Centauri o más lejos. Quien defiende que el universo es determinista pero hace falta conocer toda su información sin excepciones para predecir resultados experimentales es considerado un superdeterminista, en alusión a que ha superado las críticas de Bell.

Conclusiones:

El principio holográfico, mucho más que una teoría científica, es una obra de arte. La cantidad de conocimiento acumulado durante siglos que hemos necesitado para llegar hasta él es impresionante, y en el fondo su enunciado es muy simple: solo hemos llegado a una conclusión sobre la mayor cantidad de información que puede haber en un volumen, ¡y ni siquiera buscando eso! Yo creo que nunca dejaré de estar fascinado con ello.

La teoría de cuerdas, por otra parte, es la única teoría de gravedad cuántica en la que el principio holográfico está incluido de base y parece que puede funcionar.

 

El Modelo Estándar de la Física de Partículas

https://www.i-cpan.es/es/content/el-modelo-est%C3%A1ndar-de-la-f%C3%ADsica-de-part%C3%ADculas

 


 

Partículas de la materia

Toda la materia que nos rodea, desde una pelota de fútbol hasta la gran estrella que ilumina nuestro cielo, el Sol, está formada por partículas fundamentales, también llamadas elementales, que son los componentes básicos de la materia. Estas partículas se clasifican en dos tipos o grupos: quarks y leptones. Cada grupo consta de seis partículas, que se relacionan por pares o "generaciones". Las partículas más ligeras y estables constituyen la primera generación, mientras que las más pesadas y menos estables pertenecen a la segunda y tercera. Toda la materia estable del universo está formada por partículas que pertenecen a la primera generación, ya que cualquier partícula más pesada decae rápidamente en otras más estables. Los seis quarks están emparejados en tres generaciones: el "quark up" (quark arriba) y el "quark down" (quark abajo) forman la primera generación, seguidos por el "quark charm" (quark encanto) y el "quark strange" (quark extraño), y luego el "quark top" (quark cima) y el "quark bottom" (quark fondo). Los seis leptones están dispuestos de forma similar en tres generaciones: el "electrón" y el "neutrino del electrón", el "muón" y el "neutrino del muón", y el "tau" y el "neutrino del tau". El electrón, el muón y el tau tienen una carga eléctrica y una masa considerable, mientras que los neutrinos son eléctricamente neutros y tienen muy poca masa.

Partículas portadoras de fuerzas

En el universo actúan cuatro fuerzas fundamentales: la fuerza fuerte, la fuerza débil, la fuerza electromagnética y la fuerza gravitatoria. Funcionan en distintos rangos y tienen distintas intensidades. La gravedad es la más débil, pero tiene un alcance infinito. La fuerza electromagnética también tiene un alcance infinito, pero es mucho más fuerte que la gravedad. Las fuerzas débil y fuerte solo son efectivas a distancias muy cortas, por lo que únicamente dominan en la escala de las partículas subatómicas. A pesar de su nombre, la fuerza débil es mucho más fuerte que la gravedad, pero es la más débil de las otras tres. La fuerza fuerte, como su nombre indica, es la más fuerte de las cuatro interacciones fundamentales.

Tres de las fuerzas fundamentales, la fuerza fuerte, la débil y la electromagnética, son el resultado del intercambio de partículas portadoras de fuerza, que pertenecen a un grupo más amplio llamado "bosones". Las partículas de la materia transfieren cantidades discretas de energía intercambiando bosones entre sí. Cada fuerza fundamental tiene su propio bosón correspondiente: la fuerza fuerte es transportada por el "gluón", la fuerza electromagnética por el "fotón" y los "bosones W y Z" son responsables de la fuerza débil. Aunque todavía no se ha encontrado, el "gravitón" debería ser la partícula portadora correspondiente a la fuerza de la gravedad.

El Modelo Estándar incluye las fuerzas electromagnética, fuerte y débil y todas sus partículas portadoras, y explica bien cómo estas fuerzas actúan sobre todas las partículas de materia. Sin embargo, la fuerza más conocida en nuestra vida cotidiana, la gravedad, no forma parte del Modelo Estándar, pues resulta muy difícil de describir con este modelo físico. La teoría cuántica, utilizada para describir el micromundo, y la teoría general de la relatividad, utilizada para describir el macromundo, son difíciles de encajar en un único marco teórico, todavía se está trabajando en ello. Nadie ha conseguido que ambas sean matemáticamente compatibles en el contexto del Modelo Estándar. Pero por suerte para la física de partículas, cuando se trata de la minúscula escala de las partículas, el efecto de la gravedad es tan débil que resulta insignificante. Solo cuando la materia está en grandes cantidades, por ejemplo, a la escala del cuerpo humano o de los planetas, el efecto de la gravedad domina. Por tanto, hasta el momento, la ciencia sigue aceptando el Modelo Estándar a pesar de su reticente exclusión de una de las fuerzas fundamentales.

Una de las piezas que faltaba: el bosón de Higgs

En la década de 1960, el físico británico Peter Ware Higgs predijo la existencia de una nueva partícula que parecía ser necesaría a la hora de comprender el Modelo Estándar en su conjunto y las interacciones entre las partículas que lo componen. El 4 de julio de 2012, los experimentos ATLAS y CMS en el Gran Colisionador de Hadrones (LHC) del CERN anunciaron la observación de una nueva partícula en la región de masa alrededor de 126 GeV, compatible con la características del bosón de Higgs predichas por Peter Higgs.

El bosón de Higgs es un tipo de partícula elemental con un papel fundamental en el mecanismo que origina la masa de las partículas elementales. Es la partícula asociada al llamado "campo de Higgs", una especie de continuo que se extiende por el espacio formado por incontables bosones de Higgs. La masa de las partículas estaría causada por una "fricción" con el campo de Higgs: las partículas con una mayor fricción con este campo tienen una masa mayor. El bosón de Higgs era la pieza que faltaba por descubrir en el Modelo Estándar, que hasta entonces no conseguía explicar el origen de la masa. Sin masa, el Universo sería un lugar muy diferente: si el electrón no tuviera masa no habría átomos, con lo cual no existiría la materia como la conocemos, no habría química, ni biología ni existiríamos nosotros mismos.

¿Se considera terminado el Modelo Estándar?

Lo cierto es que no. Aunque el Modelo Estándar es actualmente la mejor descripción que existe del mundo subatómico, no lo explica al completo. Como ya hemos contado, este modelo sólo incorpora tres de las cuatro fuerzas fundamentales, omitiendo la gravedad. También hay preguntas importantes a las que no da respuesta, como por ejemplo, ¿qué es la materia oscura?, ¿qué pasó con la antimateria después del big bang? o ¿por qué hay tres generaciones de quarks y leptones con una escala de masas tan diferente?

Por último, pero no por ello menos importante, todavía quedan por descifrar muchos de los misterios que rodean a la partícula llamada "bosón de Higgs", predicha por Peter Higgs en la década de los 60 y observada por primera vez en 2012 en las instalaciones del CERN.

Así pues, aunque el Modelo Estándar describe con precisión los fenómenos de su ámbito, sigue siendo incompleto. Tal vez sea solo una parte de un marco teórico mucho más amplio que incluye nueva física oculta en las profundidades del mundo subatómico o en los recovecos oscuros del universo. Futuros experimentos de física de partículas nos ayudarán a encontrar respuestas a las piezas que faltan.

 

Agujeros negros primordiales, MACHOs y WIMMP´s

Los agujeros negros primordiales podrían explicar la materia oscura, el crecimiento de las galaxias y mucho más

https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales

Un día, hace poco más de cinco años, Ely Kovetz almorzaba con sus colegas de la Universidad Johns Hopkins de Baltimore y discutía un rumor tentador. Al igual que muchos en la comunidad de físicos, Kovetz había escuchado el rumor sobre una posible señal de un observatorio de física estadounidense recientemente puesto en operación. El observatorio estaba diseñado para captar perturbaciones en el tejido del espacio-tiempo, ondulaciones creadas, entre otras cosas, por agujeros negros que chocan entre sí. Lo más intrigante es que la señal parecía haber sido creada por objetos masivos, mucho más pesados de lo que se esperaba. Eso apuntaba a algunas posibilidades sorprendentes.

“Lo primero que pensó todo el mundo fue ‘¿Qué? Esto no puede ser. Esto es imposible’”, recuerda Kovetz, físico de la Universidad Ben-Gurión de Israel y profesor visitante en Johns Hopkins. Pero entonces empezó a surgir una sospecha más emocionante. Tal vez, pensaron, esto podría ser una señal de agujeros negros primordiales.

¡Agujeros negros desde el inicio de los tiempos! Parece el título de una película de ciencia ficción de bajo presupuesto, pero fracciones de segundo después de que naciera nuestro universo, un enjambre de voraces agujeros negros podría haberse formado espontáneamente a partir de la ardiente energía que impregnaba el cosmos. Apoyados por las matemáticas y la teoría, pero nunca observados definitivamente, estos agujeros negros primordiales son una posibilidad que ha fascinado a los físicos durante casi medio siglo, ganando o perdiendo popularidad a medida que nuevas observaciones parecían apoyar o excluir su existencia.

Las desconcertantes señales de 2015 del Observatorio de Ondas Gravitatorias por Interferometría Láser estadounidense (LIGO, por sus siglas en inglés), y otras docenas de detecciones realizadas por el observatorio y su homólogo europeo, Virgo, han alimentado un renovado interés por la idea, con cientos de artículos publicados sobre ellos en tan solo los últimos cinco años.

Los agujeros negros primordiales, de existir, serían entidades masivas que no emiten luz, por lo que serían invisibles. Dado que estarían dispersos por todo el universo, podrían ayudar a dar sentido a una amplia variedad de observaciones extrañas que hasta ahora han desafiado la explicación. Una de las principales razones por las que los investigadores se sienten atraídos por estos extraños agujeros negros es que podrían resolver uno de los mayores y más enigmáticos misterios de la astrofísica: la identidad de la materia oscura.

Aunque no puedan detectarla, los físicos saben que la materia oscura existe porque sus efectos gravitatorios se ven por todo el cosmos. Pero nadie sabe de qué está hecha. Los agujeros negros masivos primordiales podrían ser la respuesta que se busca desde hace tiempo. Estos grandes y pesados objetos podrían haber servido también como anclas alrededor de las cuales se unieron las primeras galaxias, otro enigma que se ha resistido durante mucho tiempo a la explicación.

Aunque sigue habiendo escepticismo, los verdaderos creyentes esperan con impaciencia los nuevos proyectos de telescopios y estudios del cielo que podrían llevar finalmente a estas bestias cautivadoras de la esfera de la especulación al reino de la realidad.

Varias galaxias chocan entre sí en el famoso Cúmulo de la Bala, dejando cúmulos de gas caliente (mostrados en rosa) y una cantidad aún mayor de materia oscura (mostrada en azul). Algunos físicos creen que los agujeros negros primordiales podrían constituir una fracción significativa de la materia oscura del universo.

CRÉDITO: NASA HST / CXC / MAGELLAN

De MACHOs y WIMPs

Los agujeros negros ordinarios surgen de la muerte. Cuando una gran estrella llega al final de su vida, explota en una espectacular supernova. El pesado núcleo de la estrella, que puede pesar al menos varias veces la masa del Sol, se colapsa hasta formar un objeto compacto tan denso que ni siquiera la luz puede escapar a su atracción gravitatoria. Ha nacido un agujero negro.

En los años setenta, el brillante físico Stephen Hawking y su estudiante de doctorado Bernard Carr propusieron otra posible vía de creación para los agujeros negros. Se sabía que, poco después del big bang, el universo estaba lleno de una espesa sopa de radiación y partículas fundamentales como los quarks y los gluones, los componentes básicos de los protones y los neutrones. Las variaciones naturales de densidad en la sopa habrían dejado algunas regiones con más material y otras con menos. Las ecuaciones de Hawking y Carr demostraron que las zonas con suficiente radiación y partículas empaquetadas en ellas podrían haber colapsado sobre sí mismas y formado agujeros negros con una amplia gama de tamaños posibles.

Esta idea se archivó, pero se desempolvó en los años noventa, cuando el debate sobre lo que podría constituir la materia oscura empezó a calentarse. La enigmática sustancia se ha visto tirando gravitatoriamente de las estrellas y galaxias y haciéndolas girar mucho más rápido de lo esperado. Las observaciones sugieren que esta materia oscura invisible es tan omnipresente que supera en más de cinco a uno a la materia que podemos ver en el cosmos.

Un bando se inclinó por la explicación de que la materia oscura estaba formada por objetos compactos, incluidos los agujeros negros —con una gran cantidad de agujeros negros primordiales desde el principio de los tiempos para ayudar a explicar la extensa cantidad de materia oscura— a los que se les dio el acrónimo de Objetos Compactos de Halo Astrofísico Masivo (MACHO, por sus siglas en inglés). Los científicos rivales preferían la perspectiva conocida como Partículas Masivas Débilmente Interactivas (WIMP, por sus siglas en inglés), partículas subatómicas hasta ahora no detectadas que podrían ejercer una atracción gravitatoria permaneciendo invisibles.

La gravedad de una galaxia roja masiva amplía y distorsiona la luz de una galaxia lejana y antigua situada detrás de ella, formando un objeto azul en forma de anillo conocido como la Herradura Cósmica. Estas alineaciones fortuitas crean un efecto de lente que podría permitir a los astrónomos detectar pruebas de agujeros negros primordiales a la deriva en el espacio.

CRÉDITO: ESA / HUBBLE Y NASA

Según las leyes de la física, los MACHOs deformarían el espacio-tiempo a su alrededor, formando regiones parecidas a lentes que crearían distorsiones observables. Cuando la luz de las estrellas lejanas atraviesa estos lentes, los telescopios terrestres deberían ver cómo las estrellas se iluminan brevemente. Sin embargo, cuando los astrónomos buscaron esos destellos, encontraron pocos casos que pudieran atribuirse a los MACHOs, lo que llevó a la mayoría de los físicos a centrarse en la idea de que la materia oscura está formada por las WIMPs.

Pero algunos investigadores nunca perdieron del todo la esperanza de que los agujeros negros tuvieran algún papel en la materia oscura. Entre ellos se encuentra Carr, ahora en la Universidad Queen Mary de Londres, en el Reino Unido, coautor de un reciente artículo sobre los agujeros negros primordiales en la revista Annual Review of Nuclear and Particle Science. “Los agujeros negros primordiales son los candidatos ideales”, afirma. “Sí sabemos que los agujeros negros existen. No estamos invocando alguna partícula de la que actualmente no tenemos pruebas”. 

Ruidos misteriosos en la noche

Durante las décadas transcurridas, la búsqueda de las WIMPs hasta ahora no ha dado resultados, aunque no por falta de intentos. Enormes detectores dedicados a descubrir su existencia no han visto nada. Y el potente acelerador de partículas Gran Colisionador de Hadrones, cerca de Ginebra, no ha encontrado ningún indicio de nuevas entidades subatómicas inesperadas. En consecuencia, algunos investigadores ya se habían alejado de la idea de las WIMPs cuando se detectaron las nuevas señales de LIGO, lo que desató los rumores y volvió a centrar la atención en los agujeros negros MACHOs.

Se confirmó que las señales detectadas por LIGO en 2015 eran chirridos procedentes de una enorme colisión entre dos agujeros negros, cada uno de los cuales pesaba unas 30 masas solares. Los objetos eran extrañamente voluminosos —tan grandes que si se hubieran creado por el colapso de estrellas, estas habrían tenido masas de hasta 100 veces la de nuestro Sol—. Estas bestias deberían ser bastante raras en el universo, dice Kovetz,  por lo que, o bien LIGO tuvo suerte con su primera detección y detectó un evento muy inusual, o bien hay más agujeros negros gigantes de los que los físicos esperarían si el colapso de estrellas fuera su único origen. Tras el anuncio del hallazgo al año siguiente, tres equipos diferentes propusieron que estos objetos no habían nacido de las estrellas, sino en los albores del tiempo, antes de que estas existieran.

“Cuando escribí este artículo... esperaba que alguien diera alguna razón por la que definitivamente no podía ser cierto”, dice Simeon Bird, cosmólogo de la Universidad de California en Riverside, cuyo artículo, escrito en coautoría con Kovetz y otros, fue el primero en salir a la luz. En cambio, LIGO siguió captando señales adicionales de otros agujeros negros en este rango de masas inmensas, lo que desencadenó una excitante actividad entre los físicos teóricos que aún no ha disminuido.

Si los agujeros negros primordiales existen, algunos investigadores piensan que podrían agruparse en conjuntos con unas pocas entidades pesadas rodeadas de muchas más ligeras, como se ilustra aquí. Los nuevos telescopios están a la caza de las señales de tales conjuntos de agujeros negros putativos.

CRÉDITO: INGRID BOURGAULT / WIKIMEDIA COMMONS

Las nuevas señales llegan en un momento en el que nuestra comprensión de las condiciones abrasadoras inmediatamente después del big bang —cuando se habrían formado los agujeros negros primordiales— ha mejorado enormemente gracias a los nuevos modelos teóricos. Un estudio reciente de Carr y otros sugiere que, aproximadamente una millonésima de segundo después del big bang, la expansión del espacio-tiempo habría provocado un descenso de la temperatura y la presión que podría haberse alineado de forma adecuada para producir agujeros negros relativamente pequeños con masas similares a la del Sol. Poco después, las condiciones cambiaron para favorecer la aparición de agujeros negros de gran tamaño, con unas 30 masas solares. 

Los modelos también sugieren que, a lo largo de la historia cósmica, estos diversos agujeros negros primordiales podrían haberse encontrado entre sí. Atraídos por la gravedad, los agujeros negros podrían haber formado cúmulos, con múltiples objetos más pequeños girando alrededor de un agujero negro gigante central, de forma parecida a como los electrones suelen orbitar alrededor de un núcleo atómico. 

Esto podría explicar por qué los cazadores de MACHOs de los años noventa nunca vieron suficientes objetos para dar cuenta de la materia oscura: solo buscaban lentes gravitacionales creados por los tipos de agujeros negros más pequeños. Los lentes de los objetos más pequeños serían más compactos y, al flotar por la galaxia, tardarían menos de un año en pasar por delante de las estrellas, lo que haría que su luz se iluminara y luego se atenuara con relativa rapidez. Si los agujeros negros se encontraran en cúmulos, la deformación gravitatoria del espacio-tiempo, mucho mayor, tardaría más tiempo en pasar por delante de una estrella lejana —varios años o incluso décadas —.

Búsqueda de galaxias

Alrededor de 15 segundos después del big bang, podría haber surgido otro tipo de agujero negro. Según los cálculos actuales, estos agujeros negros pesarían un millón de veces la masa del Sol, lo suficientemente grandes como para explicar potencialmente el origen de las galaxias.

Los telescopios han detectado galaxias bastante desarrolladas a grandes distancias, lo que significa que se formaron bastante pronto en la historia cósmica. Resulta desconcertante, ya que las galaxias son estructuras enormes y, al menos en las simulaciones computacionales, tardan mucho tiempo en formarse a partir de los lentos y pesados remolinos de gas y polvo que se encuentran en todo el cosmos. Pero esta es la mejor explicación de su formación que los astrónomos han encontrado hasta ahora.

Los agujeros negros primordiales pueden proporcionar una ruta más fácil. Dado que casi todas las galaxias contienen un enorme agujero negro en el centro, parece posible que estos goliats gravitacionales actuaran como puntos de partida, ayudando a atraer material hacia las primeras protogalaxias en una etapa bastante temprana de la historia cósmica. A medida que el universo avanzaba, estas pequeñas galaxias se habrían atraído gravitatoriamente unas a otras, para luego chocar y fusionarse en las galaxias mucho más grandes que se ven hoy en día.

Carr y sus colegas han empezado a considerar la posibilidad de que los agujeros negros primordiales estén mucho más extendidos de lo que se sospecha. En teoría, las condiciones que se dieron poco después del big bang podrían haber producido agujeros negros aún más pequeños, a escala planetaria, con masas aproximadamente 10 veces superiores a la de la Tierra. De hecho, los estudios han detectado diminutos lentes gravitacionales flotando por toda la galaxia, que pasan por delante de las estrellas y hacen que su luz parpadee rápidamente. La mayoría de los astrofísicos han atribuido estos lentes a grandes planetas errantes que fueron expulsados de sus sistemas estelares. Pero no todos están de acuerdo.

Entre ellos se encuentra el físico teórico Juan García-Bellido, de la Universidad Autónoma de Madrid, que afirma que los lentes están causados por agujeros negros primordiales. García-Bellido, coautor del reciente artículo de Carr, sigue entusiasmado con la idea de los agujeros negros primordiales.

El nuevo observatorio Vera C. Rubin, que se ve en construcción en Chile y que comenzará a funcionar a finales de 2023, se utilizará para escanear el cielo nocturno en busca de pruebas de agujeros negros primordiales.

CRÉDITO: RUBIN OBS / NSF /AURA

Pero otros no están seguros de que los agujeros negros sean tan frecuentes como deberían serlo para explicar la materia oscura. “Creo que es poco probable”, afirma la cosmóloga Anne Green, de la Universidad de Nottingham, en el Reino Unido. Uno de los problemas de la teoría es que la existencia de un gran número de agujeros negros de masa multisolar en todo el cosmos tendría todo tipo de efectos visibles que nunca se han visto. Como estos objetos consumen gas y polvo, deberían emitir grandes cantidades de ondas de radio y rayos X que podrían delatar su presencia, añade.

En cuanto a la materia oscura, los modelos teóricos del universo primitivo también requieren muchos ajustes para que arrojen el número correcto de agujeros negros que coincidan con la cantidad de materia oscura que sabemos que existe. “Resulta bastante difícil elaborar modelos que produzcan la cantidad correcta de agujeros negros”, afirma Green.

Incluso algunos de los mayores fanáticos de los agujeros negros primordiales ya no son tan optimistas sobre la posibilidad de que los tipos de agujeros negros detectados por LIGO puedan dar cuenta de toda la materia oscura del universo. Si muchos de esos agujeros negros estuvieran al acecho en el espacio, los astrónomos ya habrían visto más de sus efectos, dice Kovetz. Él sigue pensando que pueden contribuir algo y, en general, que incluir más tamaños de agujeros negros primordiales más allá de lo que LIGO ha detectado podría sumar lo suficiente para explicar la materia oscura. Y, sin embargo, “personalmente, he perdido parte de mi motivación”.

La buena noticia es que los nuevos instrumentos podrían ayudar a los físicos a llegar al fondo de la cuestión muy pronto. LIGO y Virgo están siendo actualizados y ahora se les ha unido un detector de ondas gravitacionales japonés llamado KAGRA. En los próximos años también se pondrá en marcha un instrumento indio.

Las observaciones de estas instalaciones podrían finalmente inclinar la balanza hacia un lado u otro. Si los observatorios detectan un pequeño agujero negro de una masa solar o menos —algo imposible de crear a partir de la evolución estelar—, proporcionaría una prueba emocionante y definitiva de al menos un tipo de agujero negro primordial, lo que los convertiría en una explicación mucho más atractiva para la materia oscura y la formación de galaxias.

Además de buscar agujeros negros muy pequeños, los científicos también podrían sellar el acuerdo encontrando agujeros negros que se formaron incluso antes de que existieran las estrellas. Esto puede estar más allá de la capacidad de los observatorios existentes, pero la Agencia Espacial Europea está planeando lanzar en la próxima década una nueva sonda espacial altamente sensible llamada Antena Espacial de Interferometría Láser (LISA, por sus siglas en inglés), que podría estar a la altura.

García-Bellido y otros están planeando utilizar otro nuevo instrumento que está previsto que comience a funcionar en 2023, el Observatorio Vera C. Rubin de Chile, para buscar estrellas que brillen en escalas de tiempo de varios años, lo que podría ser una prueba de la existencia de cúmulos de agujeros negros a la deriva en los cielos. Al menos unos pocos investigadores esperan que, dentro de tres o cuatro años, puedan tener por fin una respuesta real y definitiva sobre si los agujeros negros primordiales existen o no.

Hasta entonces, los científicos estarán al borde de sus asientos, tratando de mantener la mente abierta sobre la materia oscura. Quizás la misteriosa sustancia resulte estar hecha de muchas cosas, incluyendo tanto partículas exóticas como agujeros negros. “El universo es desordenado y tiene un montón de cosas”, dice Bird. “Creo que al universo le gusta ponerle las cosas difíciles a los físicos”.

 

El tiempo corre en dos sentidos, según Julian Barbour

https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/

Desde que la física cuántica hizo su aparición no ha dejado de sorprendernos. Julian Barbour es un digno representante de este enfoque y desde hace varias décadas estudia uno de los conceptos más enigmáticos del universo: el tiempo. Su teoría es fascinante.

Según Julian Barbour, el tiempo corre en dos sentidos a la vez. Imaginemos que cada sentido es una flecha cuyo origen es el cero. Mientras la flecha de la derecha aumenta paulatinamente hasta el infinito, la de la izquierda apuntaría hacia un infinito negativo.

Dicho de una forma más simple, lo que Julian Barbour propone es que hay un universo en el que el tiempo corre desde lo que llamamos el pasado hacia lo que llamamos el futuro. Mientras tanto, en otro universo ocurre lo contrario: el tiempo avanza desde el futuro hacia el pasado. ¿Ciencia ficción? No, es una teoría científica seria.

El universo y la gran explosión

La teoría más aceptada sobre el comienzo del universo postula que se originó hace poco menos de 14 mil millones de años a partir de un elemento más minúsculo que un átomo. Así se formaría toda la materia que compone el universo.

Esa materia comenzó a expandirse, una tendencia que hoy se mantiene. La explosión también habría dado origen al tiempo, que desde entonces habría comenzado a contar. Las partículas de materia, disparadas en múltiples direcciones, fueron agrupándose y formaron las estrellas, los planetas y las galaxias.

Según esta teoría, el tiempo se mueve en una sola dirección: hacia adelante. Al respecto, Julian Barbour y otros físicos se han preguntado: ¿por qué si el universo se expande hacia todas partes, el tiempo solo avanza en una dirección? Las posibles respuestas a esta pregunta dieron origen a la tesis de que el tiempo corre en dos sentidos.

Julian Barbour y el tiempo

Julian Barbour es un físico veterano, profesor de la Universidad de Oxford y autor de varios libros de divulgación. Su prestigio es incuestionable. Ha estudiado a fondo el tema del tiempo y a partir de esto ha planteado su interesante teoría. El postulado básico que propone dice que el tiempo corre en dos direcciones a la vez.

Barbour dice que la gran explosión original hizo que comenzara a avanzar en sentidos opuestos, ya que eso es lo propio de una explosión semejante. Su idea se basa en dos principios de la física: la entropía y la segunda ley de la termodinámica.

La entropía es un concepto equivalente al caos. La física señala que la realidad, o más bien los sistemas que la componen, avanzan hacia el caos. A su vez, el caos es irreversible. Un ejemplo de esto sería una casa que es abandonada y se cae. El proceso va hasta que se derrumba y es imposible volver atrás. El derrumbe es el estado más caótico posible.

Ahora bien, la segunda ley de la termodinámica dice que la entropía solo puede aumentar, pero nunca disminuir. A su vez, el tiempo avanza en el mismo sentido en el que aumenta la entropía. Así, en el ejemplo anterior, una vez la casa es abandonada y comienza a deteriorarse, cada vez es más probable que se derrumbe.

El incremento de la complejidad

Julian Barbour dice que todo lo anterior se ha establecido así porque se ha observado en un contexto, podríamos decir, “normal”. El de nuestro planeta, nuestra materia, nuestras dimensiones, etc. Si se mira en términos del universo como un todo, aparece un nuevo enfoque.

Supongamos que la casa derruida de la que hablamos está en el marco de un espacio infinito. Al derrumbarse, las partículas que la componen viajarían en diferentes direcciones, se juntarían con otras partículas y formarían nuevas estructuras. Estas serían más complejas.

Barbour trabaja con dos ideas básicas. El Big-Bang produjo que la materia y el tiempo se desplazaran en dos direcciones opuestas. Por lo tanto, existiría una especie de “universo espejo”. Lo que se espera en ese universo es el pasado, porque todo ocurre al revés de nuestro universo. De una forma simple, lo que hay en ese horizonte es un avance hacia el año cero.

 

La Integral de caminos de Feynman

https://culturacientifica.com/2023/04/04/integral-de-caminos/

 

 

 

Cómo nuestra realidad puede ser la suma de todas las realidades posibles:

La ecuación, aunque adorna las páginas de miles de publicaciones de física, es más una filosofía que una receta rigurosa. Sugiere que nuestra realidad es una especie de mezcla, una suma, de todas las posibilidades imaginables. Pero no les dice a los investigadores exactamente cómo llevar a cabo la suma. Así que la comunidad científica ha pasado décadas desarrollando un arsenal de estrategias de aproximación para construir y calcular la integral para diferentes sistemas cuánticos.

Las aproximaciones funcionan lo suficientemente bien como para que físicas intrépidas como Loll busquen ahora la integral de caminos definitiva: una que combina todas las formas concebibles de espacio y tiempo y produce un universo con la forma del nuestro como resultado neto. Pero en esta búsqueda por demostrar que la realidad es de hecho la suma de todas las realidades posibles, se enfrentan a una profunda confusión sobre qué posibilidades deberían entrar en la suma.

 

La Gravedad cuántica de bucles

https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles

Para la Teoría Cuántica de bucles, formulada por científicos como John Baez, Carlo Rovelli y Lee Smolin, el espacio no es continuo, es decir, no se puede dividir infinitamente: hay una unidad mínima de distancia. El espacio-tiempo está “granulado”. Piensa en la pantalla de tu televisión o tu teléfono móvil. Puedes ver cómo un punto de luz se mueve de un lado a otro de manera aparentemente continua. Si te acercas lo suficiente puedes notar que la pantalla está dividida en decenas de miles de cuadritos que forman la imagen. Estos cuadritos se llaman “pixeles”: son la unidad mínima de la imagen: no se pueden subdividir más. Y un punto de luz que se mueve puede estar en este pixel, o en el pixel contiguo, pero no se puede mover “medio pixel”.

La propuesta de la Gravedad Cuántica de bucles es que el espacio también está así: pixelizado. O más propiamente “cuantizado”, de la misma manera que la energía sólo se puede transferir en paquetes llamados “cuantos”. No sólo la materia y la energía, sino el espacio mismo tiene una estructura atómica. La distancia mínima se llama “distancia de plank”, es millones de veces más pequeña que un electrón, y nada se puede mover en distancias menores.

¿Cómo se estructura?

La idea es que el espacio-tiempo está estructurado en redes de pequeñísimos rizos o bucles conectados entre sí. Estas redes se llaman “redes de spin”, y son estudiadas mediante una rama de las matemáticas llamada “teoría de grafos”, que se ocupa de calcular los modos posibles en los que se relacionan los vértices y las aristas de la red. Una red de spin representa el estado cuántico de un campo gravitacional. Y no es fijo: está en constante flujo. 

Una hipótesis meramente especulativa dice que las partículas subatómicas podrían ser “nudos” o “trenzas” dentro de la red de spin. Esta por ejemplo podría ser un electrón, mientras que ésta podría ser un positrón. Acá tenemos un electrón neutrino y éste, un anti-neutrino. Y la deformación del espacio-tiempo que se manifiesta como gravedad a escalas planetarias o galácticas, empieza aquí, en la escala más pequeña posible. El universo sería una impresionantemente complicada red de spin. 

La antigua idea del espacio y el tiempo como un escenario donde ocurren las cosas ya no aplica. Una red de spin no está en el tiempo y el espacio: sino que es el espacio-tiempo mismo.

 

Energía del vacío. La mayor discordancia de la historia de la ciencia

http://www.javierdelucas.es/vaciomedir.htm

Las medidas astronómicas basadas en el movimiento del sistema solar y sobre todo de galaxias lejanas se han traducido en un valor máximo para la constante cosmológica:

 |V|<10-56 cm-2

 Este valor máximo implica que la densidad de energía del vacío tiene que ser menor que       10-9 erg/cm3. A continuación veamos qué nos dicen las estimaciones teóricas. Si intentamos expresar la energía del vacío en unidades de Planck que constituyen el sistema de unidades fundamental en mecánica cuántica obtenemos:

 Eplanck=(hc5/G)1/2=1019 GeV

 Entonces tenemos que la densidad de energía del vacío sería:

 Pvac=(1019GeV)4=1076 GeV=10114 erg/cm3 

 ¡Esto es una cantidad inmensa de energía! La discrepancia es por tanto de 123 órdenes de magnitud. Este valor es de una magnitud inconcebible para el cerebro humano. Por eso se dice que esta estimación teórica constituye la discordancia entre teoría y experimento más grande de la historia de la ciencia. 

El cálculo de la energía del vacío de la QED

 La QED (Quantum Electrodinamics) constituye la más simple pero a la vez más exitosa teoría que nos permite aplicar los principios de la mecánica cuántica y la relatividad especial al electromagnetismo. Para calcular la energía del vacío en QED debemos cuantizar el campo electromagnético. Al cuantizar obtenemos la expresión: 

Pvac=E/V=1/VSum(1/2hWk)=h/(2pi2c3)§0Wmax(w3) dW=h/(8pi2c3)w4max 

Esta expresión nos conduce a la famosa analogía entre el campo electromagnético y un oscilador armónico cuántico. De esta forma la energía del punto cero será la suma de la energía del punto cero de cada oscilador armónico.

Wmax es un parámetro denominado frecuencia de corte que hablando “a grosso modo” es el valor a partir del cual la contribución de los armónicos de alta frecuencia se considera despreciable. El valor a introducir en Wmax es objeto de discusión y la estimación de Pvac depende del valor elegido. Un valor razonable para Wmax sería aquel en el que el electromagnetismo deja de existir como tal y se unifica con la fuerza débil, es decir, la energía a la que se restablece la simetría electrodébil que es del orden de 100GeV. Con este valor obtenemos: 

Pvac=(100GeV)4=1046 erg/cm3 (55 órdenes mayor que el valor experimental).

 El cálculo de la energía del vacío electrodébil

 En la teoría electrodébil, la energía que adquieren las partículas y los campos cuánticos al romperse la simetría es proporcional al vacío del campo de Higgs. El potencial del Higgs es:

 V(Ø)=Vo-µ2Ø2+gØ4.

 Donde g es la constante de autoacoplamiento del Higgs. Este potencial es mínimo para

 Ø2= µ2/2g por tanto V(Ø)=Vo-µ4/4g

 Considerando que V(Ø) se anula para Ø=0 tenemos:

 Pvac=-µ4/4g=-gv4=-(105GeV)4= -1043 erg/cm3 (52 órdenes de mayor que el valor experimental)

 El cálculo de la energía del vacío de la QCD

 La QCD (Quantum Chromodynamics) es la teoría cuántica que se utiliza cuando tenemos en cuenta la fuerza nuclear fuerte, es decir, cuando estudiamos el interior del núcleo atómico. En QCD existe una escala de energía característica denominada Lqcd que es la escala a la cual se restablece la simetría quiral y desaparece el condensado quark-gluon del vacío cuántico; por esto la energía del vacío en QCD se suele considerar un prefactor de Lqcd. El cálculo estimativo nos dice entonces que

 Pvac=(10-3 o 10-2)4= 1035 o 1036 erg/cm3 (44 o 45 órdenes mayor que el valor experimental)

 El cálculo de la constante cosmológica según la Relatividad General

 Si consideramos la gravedad el problema se vuelve aún más difícil, algunos dirían que casi imposible de resolver. El campo gravitatorio "crea" partículas de forma equivalente a un marco de referencia acelerado. El efecto Unruh se basa en este fenómeno, de forma que un detector acelerando en un espacio vacío detectará partículas continuamente. Sin embargo, existe una buena noticia: los experimentos nos indican que cuando la gravedad es débil, por ejemplo en la Tierra, los cálculos de nuestras teorías cuánticas son correctos y por lo tanto podemos despreciar las contribuciones de la gravedad a la energía del vacío. 

Posibles soluciones al problema

 Como hemos visto, las contribuciones de los campos conocidos a la energía del vacío son enormes, muchos órdenes de magnitud por encima del valor observado experimentalmente. A continuación se enumeran 4 posibles soluciones al que es considerado por muchos como el mayor problema de la Física:

 1º) La existencia de nuevos campos y partículas que cancelen el enorme exceso de energía estimado

 Muchos físicos piensan que tienen que existir nuevas partículas y nuevos campos cuánticos por encima del rango de energías explorado que contribuirían a la energía del vacío con signo contrario y que podrían cancelar la inmensa densidad de energía que predicen nuestras teorías. La supersimetría es uno de los candidatos favoritos, sin embargo, debido a que la supersimetría está rota a bajas energías esta cancelación no sería ni mucho menos exacta, por lo que el problema persiste. El problema es que es muy difícil que un modelo teórico pueda producir un ajuste tan inmensamente preciso como el requerido. ¡El ajuste tendría que cancelar el exceso con una exactitud de al menos 56 cifras decimales!

 2º) Realizar una modificación de nuestras teorías cuánticas

 Nadie sabe cómo realizar esto, además éstas han tenido un éxito experimental sin precedentes.

3º) Realizar una modificación de la relatividad general

Esto tiene el mismo inconveniente que la anterior.

4º) Considerar que el vacío no posee ninguna densidad de energía

Esta solución parece imposible, sin embargo, merece tenerse en consideración: no existe ningún experimento cuántico que pueda medir esta energía puesto que siempre medimos diferencias de energía. Además todos los experimentos considerados como debidos a la energía del vacío (efecto Cassimir, desplazamiento Lamb del átomo de hidrógeno, etc) pueden explicarse como fluctuaciones de los objetos materiales del experimento (ver por ejemplo Schwinger Source Theory). Considerar que el vacío es el estado con 0 energía y 0 momento resolvería de un plumazo el problema de la constante cosmológica cuyo valor es casi nulo. Por supuesto habría que estudiar las posibles implicaciones de imponer tal condición en las teorías actuales.

 Si esto resultara correcto el vacío sería la primera entidad física conocida que no posee energía ni momento y por tanto se podría "crear" en infinita cantidad sin un aporte neto de energía ¿Como sucedió en la inflación cósmica?

 

La Ecuación de la Relatividad General de Einstein y la energía oscura

En términos técnicos, las ecuaciones de campo de Einstein son un conjunto de ecuaciones (concretamente, ecuaciones diferenciales parciales no lineales) que pueden expresarse de forma sintetizada como una única ecuación:

 

Texto

El contenido generado por IA puede ser incorrecto.


donde el primer subíndice μ (mu en griego) representa las coordenadas del espaciotiempo y el segundo subíndice ν (nu en griego) representa las coordenadas del momento (es decir, el cambio de las coordenadas del espacio-tiempo -en términos simples, la posición- con respecto al tiempo). G es la constante gravitacional, c es la velocidad de la luz, Rμν se llama tensor de curvatura de Ricci, gμν se llama tensor métrico, es la curvatura escalar y Tμν se llama tensor de tensión-energía. Esta ecuación incluye la constante Λ, conocida como la constante cosmológica, para dar cuenta de una fuente adicional de energía. Λ representa una fuerza adicional de expansión (energía oscura). La figura un poco más abajo muestra los términos de la ecuación anterior y su significado.

La existencia de la energía y la materia oscuras se dedujeron para que las ecuaciones de campo de Einstein pudieran predecir correctamente la expansión del universo y la velocidad de rotación de las galaxias. Según este punto de vista, la energía oscura es la fuente de una fuerza de expansión en el universo (es lo que explica la constante de Hubble en las principales teorías), mientras que la materia oscura proporciona una fuente de gravedad adicional necesaria para estabilizar las galaxias y los cúmulos de galaxias, ya que no hay suficiente masa ordinaria para mantenerlos unidos dada la expansión acelerada del Universo. Esta gravedad adicional también explicaría la velocidad rotacional de las galaxias

 

Diagrama

El contenido generado por IA puede ser incorrecto.


A grandes rasgos, el lado izquierdo de la ecuación de la figura anterior expresa la deformación geométrica del espacio-tiempo producida por la contribución de energía-masa en el lado derecho de la misma ecuación. Esta deformación del espacio también explica las ondas gravitacionales detectadas recientemente por LIGO en 2015 y que emanan de la fusión de dos agujeros negros.

Como afirma el físico John Wheeler, "el espacio-tiempo le dice a la materia cómo moverse; la materia le dice al espacio-tiempo cómo curvarse".

 

La Ecuación de Dirac y la antimateria

https://significado.com/ecuacion-de-dirac/

Aplicar reglas de cuantización sobre una función vectorial de cuatro dimensiones

Las reglas de cuantización conducen a operaciones con derivadas que normalmente actúan sobre una función de onda escalar, pero como las constantes α y β son matrices de 4X4, los operadores diferenciales actuarán sobre un vector de cuatro dimensiones Ψ, al que luego se le llamó el espinor.

Si se elige un sistema de medida en el que la velocidad de la luz sea 1, la ecuación de Dirac se escribe así:

Imagen que contiene Diagrama

El contenido generado por IA puede ser incorrecto.


En la ecuación anterior se expresa una sumatoria sobre los índices μ, comenzando desde 0 hasta 3, y por supuesto, “i” es la unidad imaginaria, ya que se trata de una ecuación en variable compleja.

Esta ecuación se suele compactar más mediante el uso del símbolo ∂ atravesado por una barra inclinada / para simbolizar la sumatoria de derivadas, así queda:

 


Esa expresión es la que ha quedado como “ecuación del amor”.

Las soluciones de la ecuación de Dirac y el espín del electrón

La ecuación de Dirac es una ecuación de autovalores que corresponden a las energías posibles. Hay dos soluciones con energía positiva, una para cada estado de espín, y dos soluciones con energía negativa, también para cada uno de los dos estados posibles de espín.

Es de resaltar que el espín, en la ecuación de Dirac, aparece naturalmente, como un resultado de sus posibles soluciones y a consecuencia directa de tomar en cuenta la energía relativista.

Es así que, por primera vez en la Física, se cae en cuenta que el espín, una propiedad intrínseca del electrón y de otras partículas elementales, es una consecuencia de la relatividad. Por cierto, esta propiedad del electrón había sido comprobada antes que Dirac formulara su ecuación, gracias al famoso experimento de Stern y Gerlach en 1922.

La ecuación de Dirac predice la existencia de la antimateria

Dirac fue increíblemente brillante al haber obtenido su ecuación, aplicando ingeniosamente las matemáticas, y también es notable la forma en que interpretó sus soluciones.

Al principio, a Dirac no le quedaba claro si había electrones con energía cinética negativa. Entonces teorizó lo siguiente:

El vacío (la ausencia de electrones) no es tal, sino que está lleno de electrones con energía negativa en sus dos estados de espín.

Lo que sucede es que los científicos no tienen la posibilidad de ver esos electrones, de la misma forma que normalmente no se ven los peces del mar, de allí sale la denominación mar de Dirac.

Ahora bien, si un fotón es capaz de entregar energía suficiente a uno de los electrones de ese mar, entonces sí será visible, apareciendo de la nada.

Pero el espacio vacante en el mar de Dirac es un hueco de carga positiva, es decir una partícula de la misma masa y carga que el electrón, pero positiva, llamada positrón.

Poco tiempo después de la interpretación de Dirac, en 1932, Carl D. Anderson detectó experimentalmente el positrón.

 

La Métrica de Alcubierre y la densidad de energía negativa para los viajes superlumínicos

https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre

 

Imagen que contiene Gráfico

El contenido generado por IA puede ser incorrecto.


Gráfico de la impulsión de Alcubierre, mostrando las regiones opuestas, contraída y extendida, del espacio-tiempo respecto al sector central en el cual se ubica la burbuja plana de deformación.

La Métrica de Alcubierre es una idea especulativa basada en un modelo matemático que supondría posibles los viajes a velocidades mayores que c (velocidad de la luz), es decir, superlumínicos. Con base en algunas de las instancias teóricas pero probables estudiadas del espacio-tiempo, Alcubierre plantea la métrica que lleva su nombre como una solución a las ecuaciones de Einstein en el marco de la Teoría General de la Relatividad.

Fue publicada en la revista científica Classical and Quantum Gravity1en 1994 por el físico mexicano Miguel Alcubierre.

Idea general (el Impulso por deformación)

La métrica de Alcubierre tiene, como una de sus conclusiones más llamativas, la posibilidad de un viaje a mayor velocidad que la luz al crearse una burbuja de deformación plana dentro de la cual se situaría estacionariamente la cosmonave; detrás de la cosmonave el espacio-tiempo sería deformado extendiéndolo mientras que por contraparte delante de la cosmonave el espacio-tiempo sería contraído o contractado poniendo así el punto de destino mucho más cerca, mientras que "detrás" de la nave el espacio-tiempo quedaría expandido "empujado" hacia atrás gran cantidad de años luz, todo esto sin que el espacio y el tiempo dentro de la burbuja de deformación plana en que se hallaría la cosmonave se modificara notoriamente.

En tal caso la nave (para hacer una analogía) "surfearía" sobre una especie de ola espaciotemporal dentro de la "burbuja de deformación plana" que es plana por permanecer estable entre las dos distorsiones (la anterior y la posterior) provocadas en el espacio-tiempo (se crearía una distorsión local del espacio-tiempo).

Existirían enormes fuerzas de marea en la región periférica de la supuesta burbuja debidas a las curvaturas provocadas en el espacio-tiempo; sin embargo, tales fuerzas serían despreciables en el interior de la burbuja dado el carácter plano que allí tendría el espacio-tiempo (véase gráfico).

No se violaría ninguna ley física de las previstas por la teoría de la relatividad ya que dentro de la "burbuja de deformación" nada superaría la velocidad de la luz; la nave no se desplazaría dentro de tal burbuja sino que sería llevada por la misma, la nave dentro de la burbuja nunca viajaría más rápido que un haz de luz.

La nave y sus presuntos tripulantes estarían exentos de sufrir los efectos devastadores provocados por las aceleraciones con sus correspondientes enormes fuerzas g, desaceleraciones o los efectos relativistas como la contracción de Lorentz y la dilatación del tiempo a altas velocidades. Alcubierre ha podido demostrar que incluso cuando la nave está acelerando viaja en una caída libre geodésica.

Sin embargo, el que la burbuja de deformación permita viajes superlumínicos se debe a la posibilidad de que el propio espacio-tiempo en el cual viaja la luz tenga la capacidad de superar la velocidad de la luz.
La Teoría de la Relatividad considera imposible que los objetos viajen a una velocidad mayor que la de la luz en el espacio-tiempo, pero se desconoce a qué velocidad máxima puede moverse el espacio-tiempo; se hipotetiza que en casi en el instante inicial del Big Bang nuestro universo poseía velocidades exponenciales superlumínicas (véase Universo inflacionario), se supone asimismo que algunos quásares muy lejanos pueden alcanzar velocidades de recesión translumínicas.

Aquí se introduce otra analogía: existe una velocidad máxima a la cual un objeto puede marchar sobre el suelo ¿pero qué ocurriría si es un suelo móvil —como puede ser una cinta trasportadora— que supera la velocidad de la marcha? Esto supone un cambio en el sistema de coordenadas utilizado como referencia para medir la velocidad. Si el sistema de coordenadas se mueve en la misma dirección del desplazamiento respecto a un segundo sistema de referencia (que debería ser externo al propio espacio-tiempo), el objeto debiera poder incrementar su velocidad indefinidamente respecto del segundo sistema de referencia. Lo que esta analogía plantea es si ¿sería posible "cabalgar sobre un rayo de luz"?

Para crear un dispositivo como la burbuja de deformación que permita el impulso de deformación — explica Alcubierre— se requeriría operar con materia de densidad negativa o materia exótica, creando así con tal materia una burbuja de energía negativa que englobaría a la nave (véase DiracEnergía negativa). Según Alcubierre, la cantidad de energía negativa sería proporcional a la velocidad de propagación de la burbuja de deformación, verificándose que la distribución de la energía negativa estaría concentrada en una región toroidal perpendicular a la dirección en que se movería la burbuja plana (véase ilustración).

De este modo, dado que la densidad de energía sería negativa se podría viajar a una velocidad mayor que la de la luz merced al efecto suscitado por la materia exótica. La existencia de la materia exótica no está descartada, antes bien el efecto Casimir parece confirmar la existencia de tal materia; sin embargo producir bastante materia exótica y conservarla para realizar una proeza como el viaje superlumínico plantea los mismos actualmente irresolubles problemas que para mantener estable a un agujero de gusano.
Por otra parte en la Relatividad General primero se específica una distribución factible de la materia y de la energía para luego encontrar una geometría del espacio-tiempo asociada; si bien es posible operar con las ecuaciones de Einstein primero especificando una métrica y luego encontrando el tensor de energía e impulso asociado a tal métrica (que es lo realizado por Alcubierre), esta práctica significa que la solución podría violar varias condiciones de energía y requerir la materia exótica.

Robert J. Low, en 19992ha probado que dentro del contexto de la relatividad general y aún en ausencia de la materia exótica es posible construir una burbuja de deformación (los textos en francés utilizan como equivalente de burbuja de deformación las palabras «commande de chaîne»/ pedido de cadena). Una teoría coherente de la gravedad cuántica quizás sirva para resolver estas cuestiones.

Además, Alexey Bobrick y Gianni Martire afirman que, en principio, se puede construir una clase de espaciotiempos sublumínicos y esféricamente simétricos de impulso factorial basados en principios físicos actualmente conocidos por la humanidad, como la energía positiva.3

La métrica de Alcubierre puede ser escrita:

 


La densidad de energía necesaria para causar ese tensor métrico es:

 

Forma

El contenido generado por IA puede ser incorrecto.


Así la densidad de energía es negativa y se requiere por esto de la materia exótica para provocar las deformaciones del espacio-tiempo.4

Otras denominaciones

El sistema supuesto por Alcubierre para los viajes cósmicos es denominado en inglés "Warp Drive" (el mismo nombre dado en la serie Star Trek — o "Viaje a las estrellas"—), la traducción es: Impulso por deformación o Impulso de Deformación o Distorsión Impulsada, también se encuentran las siguientes traducciones: Impulso de torsión, Impulso Warp, Impulso curvado, Impulso deformativo, Viaje curvado, Viaje combado, Motor de curvatura e incluso Motor de Impulso Factorial. Todas estas denominaciones dan la noción del principio básico de este hipotético método de viaje "superluminal": en lugar de acelerar un objeto (supongase la cosmonave) a velocidad c o próxima a c se combaría o curvaría el "tejido" del espacio-tiempo de modo que los objetos a donde se viaja se acerquen sin un movimiento de la nave en el sentido usual del término movimiento: más que moverse la nave -en estas hipótesis-, es movido (curvado) el espaciotiempo.

 

Los 10 pasos clave de la evolución

https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/

La evolución de las especies a lo largo de su historia ha permitido la aparición de cualidades impresionantes a los seres vivos. En este post me gustaría repasar los que creo son los 10 cambios más relevantes que han ocurrido en la historia de la vida en la Tierra desde que aparecieron los primeros seres vivos. Evidentemente estos pasos fueron todos muy graduales y es difícil acotarlos en «un paso». La lista está ordenada por orden cronológico de aparición partiendo de los primeros seres replicantes cuyas características concretas sólo podemos especular actualmente:

1-La fidelidad en la copia del DNA

Una bacteria actual comete un error en la copia del DNA cada 10E10 generaciones aproximadamente. Este ratio entre mutaciones y fidelidad permite adaptaciones pero limitando acumular grandes errores rápidamente que acabarían con la especie. La principal artífice de esta maravilla evolutiva se llama DNA polimerasa que por si sola es capaz de copiar fielmente varios miles de bases de DNA  antes de cometer un error. Las versiones más avanzadas y que aparecieron más tarde en la evolución de los eucariotas tienen además mecanismos de revisión para minimizar los errores cometidos. Su necesidad para la vida es tal que no existen seres vivos que carezcan de este mecanismo. Sólo algunos virus como el HIV que a cambio utilizan la perfecta maquinaria celular.

2-El flagelo

 

Imagen en blanco y negro

El contenido generado por IA puede ser incorrecto.


Flagelo bacteriano

De esperar a que la comida llegue, a ir a p0r ella. Este uno de los cambios principales cambios que supuso el flagelo. Aunque anteriormente las bacterias desarrollaron pequeños filamentos (cilios) que permitían cierto movimiento lo cierto es que estás estaban totalmente sometidas a las fuerzas que gobiernan el movimiento browniano: Imaginad que estáis dentro de una piscina llena de canicas que se propulsan a toda velocidad en todas direcciones. El flagelo suponía además una mejora en la capacidad de colonizar nuevos y lejanos ambientes o de escapar de circunstancias adversas. Puedes ver un vídeo sobre la evolución del flagelo aquí donde se postula su aparición a partir de un organulo destinado a la sujeción.

2-El fotorreceptor

Y se hizo la luz. La capacidad de reconocer la luz suponía inicialmente acceso a alimento (la síntesis de muchos compuestos orgánicos es catalizada por la luz) y una guía para el movimiento (define arriba y abajo). Sin embargo, este pequeño avance sembraría la semilla para dos futuros mecanismos de gran relevancia: la fotosíntesis y la visión. Los fotorreceptores se basan en pigmentos capaces de excitarse con la luz y de transmitir dicho estado excitado a alguna proteína.

3-La fotosíntesis

¿Quién necesita comida cuando puedes fabricarla? Este es quizás el salto evolutivo más impresionante: la capacidad de producir compuestos orgánicos a partir de inorgánicos, mucho más abundantes. Estas reacciones requieren de gran energía que los seres vivos obtienen del calor, degradación de otros compuestos orgánicos/ inorgánicos o de la luz. Podéis leer algo más sobre la fotosíntesis en este otro post que escribí. La fotosíntesis no podría ser posible sin los fotoreceptores que además probablemente coevolucionaron con la mejora del flagelo. Ninguno de estos «castillos de naipes» habria aguantado sin la fidelidad en la copia del DNA.

4-El ciclo de Krebs y la respiración oxidativa

La fotosíntesis trajo consigo una nueva época de problemas u oportunidades según se mire. El principal deshecho de la fotosíntesis es el oxígeno. Una molécula que ahora nos parece inocua pero que cuando apareció era como vivir en un mar de arsénico. El oxígeno tiene la capacidad de oxidar el DNA y las proteínas e interfería en muchas de las reacciones necesarias para las bacterias de la época. La aparición del oxígeno atmosférico probablemente fue un proceso rápido que acabo de un plumazo con la mayoría de las especies. Algunas especies (entre ellas las productoras de oxígeno) desarrollaron mecanismos para inactivar el oxígeno, entre estos mecanismos encontramos la utilización de electrones y protones que reaccionan con el oxígeno produciendo agua. Curiosamente se pueden obtener electrones como productos de deshecho del metabolismo de compuestos orgánicos. La sofisticación del metabolismo de los azucares en el denominado ciclo de Krebs junto a un complejo sistema de transporte de electrones permitió aprovechar al máximo la energía de los compuestos orgánicos.

5-La célula eucariota

La complejidad de la aparición de la vida es el único hecho comparable a la aparición de la célula eucariota. Se ha especulado que los eucariotas provienen de la simbiosis de varios tipos bacterianos, hipótesis que cobra fuerza con los análisis genéticos. En cualquier caso la aparición de células con núcleo definido y orgánulos es una gran caja negra. Uno de los procesos evolutivos más interesantes que nos quedan por descifrar. El gran avance de la célula eucariota puede describirse con algo tan simple como la compartimentalización. Cada cosa en su rincón. Muchas de las reacciones químicas celulares requieren un ambiente muy específico incompatible con otras reacciones.

6-La especialización celular

El hijo favorito. Una célula se divide en dos pero no deja lo mismo en cada célula hija: una contiene más deshechos que otra, diferente concentración de proteínas o le falta algún componente. Estos podrían haber sido los antecedentes de la especialización celular. Ocurre actualmente en bacterias, levaduras o algunas algas unicelulares y que en algunos casos viven en colonias, donde algunos individuos se especializan en ciertas funciones en función de su localización dentro de la colonia. La especialización supone una mayor eficiencia. De allí hasta células como las neuronas o los glóbulos blancos quedaría aun un buen trecho.

7-La reproducción sexual

¡Qué sería de nosotros sin el sexo! Se ha sugerido que la reproducción sexual permite una rápida adaptación de las especies al eliminar rápidamente las mutaciones perniciosas y esparcir las beneficiosas.  Su aparición podría estar relacionada con virus y otros parasitos o bien como un resultado colateral de la estrategia de duplicar el genoma para reducir los efectos de las mutaciones. En cualquier caso, los seres vivos con reproducción sexual se han diversificado y adquirido una complejidad que ningún ser asexual puede superar.

8-El desarrollo embrionario

«Nada de lo que te ocurra en la vida te marcará tanto como la gastrulación«. Las instrucciones para formar un cuerpo de forma progresiva y ordenada supusieron el salto entre un mundo de medusas y gusanos al actual. Instrucciones que se encuentran agrupadas en bloques o paquetes genéticos que permiten gran adaptabilidad. Un paso a destacar en el desarrollo embrionario es la gastrulación, que consiste en la invaginación de una capa de células del embrión. Así, a primera vista no parece tan importante pero su aparición supuso la especialización en 3D, como ocurre en la mayoría de los animales como nosotros frente a la especialización en 2D que ocurre en los gusanos.

 

Una captura de pantalla de un celular con texto e imágenes

El contenido generado por IA puede ser incorrecto.


Etapas del desarrollo embrionario humano

9-El sistema nervioso y el cerebro

Mucho antes de la aparición del sistema nervioso las células se comunicaban solamente mediante contactos con su célula vecina y la emisión de señales, como hormonas. En mi opinión el salto no está tanto en la formación de una red para hacer llegar las señales más rápido sino en una centralización de las señales, que a largo plazo supondría la aparición del cerebro. El estudio de las redes neuronales ha avanzado considerablemente en los últimos años gracias a los estudios en varios animales modelo, especialmente en el gusano C. elegans, del que conocemos la red que forman sus 302 neuronas.

10-La percepción del individuo

Hasta hace unos pocos años se creía que sólo los primates superiores teníamos esta capacidad. Sin embargo varios estudios demuestran que otros mamíferos como el elefante o el delfín, e incluso aves como la urraca poseen dicha habilidad. Se ha especulado que esta capacidad es la precursora de la aparición de lo que llamamos el yo y del pensamiento racional. Si bien este último merecería una escala entera por si mismo.

 

La Mecánica Cuántica de la fotosíntesis

http://neofronteras.com/?p=3012

Descubren unos mecanismos mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones de años antes que los humanos.

 

Imagen que contiene animal

El contenido generado por IA puede ser incorrecto.

Alga Chroomonas. Fuente: NOAA.

Si alguien nos dice que durante la fotosíntesis se utiliza la Mecánica Cuántica no nos debería extrañar lo más mínimo. Al fin y al cabo, la célula fotoeléctrica del ascensor o las placas solares del tejado (si es que se tienen) funcionan bajo los mismos principios. La explicación al efecto fotoeléctrico tiene ya 105 años, fue dada por Albert Einstein y por ello recibió el Nóbel de Física. Todo el mundo sabe, por tanto, que la Mecánica Cuántica debe jugar un papel esencial en la fotosíntesis, pero los detalles del proceso se desconocían.
Cuando uno estudia Mecánica Cuántica (MC) por primera vez se decepciona un poco, pues su introducción suele ser fenomenológica. Uno espera ver gatos de Schrödinger y en su lugar ve, como máximo, cuantos de energía y niveles en el átomo de hidrógeno o en el pozo cuadrado. Es decir, a lo más que se suele llegar es a la ecuación de Schrödinger.
Lo más fantástico y sorprendente viene normalmente después y para ello se necesita un buen andamiaje matemático basado en los espacios de Hilbert. Es entonces cuando se ven las bases de la MC, sus postulados, la preparación de estados, la superposición de los mismos, el colapso de la función de ondas, la paradoja EPR y, ¿cómo no?, el gato de Schrödinger.
Hacer experimentos para estudiar estos detalles de la MC es muy difícil, normalmente todo se va al traste con la menor perturbación, por eso a veces hay que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto, momento en que cesa toda vibración. De ahí que sea tan difícil conseguir el famoso computador cuántico. Tener una partícula en una superposición de un par de estados es todo un logro. Pues bien, al parecer las plantas llevan haciendo esto mismo desde hace miles de millones de años.
Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo de la Biología Cuántica al observar estados cuánticos muy especiales durante la fotosíntesis de algas marinas. Otro equipo australiano ha llegado a resultados similares.
Según Greg Scholes, líder del proyecto canadiense, sus experimentos muestran que los sistemas biológicos tienen la capacidad de usar la MC para así optimizar procesos esenciales como el de la fotosíntesis.
La fotosíntesis usa diferentes sistemas bioquímicos. En un primer paso están las “antenas” o los complejos que captan la luz y la llevan a los centros de reacción en donde se suceden otros procesos que finalmente dan lugar a energía química utilizable por la planta. Cuando un fotón alcanza una de estas antenas transfieren su energía a los electrones de la misma, pero esta energía se puede perder si no es transferida rápidamente a otra molécula.
En el alga Chroomonas CCMP270, por ejemplo, estas antenas tienen 8 moléculas de pigmentos tejidas en una estructura proteica más grande, y cada pigmento absorbe luz de una diferente gama de frecuencias (color) del espectro electromagnético. La ruta a lo largo de estas moléculas es importante porque cuanto más largo sea el viaje más pérdidas de energía se pueden producir. Desde un punto de vista clásico la energía debería viajar por un camino aleatorio por ellas. Por tanto, los investigadores esperaban que la energía de un pulso láser no se transfiriera desde la antena a los centros de reacción de manera eficiente y parte se perdiera.
Este equipo de investigadores aisló estas antenas o complejos de captación de luz de dos especies distintas de alga marina y estudió su funcionamiento a temperatura ambiente (a 21 grados centígrados) gracias a la espectroscopía electrónica bidimensional. Para ello se valieron de un láser de femtosegundo con el que iluminaron esos complejos y así remedar el proceso natural de absorción de luz.
El pulso de este tipo de láser es tan corto que se pueden vigilar más fácilmente los procesos que se suceden después de la iluminación sin la interferencia del haz que iluminó, aunque esos procesos sean muy rápidos. Entre los fenómenos que se pueden observar está el movimiento de la energía por las moléculas especiales que están unidas a una proteína.
Al excitar con el pulso láser se consigue que los electrones de las moléculas de pigmentos salten a un estado excitado. Al volver a sus estados fundamentales se emiten fotones con longitudes de onda ligeramente diferentes que se combinan para formar un patrón de interferencia determinado. Estudiando este patrón los científicos pudieron estudiar el estado de superposición que se creaba.
Los investigadores se vieron sorprendidos al observar claramente la supervivencia a largo plazo (cuatro veces más prolongados de lo esperado) de estados mecanico-cuánticos relacionados con ese movimiento de energía. Este tiempo (400 femtosegundos o 4 × 10-13 s) es lo suficientemente largo como para que la energía del fotón absorbida ensaye todos los posibles caminos (¿recuerda esto a la integral de caminos de Feyman?) a lo largo de la antena, permitiendo que viaje sin pérdidas. Durante un tiempo la energía de la luz absorbida reside en varios lugares a la vez. Es decir que hay una superposición coherente de estados cuánticos. En esencia la antena realiza una computación cuántica para determinar la mejor manera de transferir la energía.
El descubrimiento va en contra de la idea supuesta que sostiene que la coherencia cuántica sólo puede ocurrir a temperaturas muy bajas cerca del cero absoluto, porque le calor ambiental la puede destruir. Se desconoce cómo se las arregla este sistema fotosintético para realizar esta proeza, pero se especula que quizás se deba a la propia estructura de la proteína.
Según Scholes, este resultado podría significar que las leyes de probabilidad mecánico-cuánticas prevalecen sobre las leyes clásicas en los sistemas biológicos complejos, incluso a temperatura normal. La energía puede entonces fluir eficientemente bajo la perspectiva clásica de una manera contraintuitiva y atravesar de manera simultánea varios caminos alternativos a través de las proteínas. En otras palabras, los complejos de captación convierten la luz en una onda que viaja desde la antena a los centros de reacción sin pérdida de energía.
Scholes se plantea si los organismos desarrollaron esta estrategia mecánico-cuántica de captación de energía solar como una ventaja adaptativa. Según él es como si el alga “conociera” la Mecánica Cuántica 2000 millones de años antes que los humanos. La pregunta que queda por resolver es obvia: ¿se dan este tipo de fenómenos mecánico-cuánticos en otros procesos biológicos?
Paul Davies, director del BEYOND Center for Fundamental Concepts in Science con sede en Arizona, cree que la Naturaleza ha tenido miles de millones de años para evolucionar aprovechándose de las ventajas cuánticas, y que probablemente las explota de manera eficiente cuando puede. Sospecha que el funcionamiento de muchas estructuras biológicas nanométricas sólo se podrán entender completamente con referencias a la coherencia, efecto túnel, entrelazamiento y otros procesos cuánticos no triviales. El desafío será identificar dichos procesos en el ambiente ruidoso de la célula.

 

Tunelaje cuántico para conseguir la fusión nuclear en el Sol

 https://triplenlace.com/2014/01/16/la-quimica-del-sol/   

A 8 minutos y 19 segundos-luz se encuentra nuestro sol. Cuando observamos a nuestra estrella aparecer en el horizonte entre brumas añil y rojos suaves, hace ya 8 minutos y 19 segundos que el sol estuvo en esa posición. Se encuentra nada menos que a 150 millones de Kilómetros de la Tierra. Y menos mal porque se trata de un potente reactor químico.

Del sol sabemos que su diámetro es 109 veces el de la Tierra, concretamente 1.400.000 Km; tres cuartas partes está compuesto de hidrógeno, una cuarta parte es helio y menos del 2% está formado por oxígeno, carbono, nitrógeno, silicio, neón, hierro y azufre. La temperatura en su superficie es de 5.000 grados centígrados mientras que en su núcleo alcanza la astronómica cifra (nunca mejor dicho) de 15 millones de grados centígrados. Pero ¿qué reacción química consigue tan exuberantes resultados? La fusión nuclear.

La fusión nuclear en el sol consiste en la transformación de dos átomos ligeros en un átomo más pesado. Esos átomos ligeros son el combustible de la reacción y resultan ser isótopos del hidrógeno. El hidrógeno es el más sencillo de los elementos químicos, tiene un protón en su núcleo y un electrón girando alrededor. Sin embargo, en la naturaleza también se presentan isótopos; de vez en cuando el protón del núcleo del átomo de hidrógeno aparece acompañado de partículas neutras: los neutrones. Cuando un neutrón acompaña al protón de hidrógeno en el núcleo tenemos un átomo de deuterio, 2ó D; cuando se suman dos neutrones al protón de hidrógeno tenemos otro isótopo, el tritio, 3H.

 

Diagrama

El contenido generado por IA puede ser incorrecto.



Estos dos isótopos de hidrógeno son los átomos clave de la reacción de fusión nuclear. Cuando un átomo de deuterio se encuentra con un átomo de tritio y se fusionan en un superchoque dejan tras de sí un nuevo átomo que contiene en su núcleo dos protones y dos neutrones: un átomo de helioHe. Pero si han hecho las cuentas de cabeza se habrán dado cuenta de que en este balance de materia nos sobra un neutrón.

12H + 13H → 24He + 01n

Efectivamente, ese neutrón sobrante sale despedido después del choque con la velocidad de la luz transformando su masa en energía según la famosa ecuación de Einstein:

E = mc2

Donde E es energía, m es la masa de la partícula y c es la velocidad de la luz. ¡Por cada mol de hidrógeno que reacciona se liberan 180 GJ (gigajulios)!

 


Ahora bien, visto así no parece que esta reacción tenga mucha complicación y poder controlarla nos liberaría de nuestra dependencia de combustibles fósiles como las gasolinas o el gas natural y en eso se afanan los científicos que investigan en la fusión fría. ¿Pero por qué “fría”? Volvamos al sol. Las condiciones en las que esta reacción tiene lugar no se producen con facilidad. En primer lugar, el sol es una masa de plasma. El plasma es un estado de la materia a muy altas temperaturas en el que la masa de su superficie es menos densa y mucho más densa en su núcleo. Las altas temperaturas a las que están sometidos los átomos en el plasma hacen que pierdan sus electrones convirtiéndolo en una especie de gas ionizado.

Por lo tanto en esas condiciones tenemos una bola de núcleos que se mueven y chocan entre sí y que cuanto más cerca están del núcleo de plasma alcanzan más temperatura y más densidad. Es decir, se mueven más (tienen más energía cinética) y están más cerca los unos de los otros a presiones extremas. En el mayor punto de temperatura y densidad, los núcleos, alcanzan una velocidad próxima a la de la luz. Sin embargo, aunque todo esto suena favorable para un choque de fusión nuclear, existe también otra potente fuerza que resulta desfavorable: la fuerza de repulsión entre los protones, ya que éstos tienen cargas positivas y se repelen entre sí. A veces estas fuerzas de repulsión pueden ser infinitas. La cuestión es resolver en qué momento la energía cinética y la densidad son suficientes como para vencer esa repulsión, para lo cual debemos recurrir a lo que se conoce en Física como túnel cuántico o barrera de penetración.

 

Diagrama

El contenido generado por IA puede ser incorrecto.


Este efecto de la mecánica cuántica se aprovecha de la dualidad onda-partícula de la materia a niveles subatómicos y predice que para una partícula que esté confinada en una habitación de paredes infinitamente altas, y que por lo tanto nunca las pueda superar con su función de onda asociada, pueda sin embargo atravesar la pared como si de un fantasma se tratara. La ecuación de Schrödinger puede hacer una predicción sobre la probabilidad que tiene esa partícula de salir de su confinamiento “atravesando” la pared gracias a que tenga una función de onda que varíe suavemente dentro de la región cercana a la pared y recupere el aspecto de onda oscilante cuando sale de ella. Esto es posible para partículas ligeras que atraviesan barreras o “paredes” de pequeño grosor, tales como los isótopos de hidrógeno venciendo la barrera energética de su propia repulsión.

Las intensas investigaciones en el campo de la fusión fría están orientadas a conseguir esa reacción termonuclear a temperatura ambiente. El combustible en forma de partículas ligeras como los isótopos de hidrógeno son fáciles de conseguir y se convertiría en una fuente inagotable de energía. La fusión nuclear en frío de forma controlada es, sin duda alguna, uno de los mayores retos energéticos que se plantea la ciencia moderna. En realidad, es: el reto estrella.

 

¿Es nuestra consciencia cuántica?

https://es.resonancescience.org/blog/confirmacion-de-la-resonancia-cuantica-en-los-microtubulos-del-cerebro

 

Diagrama

El contenido generado por IA puede ser incorrecto.


Las biomoléculas presentan un comportamiento mecánico cuántico

Un equipo de investigación dirigido por Anirban Bandyopadhyay -investigador preeminente en la ciencia de la biología cuántica-, ha demostrado la existencia de vibraciones mecánicas cuánticas a alta temperatura en las neuronas del cerebro. La investigación, llevada a cabo en el Instituto Nacional de Ciencias de los Materiales de Tsukuba (Japón), descubrió cómo la oscilación de alta frecuencia de los microtúbulos -medida en este caso a un millón de ciclos por segundo (un megahercio - 1MHz de oscilación de los momentos dipolares eléctricos de los electrones libres y de cambio conformacional), provocan una interferencia de ondas que puede dar lugar a la forma característica de las oscilaciones eléctricas del cerebro que se correlacionan con la conciencia, concretamente un nuevo tipo de señal electroencefalográfica (EEG) de 40 Hz / 4 Hz de gestalts anidados (oscilaciones gamma y delta, respectivamente), denominadas "frecuencias de latido".

Las frecuencias gamma se han correlacionado con la conciencia, aparentemente a través de la acción de la sincronización neuronal, y la estructura de onda periódica de las "frecuencias de latido" gamma-delta recuerdan mucho a las bandas de interferencia alternas de los cuantos que se producen en los experimentos de doble rendija. Así, parece que se vincula la sincronización cerebral de la conciencia con los comportamientos mecánicos cuánticos subyacentes de los microtúbulos. Con estas vibraciones cuánticas, los microtúbulos pueden entrelazarse en las redes neuronales a través de canales de interconexión, llamados gap junctions (uniones en hendidura), que unen físicamente a las neuronas. Esta es la teoría de la conciencia desarrollada y defendida por el biólogo cuántico y anestesista jefe de la Universidad de Arizona, Stuart Hameroff, y el profesor emérito de matemáticas de la Universidad de Oxford, el físico Roger Penrose.

Los últimos descubrimientos apoyan firmemente su modelo de que la mecánica cuántica dentro del cerebro engendra la conciencia, el que ha recibido apasionadas críticas por parte de los académicos desde su creación en la década de 1980, como es típico de cualquier paradigma revolucionario.

El papel del agua en el cerebro

Cabe destacar que Anirban Bandyopadhyay y su equipo de investigación, han realizado experimentos que indican la importancia central del agua en las operaciones de procesamiento de la información dentro del cerebro y el cuerpo. En su artículo: el canal de agua atómico que controla las propiedades notables de un solo microtúbulo cerebral, el equipo de investigación informó sobre la experimentación con el agua altamente ordenada dentro de la cavidad cilíndrica del lumen del microtúbulo. Descubrieron que cuando se evacuaba el agua de la cámara central, el microtúbulo dejaba de mostrar una fuerte correlación en el conjunto macromolecular de las subunidades de tubulina.

Esto sugiere que el agua desempeña un papel central en la coordinación del comportamiento de las múltiples subunidades del microtúbulo y que, en efecto, lo hace funcionar como una sola molécula, un efecto altamente cuántico. El agua, como han sugerido el físico Nassim Haramein y el equipo de investigación de RSF, forma parte de la coherencia de largo alcance y de la orquestación de los procesos de información celular correlacionados con la conciencia [1].

[1] Véase la sección "El papel del agua ordenada en la coherencia y la transmisión de información dentro del sistema biológico" en Unified Spacememory Network; Haramein et al., 2017.

Observaciones de la anestesia

Además, las investigaciones realizadas en la Universidad de Pensilvania, dirigidas por Roderick G. Eckenhoff, sugieren que los compuestos anestésicos actúan en parte interrumpiendo la función normal de los microtúbulos, aparentemente dispersando los dipolos eléctricos necesarios para la conciencia. Fueron los estudios anestesiológicos de Stuart Hameroff en los años 70 los que le llevaron a sugerir un papel de los microtúbulos en la generación de la conciencia, tras observar cambios en la dinámica de los microtúbulos cuando se exponen a compuestos anestésicos. Si existe una molécula que detenga la conciencia, entonces ver qué cambios específicos se producen en el entorno celular cuando se expone a dicho compuesto, será una pista importante para saber qué estructuras están implicadas en la generación de la conciencia.

La revolucionaria idea de Hameroff era llevar los mecanismos teóricos de la conciencia desde el nivel celular-sináptico hasta la escala nanométrica de las grandes redes biomoleculares, donde podrían producirse comportamientos mecánicos cuánticos (siguiendo la estela de Herbert Fröhlich, que había propuesto que las biomoléculas poliméricas largas podían lograr ondas de solución coherentes cuánticas mediante el bombeo de energía metabólica, lo que daba lugar a un entrelazamiento no local -que más tarde se denominó condensados de Fröhlich).

Un nuevo tipo de física

Una de las características clave de la teoría de Hameroff y Penrose se denomina Reducción Objetiva Orquestada (Orch-OR), en la que se teoriza que el vector de estado (la función de onda que describe una partícula) de los electrones libres deslocalizados dentro de la tubulina, sufre una reducción independiente del observador (un colapso objetivo frente al subjetivo de la función de onda). A medida que el electrón muestra más y más atributos no locales, lo que se conoce como superposición, la geometría del espaciotiempo subyacente se bifurca, y el grado de separación entre las "burbujas" del espaciotiempo -medido en longitudes de Planck- alcanza una distancia crítica, momento en el que la geometría del espaciotiempo se vuelve inestable y colapsa.

Este mecanismo se conoce como el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad. Cada una de estas bifurcaciones y colapsos representa un cómputo cuántico indeterminable, y la coordinación de una multitud de estos eventos a través del entrelazamiento cuántico (la parte orquestada de OR) permite realizar cómputos cuánticos masivamente paralelos dentro del cerebro. Como sugieren Hameroff y Penrose, esto es lo que produce la conciencia. Dado que la reducción del vector de estado se debe enteramente a este mecanismo estocástico, y por tanto es indeterminado, confiere a la conciencia una característica de imprevisibilidad.

La ley de escalamiento de USN y Haramein

Al igual que el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad está mediado por una geometría cuántica del espaciotiempo subyacente, Haramein et alii describen una geometría del espaciotiempo subyacente en el artículo The Unified Spacemory Network. A diferencia del mecanismo Diósi-Penrose, la geometría cuántica del espaciotiempo de la red del espaciotiempo unificada no implica superposiciones, sino un fuerte entrelazamiento a través de la red de microagujeros del espaciotiempo Planckiano subyacente. Además de los microtúbulos, los autores destacan la importancia de estructuras como el agua atómicamente ordenada y las membranas del sistema celular.

Los microtúbulos son estructuras macromoleculares realmente notables del sistema biológico, por lo que no es de extrañar que varios investigadores se hayan interesado por ellos. En el artículo Scale Unification, Haramein y Rauscher, junto con el biólogo Michael Hyson, presentan sus descubrimientos sobre una ley de escala universal para la materia organizada. Hay una serie de sistemas organizados de materia que obedecen a la condición de Schwarzschild de un agujero negro, y cuando se trazan en un gráfico de frecuencia frente al radio, surge una línea de tendencia, en la que las estructuras desde el tamaño cosmológico hasta el subatómico muestran una relación de escala definida. Lo sorprendente es que los microtúbulos se sitúan en el centro de la línea de tendencia, ocupando la posición entre lo ultra grande y lo ultra pequeño, el macrocosmos y el microcosmos.

"Resulta interesante que los microtúbulos de las células eucariotas, que tienen una longitud típica de 2 X 10-8cm y una frecuencia de vibración estimada de 109 a 1014 Hz se sitúan bastante cerca de la línea especificada por la ley de escalamiento e intermedia entre las escalas estelar y atómica" - Haramein et al, Scale Unification, 2008

El colector fractal

Según este hallazgo, los microtúbulos pueden tener una relación armónica con las estructuras polarizables del vacío cuántico (¡que muestran que está en una relación Ф (phi)! Una relación de escala de tipo fractal). John Wheeler describió por primera vez estas estructuras fluctuantes del vacío como mini agujeros negros de Planck. Del mismo modo, Haramein muestra cómo los osciladores del vacío pueden ser, de hecho, sistemas de agujeros blancos/agujeros negros. Así, mientras que el criterio Diósi-Penrose utiliza una geometría de "burbuja" bifurcada del espaciotiempo, la solución de Haramein muestra cómo puede ser la acción de estructuras de espaciotiempo de agujero blanco/agujero negro polarizadas, cuya oscilación funciona como elemento computacional en analogía con el colapso inducido por la gravedad del mecanismo Hameroff-Penrose.

"La universalidad de esta ley de escala sugiere un vacío estructurado polarizable subyacente de mini agujeros blancos/agujeros negros". - ibidem

Además, Haramein describe una estructura múltiple fractal del espaciotiempo, lejos de la arquitectura del espaciotiempo liso y plano previsto por el Modelo Estándar. Esto es muy pertinente para la naturaleza de la conciencia, porque los sistemas fractales son producidos por / y subyacen a la dinámica del caos.

Una de las características clave de los sistemas caóticos es que pueden ser extremadamente sensibles incluso a pequeños cambios, debido a las interacciones no lineales que resultan de las operaciones de retroalimentación y la alta coherencia global dentro del sistema. Como tal, hay una naturaleza indeterminada en los sistemas fractales/caóticos, como cuando se intenta predecir el tiempo. De modo que, a diferencia del mecanismo de reducción objetiva propuesto por Hameroff y Penrose, la dinámica caótica de las fluctuaciones de la espuma del vacío cuántico podría ser la fuente de la aparente imprevisibilidad y autovoluntad tan características de nuestra conciencia (téngase en cuenta que en la semántica técnica, caos no significa desorden, sino todo lo contrario, sólo implica ciertas características clave, como un grado de imprevisibilidad).

¿Entre la espada y la pared? Encuentre el camino del medio  

A medida que se descubren más y más fenómenos mecánicos cuánticos no locales dentro del sistema biológico, la teoría de Hameroff y Penrose (así como la de otros investigadores que investigan esta nueva frontera de la ciencia) va acumulando pruebas empíricas tangibles, de modo que los modelos de conciencia cuántica están pasando de ser bellas construcciones teóricas a convertirse en hechos demostrables. Lo notable del modelo de conciencia de Hameroff, así como de Haramein, es que encuentran el punto medio entre dos extremos: la perspectiva espiritual/metafísica por un lado, en la que la conciencia es primaria y no puede ser explicada científicamente; y por otro lado la perspectiva científica/materialista, en la que la conciencia es un estado ilusorio epifenomenológico que emerge de la complejidad de las neuronas y no juega ningún papel en la dinámica del Universo en general. En cambio, lo que llamamos conciencia no sólo puede surgir de la dinámica de los eventos físicos discretos del colector cuántico del espaciotiempo, sino que también juega un papel intrínseco en el ordenamiento y la dinámica del Universo.

 

Teoría de cuerdas y supersimetría

http://www.nocierreslosojos.com/teoria-cuerdas/

  • Figura Clave: Leonard Susskind (n. en 1940)
  • Antes:
  • 1914 Se propone la idea de una quinta dimensión para explicar cómo funciona la gravedad junto con el electromagnetismo.
  • 1926 El físico sueco Oscar Klein desarrolla ideas acerca de dimensiones adicionales inobservables.
  • 1961 Se diseña una teoría para unificar el electromagnetismo y la fuerza nuclear débil.
  • Después:
  • 1975 Abraham Pais y Sam Treiman acuñan el término «modelo estándar».
  • 1995 Edward Witten, físico estadounidense, desarrolla la teoría M, que incluye 11 dimensiones.
  • 2012 El Gran Colisionador de Hadrones detecta el bosón de Higgs

Leonard Susskind

 

Foto en blanco y negro de un hombre con barba y bigote

El contenido generado por IA puede ser incorrecto.



Nacido en Nueva York (EE UU) en 1940, Leonard Susskind ocupa la cátedra Felix Bloch de Física en la Universidad de Stanford en California. Se doctoró en la Universidad Cornell (Nueva York) en 1965, y se unió a la de Stanford en 1979.

En 1969 publicó la teoría por la cual es conocido: la teoría de cuerdas. Su trabajo matemático demostró que la física de partículas podía explicarse mediante cuerdas vibrantes al más pequeño nivel. En la década de 1970 desarrolló más esa idea, y en 2003 acuñó el término «paisaje de la teoría de cuerdas». Esa radical noción pretendía destacar el gran número de universos posibles que conformarían un increíble «megaverso» con, quizá, otros universos con las condiciones necesarias para la vida. Susskind es hoy una figura muy respetada en su ámbito.

  • Obras principales:
  • 2005 El paisaje cósmico.
  • 2008 La guerra de los agujeros negros.
  • 2013 El mínimo teórico.

Física de partículas

Los físicos de partículas usan la teoría llamada «modelo estándar» para explicar el universo. Desarrollado en las décadas de 1960 y 1970, ese modelo describe las partículas y las fuerzas fundamentales de la naturaleza que componen el universo y lo mantienen unido. Un problema del modelo estándar es que no encaja con la teoría de la relatividad general de Einstein, que relaciona la gravedad (una de las cuatro fuerzas) y la estructura del espacio y el tiempo y los trata como una entidad tetradimensional («espacio-tiempo»). El modelo estándar no encaja con la curvatura del espacio-tiempo propugnada por la relatividad general.

La mecánica cuántica, en cambio, explica cómo interactúan las partículas en los niveles más pequeños (a escala atómica), pero no da cuenta de la gravedad. Se ha intentado en vano unir las dos teorías; por ahora el modelo estándar solo puede explicar tres de las cuatro fuerzas fundamentales.

Partículas y fuerzas

En física de partículas, los átomos están formados por un núcleo de protones y neutrones, rodeado por electrones. El electrón y los quarks que forman los protones y los neutrones se encuentran entre los 12 fermiones (partículas de materia): las partículas elementales o fundamentales que son los componentes básicos conocidos más pequeños del universo. Los fermiones se subdividen en quarks y leptones. Junto a esos fermiones, están los bosones (partículas portadoras de fuerza) y las cuatro fuerzas de la naturaleza: electromagnetismo, gravedad, fuerza fuerte y fuerza débil. Los diferentes bosones son responsables de llevar las diferentes fuerzas entre los fermiones.

El modelo estándar permite describir lo que se conoce como campo de Higgs, un campo de energía que, según se cree, impregna todo el universo. La interacción de las partículas en el campo de Higgs les otorga su masa; y un bosón medible llamado bosón de Higgs es el portador de fuerza para el campo de Higgs. Ahora bien, ninguno de los bosones conocidos es el portador de a fuerza de gravedad; ello ha llevado a postular una partícula hipotética, aún no detectada, llamada gravitón.

 

Diagrama

El contenido generado por IA puede ser incorrecto.


 Teoría de cuerdas

En 1969, en un intento de explicar la fuerza nuclear fuerte, que une protones y neutrones dentro del núcleo atómico, el estadounidense Leonard Susskind desarrolló la idea de la teoría de cuerdas. El estadounidense-japonés Yoichiro Nambu y el danés Holger Nielsen concibieron la misma idea al mismo tiempo. Según la teoría de cuerdas, las partículas (los componentes básicos del universo) no son como puntos, sino más bien algo así como diminutos y unidimensionales hilos de energía vibrantes, o cuerdas, que dan lugar a todas las fuerzas y la materia. Cuando las cuerdas chocan, se combinan y vibran juntas brevemente antes de separarse de nuevo.

Los primeros modelos de la teoría de cuerdas fueron problemáticos. Explicaban los bosones pero no los fermiones, y necesitaban que ciertas partículas hipotéticas, llamadas taquiones, viajaran más deprisa que la luz. También necesitaban muchas más dimensiones que las cuatro conocidas del espacio y el tiempo.

 

Diagrama, Esquemático

El contenido generado por IA puede ser incorrecto.

 

Según la teoría de cuerdas, las partículas elementales (como los electrones y los quarks, que forman los protones y neutrones) son cuerdas o filamentos de energía. Cada cuerda vibra con una frecuencia diferente, y esas vibraciones se corresponden con la velocidad, el espín y la carga de las partículas.

Supersimetría

Para sortear algunos de esos primeros problemas se ideó el principio de la supersimetría, que propone que el universo es simétrico y proporciona a cada una de las partículas conocidas del modelo estándar una compañera, o «supercompañera», no detectada; así, por ejemplo, cada fermión se empareja con un bosón, y viceversa.

 

Gráfico

El contenido generado por IA puede ser incorrecto.


Según la supersimetría, todo bosón (partícula portadora de fuerza) tiene como «supercompañero» masivo un fermión (partícula de materia), y todo fermión tiene un bosón. La teoría de las supercuerdas describe las partículas supercompañeras como cuerdas que vibran en octavas más altas. Según algunos teóricos, las supercompañeras quizá tengan masas hasta mil veces superiores a las de sus partículas correspondientes, pero aún no se han hallado partículas supersimétricas.

Cuando el bosón de Higgs, predicho en 1964 por el británico Peter Higgs, fue detectado en 2012 por el Gran Colisionador de Hadrones del CERN, resultó ser más ligero de lo esperado. Los físicos de partículas creían que sería más pesado debido a sus interacciones en el campo de Higgs con las partículas del modelo estándar, a las que daba masa. Pero no era así. La idea de las supercompañeras, unas partículas capaces de anular potencialmente algunos de los efectos del campo de Higgs y producir un bosón de Higgs más ligero, permitió a los científicos abordar ese problema. También les permitió descubrir que puede que tres de las cuatro fuerzas de la naturaleza (es decir, el electromagnetismo, la fuerza fuerte y la débil) existieran con las mismas energías en el Big Bang, un paso crucial hacia la unificación de esas fuerzas en una Gran Teoría Unificada.

 Teoría de las supercuerdas

Juntas, la teoría de cuerdas y la supersimetría dieron lugar a la teoría de las supercuerdas, en la que todos los fermiones y bosones y sus partículas supercompañeras son resultado de cuerdas vibrantes de energía. En la década de 1980, el estadounidense John Schwarz y el británico Michael Green desarrollaron la idea de que las partículas elementales como electrones y quarks son las manifestaciones exteriores de «cuerdas» vibrando en la escala de la gravedad cuántica.

Así como las diferentes vibraciones de la cuerda de un violín producen diferentes notas, propiedades como la masa son el resultado de diferentes vibraciones del mismo tipo de cuerda. Un electrón es un segmento de cuerda que vibra de cierta manera, mientras que un quark es un segmento idéntico de cuerda que vibra de una manera diferente Schwarz y Green observaron que la teoría de cuerdas predecía una partícula sin masa similar al hipotético gravitón. La existencia de semejante partícula podría explicar por qué la gravedad es tan débil en comparación con las otras tres fuerzas, pues los gravitones entrarían y saldrían de la decena aproximada de dimensiones requeridas por la teoría de cuerdas. Así, apareció por fin algo que Einstein buscó mucho tiempo, una teoría capaz de describirlo todo en el universo, una «teoría del todo».

Una teoría unificadora

Los físicos en busca de una teoría que lo englobe todo encuentran problemas cuando se enfrentan a los agujeros negros, donde la teoría de la relatividad general se une a la mecánica cuántica tratando de explicar lo que pasa cuando una cantidad inmensa de materia se ve comprimida en un espacio muy reducido. Según la relatividad general, cabría decir que el núcleo de un agujero negro (su singularidad) tiene esencialmente un tamaño cero. Sin embargo, según la mecánica cuántica, eso es imposible porque nada puede ser infinitamente pequeño. De acuerdo con el principio de incertidumbre concebido por el alemán Werner Heisenberg en 1927, no es posible llegar a niveles infinitamente pequeños porque una partícula siempre puede existir en múltiples estados. Teorías cuánticas fundamentales como la superposición y el entrelazamiento también determinan que las partículas pueden estar en dos estados a la vez. Tienen que producir un campo gravitatorio, lo cual sería coherente con la relatividad general, pero no parece ser así según la teoría cuántica.

Si la teoría de las supercuerdas pudiera resolver algunos de esos problemas, se convertiría en la teoría unificadora que buscan los físicos. Sería posible demostrarla haciendo colisionar partículas. Algunos científicos creen que, a energías más elevadas, quizá se vean gravitones disolviéndose en otras dimensiones, lo cual supondría una prueba fundamental en favor de la teoría.

Desenredar la idea

 

Imagen que contiene verde, gato

El contenido generado por IA puede ser incorrecto.


Las paredes del observatorio de neutrinos Super-Kamiokande están cubiertas de fotomultiplicadores para detectar la luz emitida por los neutrinos que interactúen con el agua del tanque.

Algunos científicos, como el estadounidense Sheldon Glashow, creen que la investigación en teoría de cuerdas es inútil porque nadie podrá demostrar nunca si las cuerdas que describe existen. Tratan de energías tan elevadas (más allá de la medida llamada energía de Planck) que nos resulta imposible detectarlas, y puede que siga resultando imposible en el futuro inmediato. Nuestra incapacidad de diseñar un experimento que ponga a prueba la teoría de cuerdas llevó a algunos científicos como Glashow a preguntarse si es en realidad una teoría científica. Hay quienes disienten y señalan que hay en marcha experimentos que intentan encontrar algunos de esos efectos y proporcionar una respuesta. El experimento Super-Kamiokande, en Japón, por ejemplo, podría demostrar aspectos de la teoría de cuerdas estudiando la desintegración del protón (la teorizada desintegración de un protón a lo largo de escalas temporales extremadamente largas), un fenómeno predicho por la supersimetría.

La teoría de las supercuerdas puede explicar gran parte del universo desconocido –por ejemplo, por qué el bosón de Higgs es tan ligero y por qué la gravedad es tan débil–, y quizá pueda explicar la naturaleza de la energía oscura y la materia oscura. Algunos científicos creen incluso que la teoría de cuerdas podría proporcionar información sobre el destino del universo, y si seguirá o no expandiéndose de modo indefinido.

 

Un fotón ha retrocedido en el tiempo

https://wolksoftcr.com/como-en-fisica-cuantica-estan-logrando-lo-que-hasta-ahora-parecia-imposible-revertir-el-tiempo/

La frontera entre la ciencia y la ciencia ficción es en ocasiones casi imperceptible. Y se lo debemos, cómo no, a nuestra cada vez más precisa comprensión del mundo en el que vivimos. Ese mundo macroscópico que podemos ver con nuestros ojos y en el que los procesos parecen discurrir en un único sentido en el tiempo: del presente hacia el futuro.

Estamos tan íntimamente acostumbrados a observar este fenómeno que nos resulta muy difícil aceptar la posibilidad de revertir un proceso en el tiempo. De recuperarlo tal y como era antes de haber sufrido algún cambio que podríamos considerar permanente. Pero no es imposible. La física cuántica acaba de demostrarnos que es factible tanto en el ámbito teórico como en el práctico.

La física cuántica y nuestra intuición están, una vez más, a punto de chocar

Nuestra intuición nos invita a concluir que la irreversibilidad de los procesos es una ley fundamental. Y el segundo principio de la termodinámica nos da la razón. Se puede formular de muchas maneras diferentes, pero todas ellas, si son correctas, nos invitan a concluir que los fenómenos físicos son irreversibles.

Si colocamos un recipiente con agua muy caliente en la encimera de nuestra cocina y no hacemos nada con él, el agua se enfriará. Y si se nos cae un vaso y estalla al golpearse con el suelo, no volverá a recomponerse por sí solo. Precisamente el intercambio de calor y la entropía son dos propiedades íntimamente ligadas al segundo principio de la termodinámica.

 

Imagen que contiene objeto, reloj de arena, interior, tabla

El contenido generado por IA puede ser incorrecto.

 

La entropía suele definirse como la magnitud que mide el grado de desorden de un sistema físico. Es una simplificación quizá excesiva, pero puede ayudarnos a entender de qué estamos hablando sin que nos veamos obligados a recurrir a conceptos complejos. En cualquier caso, este principio termodinámico es de naturaleza estadística, y, además, la física clásica es determinista.

Esto significa que es posible predecir la evolución de un sistema físico a lo largo del tiempo si conocemos su estado inicial y las ecuaciones diferenciales que describen su comportamiento. Sin embargo, en el dominio de la física cuántica, en el mundo de lo muy pequeño, de las partículas, la reversibilidad de los procesos físicos es posible. Lo es desde un punto de vista teórico desde hace mucho tiempo, y ahora lo es también en la práctica.

La física cuántica lo permite: un fotón ha retrocedido en el tiempo

Los físicos coquetean con la posibilidad de revertir procesos en el tiempo desde hace muchos años. De hecho, algunos teóricos trabajan en unas herramientas muy peculiares que la mecánica cuántica ha colocado en sus manos: los protocolos de reversión o rebobinado universal. No necesitamos conocer con detalle cómo funcionan estos mecanismos, pero nos viene de perlas saber que sirven para revertir los cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado inicial. Y sin saber tampoco en qué consistieron esos cambios.

Los protocolos de reversión universal sirven para revertir los cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado inicial

Casi parece magia, pero no lo es. Es ciencia. Y, precisamente, el físico teórico español Miguel Navascués lidera un equipo de investigación en el Instituto de Óptica Cuántica e Información Cuántica de la Academia de las Ciencias de Austria experto en esta disciplina. Miguel y sus colaboradores han diseñado un innovador protocolo teórico de reversión que propone, a grandes rasgos, qué procedimiento es posible utilizar para conseguir que un sistema cuántico recupere su estado inicial sin conocer qué cambios ha sufrido.

Llevar algo así a la práctica no es nada sencillo, lo que ha provocado que los físicos experimentales que trabajan en esta área no hayan tenido demasiado éxito. Afortunadamente, el panorama ha cambiado. Y es que el equipo de físicos experimentales de la Universidad de Viena dirigido por Philip Walther ha conseguido implementar con éxito el protocolo de reversión universal diseñado por Miguel Navascués y su equipo.

El corazón de su experimento es un sofisticado equipo óptico constituido por varios interferómetros y enlaces de fibra óptica que se comportan de forma conjunta como un interruptor cuántico. Conocer con detalle cómo funciona este ingenio queda fuera del propósito de este artículo porque, como podemos intuir, su complejidad es extraordinaria. Aun así, quien no se deje intimidar fácilmente y tenga curiosidad puede consultar el artículo que han publicado Navascués, Walther y sus equipos en la revista Optica. Merece mucho la pena.

El corazón de su experimento es un sofisticado equipo óptico constituido por varios interferómetros y enlaces de fibra óptica que se comportan de forma conjunta como un interruptor cuántico

Un apunte antes de seguir adelante: un interferómetro es un dispositivo óptico que emplea una fuente de luz (habitualmente un láser) para medir con muchísima precisión los cambios introducidos en un sistema físico. Descrito de esta forma parece algo muy complicado, y sí, es complicado, pero podemos recurrir a un ejemplo cercano en el tiempo para ilustrar de qué estamos hablando.

Los experimentos LIGO, en Estados Unidos, y Virgo, en Italia, utilizados para identificar y analizar ondas gravitacionales son interferómetros. Y, como acabamos de ver, ambos incorporan un sofisticado equipo óptico y un láser que les permite medir las perturbaciones gravitatorias generadas por los objetos masivos del cosmos que están sometidos a una cierta aceleración. Estas perturbaciones se propagan por el continuo espacio-tiempo a la velocidad de la luz bajo la forma de ondas, y los interferómetros las recogen.

De alguna forma el interruptor cuántico que han construido los equipos de Navascués y Walther es parecido a LIGO o Virgo, pero a una escala infinitamente menor debido a que su propósito es identificar y medir los cambios introducidos en un sistema cuántico. Lo que han conseguido es asombroso: han revertido con éxito la evolución en el tiempo de un fotón sin conocer previamente ni su estado inicial ni qué cambios había experimentado. En la práctica es lo mismo que viajar hacia atrás en el tiempo.

 

Imagen de la pantalla de un celular con letras

El contenido generado por IA puede ser incorrecto.


 Este esquema describe el ingenioso equipo óptico diseñado por los investigadores de la Universidad de Viena y el Instituto de Óptica Cuántica e Información Cuántica de la Academia de las Ciencias de Austria.

Parece razonable pensar que conseguir esto con una sola partícula, con un fotón, no es demasiado interesante, pero nada más lejos de la realidad. El resultado que han obtenido estos investigadores, que ya ha sido revisado por pares, es extraordinario porque abre de par en par las puertas que probablemente van a permitirnos entender mucho mejor las reglas que subyacen en el mundo en el que vivimos. Las reglas, en definitiva, de la mecánica cuántica.

Lo que permite a este experimento desmarcarse de otros anteriores que también pretendían demostrar la posibilidad de revertir el estado de un sistema cuántico es que el protocolo de reversión universal de Navascués y Walther ha conseguido hacerlo sin tener ningún tipo de información previa acerca del estado del sistema cuántico. Podemos verlo como si hubiesen conseguido recomponer a la perfección un jarrón de porcelana sin conocer el número de fragmentos que tenían inicialmente, su forma, y mucho menos que pertenecían a un jarrón y eran de porcelana.

En las conclusiones de su artículo estos investigadores insisten en algo muy importante: los resultados que han obtenido no son válidos únicamente en los sistemas cuánticos de naturaleza fotónica, que son los que trabajan con luz; son coherentes con otros sistemas cuánticos. Por esta razón, las aplicaciones de esta tecnología pueden ser muy numerosas, especialmente en el ámbito de la computación cuántica.

Y es que los protocolos de reversión universal pueden en teoría ser utilizados para resolver uno de los mayores desafíos que plantean actualmente los ordenadores cuánticos: la corrección de errores. De hecho, este es probablemente el muro más alto que los investigadores en computación cuántica tendrán que derribar para conseguir que los ordenadores cuánticos sean capaces de resolver los tipos de problemas complejos en los que en teoría son muy superiores a los superordenadores clásicos.

 

Modelo Cosmológico Lambda-CDM (Cold Dark Matter)

https://es.wikipedia.org/wiki/Modelo_Lambda-CDM

En cosmología, el modelo Lambda-CDM o ΛCDM (del inglésLambda-Cold Dark Matter) representa el modelo de concordancia del Big Bang que explica las observaciones cósmicas de la radiación de fondo de microondas, así como la estructura a gran escala del universo y las observaciones realizadas de supernovas, arrojando luz sobre la explicación de la aceleración de la expansión del Universo. Es el modelo conocido más simple que está de acuerdo con todas las observaciones.

  • Λ (lambda) indica la constante cosmológica como parte de un término de la energía oscura que permite conocer el valor actual de la expansión acelerada del Universo que se inició hace unos 6 mil millones de años.1La constante cosmológica se describe en términos de , la fracción de densidad de energía de un universo plano. En la actualidad,  0.70, lo que implica que equivale al 70% de la densidad de energía del presente universo.
  • La materia oscura fría es el modelo de materia oscura en el que la velocidad de sus partículas es muy inferior a la velocidad de la luz, de ahí el adjetivo "fría". La materia oscura fría es no-bariónica, a diferencia de la materia bariónica normal con la que no interacciona excepto mediante la gravedad. Este componente constituye el 26% de la densidad de la energía del actual universo. El 4% restante es toda la materia y energía (materia bariónica), que componen los átomos y los fotones que son los bloques que construyen los planetas, las estrellas y las nubes de gas en el universo.
  • El modelo supone un espectro de casi invariancia de escala de perturbaciones primordiales y un universo sin curvatura espacial. También asume que no tiene ninguna topología observable, de modo que el universo es mucho más grande que el horizonte observable de la partícula. Se dan predicciones de inflación cósmica.

El modelo asume que la Relatividad General es la teoría correcta de la gravedad a escalas cosmológicas. Es frecuentemente nombrado como el modelo estándar de la cosmología del Big Bang, porque es el modelo más simple que proporciona una explicación razonablemente buena de las siguientes propiedades del cosmos:

  • La existencia y estructura del fondo cósmico de microondas
  • La estructura a gran escala de la distribución de galaxias
  • Las abundancias de hidrógeno (incluyendo deuterio), helio y litio
  • La expansión acelerada del universo observado en distantes galaxias y supernovas

El modelo ΛCDM se ha simulado con éxito en superordenadores: partiendo de la composición que tenía el Universo (átomos de hidrógeno, helio, litio, etc, fotones, neutrinos,… transcurridos 11.5 millones de años después del Big-Bang, la simulación forma estrellas, galaxias y estructuras de cúmulos y supercúmulos de galaxias muy similares a los objetos reales que observamos en el firmamento2El modelo ΛCDM se puede ampliar añadiendo la inflación cosmológica, la quintaesencia y otros elementos que son áreas actuales de estudio e investigación en Cosmología.

 

Tipos de partículas virtuales

https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual

Bosones virtuales

En el modelo estándar, las fuerzas fundamentales están transmitidas por los bosones de gauge. Cuando estos bosones transmiten las fuerzas son partículas virtuales, y son creados en el vacío. Incluso en el vacío más perfecto, ya sea el que se cree en un laboratorio, el espacio intergaláctico, o el vacío interatómico, son creados continuamente bosones de gauge con una existencia extremadamente breve. La mecánica cuántica predice que la energía del vacío nunca puede llegar a ser cero. La energía menor posible del vacío se llama energía del punto cero, y es precisamente esta poca (aunque no nula) energía la de las partículas virtuales. Este modelo del vacío se llama vacío cuántico.

La transmisión de las fuerzas entre las distintas cargas de cada interacción está descrita por la teoría cuántica de campos, que describe cómo los bosones de gauge virtuales se transmiten a través del vacío polarizado entre las cargas reales.3Algunos de estos bosones también se presentan como partículas reales en distintos fenómenos:

Pero una cuestión aún a resolver es saber si todos los bosones de gauge sin masa que existen, incluidos los que arriba se exponen como reales, son al fin y al cabo virtuales. Estas partículas se mueven a la velocidad de la luz, y por tanto, atendiendo a la teoría de la relatividad de Albert Einstein, el tiempo que tardan en propagarse entre dos puntos cualesquiera del universo es instantáneo desde el punto de vista de las partículas. Entonces, al ser el tiempo de emisión y absorción instantáneo, ¿serían virtuales?

Pares virtuales de partícula-antipartícula

No solo surgen bosones de gauge en el vacío cuántico, sino también pares partícula-antipartícula; como por ejemplo pares electrón-positrón, o pares quark arriba-antiquark arriba, etc.

Siempre debe crearse una partícula con su antipartícula, conservándose así el número leptónico o bariónico (dos números cuánticos) del universo. Las partículas que surgen de este modo son virtuales porque en cuanto aparecen, tienen tan poca energía que al instante se aniquilan entre sí.

Estos pares virtuales se usan como un esquema explicativo para justificar que la energía del punto cero del vacío no es estrictamente nula. Además la radiación de Hawking puede recibir una explicación intuitiva en términos de la creación de estos pares virtuales de partícula-antipartícula.

 

Experimento de la doble rendija explicado por las nubes de los fotones virtuales

 https://www.gsjournal.net/Science-Journals/Research%20Papers-Mechanics%20/%20Electrodynamics/Download/748

Interpretación del experimento de la doble rendija

Para esta interpretación, consideraremos las partículas como los vehículos (los transmisores) de la energía, pero siendo estas partículas indetectables de por sí (no pueden interactuar directamente con nada). Las interacciones no son provocadas por la partícula en sí sino por los portadores de fuerza que emite (generalmente los fotones virtuales). Cuando un detector detecta un electrón, realmente no lo “toca”, ni siquiera lo “ve”, sino que interactúa con su campo electromagnético (con sus fotones virtuales). El electrón está emitiendo continuamente una nube de fotones virtuales que le rodea. La distribución de estos fotones está definida por una función de onda. El detector no interactúa con el electrón mismo, sino con su nube de fotones virtuales. Cuando el electrón pasa por una rendija, toda su nube de fotones pasa por las dos rendijas así que interfiere consigo misma y se distribuye según el patrón de interferencia. Para que uno de estos fotones interactúe con la pantalla, la energía del electrón debe ser usada en ese punto –si no se usa esa energía sencillamente no habría interacción-. Si una vez hecha una interacción por un fotón con la pantalla, otro fotón intentara interactuar con la pantalla otra vez, no habría interacción ya que no habría más energía que permitiera que esa interacción ocurriera. Así que, cada vez que enviamos un electrón, la pantalla mostrará sólo un punto, pero el patrón total se definirá por la posibilidad de interacción (esto es, por la distribución de la nube de fotones, una vez ha pasado por las dos rendijas, es decir, por el patrón de interferencia). Esto significa que el electrón, la partícula indetectable (pero transmisor de la energía), podría pasar sólo por una rendija –o quizás no, realmente no nos importa- pero sus posibilidades de ser detectado pasan realmente por ambas rendijas (en forma de una nube de fotones que interfiere consigo misma).

 

Principio de incertidumbre de Heisenberg para la energía-tiempo

https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

 


Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de indeterminación es también la utilizada para estudiar el concepto de energía del vacío.

 

Dualidad onda-partícula, Postulado de Louis de Broglie y longitudes de onda de un electrón y de una pelota de beisbol

https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo

La dualidad onda-corpúsculo, también llamada dualidad onda-partícula es un fenómeno cuántico, bien comprobado empíricamente, por el cual muchas partículas pueden exhibir comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros experimentos. Dado ese comportamiento dual, es típico de los objetos mecanocúanticos, donde algunas partículas pueden presentar interacciones muy localizadas y como ondas exhiben el fenómeno de la interferencia.

De acuerdo con la física clásica existen diferencias claras entre onda y partícula. Una partícula tiene una posición definida en el espacio y tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa nula.

Actualmente se considera que la dualidad onda-partícula es un “concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa”. (Stephen Hawking2001)

Este es un hecho comprobado experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de Broglie, físico francés de principios del siglo xx. En 1924 en su tesis doctoral, inspirada en experimentos sobre la difracción de electrones, propuso la existencia de ondas de materia, es decir que toda materia tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con que la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó gran interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias de producirse. Sin embargo, Einstein reconoció su importancia y cinco años después, en 1929, De Broglie recibió el Nobel en Física por su trabajo.

Su trabajo decía que la longitud de onda  de la onda asociada a la materia era:

 

Longitudes de onda del electrón y de una pelota de beisbol:

http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html

 

Texto

El contenido generado por IA puede ser incorrecto.


Si se explora los valores de la longitud de onda de los objetos macroscópicos ordinarios como pelotas de béisbol, se encontrará que sus longitudes de onda de DeBroglie son ridículamente pequeñas. La comparación de la potencia de diez para la longitud de onda, mostrará que las longitudes de onda de los objetos ordinarios son mucho más pequeñas que un núcleo. La implicación es que para los objetos ordinarios, nunca se verá ninguna evidencia de su naturaleza ondulatoria, y para todos los fines prácticos pueden considerarse como partículas.

 

Ecuación de onda de Schroedinger, aplicada al caso de un túnel cuántico

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

Ecuación de onda de Schroedinger:

 

Texto

El contenido generado por IA puede ser incorrecto.


Ecuación de onda de Schroedinger para cada una de las tres regiones:

 

Texto, Carta

El contenido generado por IA puede ser incorrecto.

 

Diagrama

El contenido generado por IA puede ser incorrecto.

 

Soluciones de las funciones de onda en las regiones i y III:

 

Imagen que contiene Logotipo

El contenido generado por IA puede ser incorrecto.

 

Es una expresión oscilatoria: son ondas

Solución en la región II:

Texto, Carta

El contenido generado por IA puede ser incorrecto.

 

No es una expresión oscilatoria

 

La entropía de Shannon

https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/

La entropía de Shannon, un concepto fundamental en la teoría de la información, cuantifica la incertidumbre o aleatoriedad en un conjunto de resultados posibles. Desarrollada por Claude Shannon en su innovador artículo de 1948, “Una teoría matemática de la comunicación”, esta medida proporciona un marco matemático para comprender el contenido de la información. En esencia, la entropía de Shannon ayuda a determinar la cantidad promedio de información producida por una fuente estocástica de datos. Cuanto mayor sea la entropía, mayor será la incertidumbre y más información se necesitará para describir el estado del sistema.

Matemáticamente, la entropía de Shannon (H) se define mediante la fórmula:

H(X) = -Σ p(x) log₂ p(x),

donde p(x) representa la probabilidad de ocurrencia de cada resultado posible x en una variable aleatoria X. La suma se realiza sobre todos los resultados posibles. Esta fórmula revela que la entropía se maximiza cuando todos los resultados son igualmente probables, lo que indica una incertidumbre máxima. Por el contrario, si un resultado es seguro, la entropía es cero, lo que refleja que no hay incertidumbre. Esta representación matemática es crucial para varias aplicaciones en análisis de los datos, criptografía y aprendizaje automático.

En el contexto de la compresión de datos, la entropía de Shannon juega un papel fundamental en la determinación de los límites teóricos de la compresibilidad. La entropía de una fuente de datos indica el número mínimo de bits necesarios para codificar la información sin perder ningún contenido. Los algoritmos de compresión, como la codificación de Huffman y la codificación aritmética, aprovechan los principios de Shannon para reducir el tamaño de los archivos de datos y al mismo tiempo preservar la información esencial. Comprender la entropía de un conjunto de datos permite a los ingenieros de datos optimizar el almacenamiento y la transmisión, lo que lo convierte en una consideración crítica en las aplicaciones de big data.

 

Evolución de las mutaciones del virus del Covid para reducir su entropía, según un estudio de Vopson:

https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics

 

 

Hallazgo en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad similar a los "cambios de fase" estudiados en física

https://www.muyinteresante.com/ciencia/hallazgo-adn-salto-matematico-vida-complejidad-cambio-fase.html

 

 

En el contexto del artículo científico sobre el origen de la célula eucariota, se propone que la evolución genética enfrentó una situación similar: encontrar nuevas proteínas útiles se volvió tan complejo que solo un cambio en el “algoritmo” de búsqueda —la incorporación de secuencias no codificantes— permitió seguir avanzando.

 

 

 

Un nuevo estudio sobre el origen de la célula eucariota sugiere que, en la evolución genética, los genes crecieron hasta un punto crítico en el que ya no era viable seguir aumentando el tamaño de las proteínas que producían. Esa tensión estructural marcó un límite que obligó a cambiar de estrategia.

En lugar de colapsar, la evolución reorganizó el sistema. Así como en física nuclear ciertos núcleos logran mantenerse estables incorporando nuevos patrones de enlace o adoptando otras configuraciones, la genética superó su propio límite incorporando secuencias no codificantes, como los intrones, y creando nuevas formas de regulación. El resultado no fue el caos, sino una transición hacia una mayor complejidad. Igual que un átomo puede ganar estabilidad con una nueva arquitectura nuclear, el ADN encontró un camino evolutivo más robusto mediante una reestructuración profunda. El hallazgo conecta de manera elegante biología y física, mostrando que los límites estructurales también impulsan la innovación en la naturaleza.

 

 

¿Y si la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una simulación

https://wwwhatsnew.com/2025/05/05/y-si-la-gravedad-fuera-un-algoritmo-una-sorprendente-teoria-sobre-vivir-en-una-simulacion/

Un físico británico propone una idea tan provocadora como fascinante: la gravedad no sería una fuerza física, sino una herramienta de optimización de datos… como si el universo fuera una simulación

El universo como una especie de superordenador

Melvin Vopson, físico de la Universidad de Portsmouth, ha presentado una nueva interpretación del funcionamiento del universo. Según su estudio más reciente, la gravedad podría ser el resultado de un proceso de compresión de información, no una atracción invisible entre cuerpos con masa.

Es decir, el universo actuaría como una especie de “ordenador cósmico” que busca la eficiencia al manejar la enorme cantidad de datos que contiene. Si eso suena a ciencia ficción, es porque lo es… pero también tiene bases científicas intrigantes.

Gravedad como función de eficiencia

Vopson sostiene que la gravedad no está “jalando” cosas entre sí, como aprendimos en la escuela. En cambio, lo que hace es “empaquetar información” para organizar la materia de la forma más eficiente posible. Es como cuando comprimimos archivos en un .zip para que ocupen menos espacio en el disco duro: reducimos el desorden y mantenemos todo más compacto.

En esta visión, la gravedad sería una especie de algoritmo que minimiza el “peso informático” del universo, simplificando la forma en que la materia se distribuye en el espacio. La razón por la que los planetas, las estrellas y nosotros mismos estamos formados por bloques cohesivos de materia no sería solo una consecuencia de la masa, sino una decisión del sistema para optimizar el procesamiento de datos.

¿Pixeles en el espacio-tiempo?

Esta teoría se apoya en una idea aún más radical: que el espacio-tiempo estaría compuesto por unidades discretas, como si fueran píxeles en una pantalla. Cada una de estas unidades sería binaria: estarían “encendidas” o “apagadas”, dependiendo de si contienen materia o no. Tal como ocurre con los bits en un ordenador, que solo pueden tener dos estados, estas unidades formarían la base fundamental de la realidad.

Así, cuando varios objetos o partículas ocupan el mismo espacio, el “sistema” (el universo) opta por agruparlos como un solo bloque, reduciendo la complejidad computacional. Es decir, si dos partículas están demasiado cerca, la gravedad las “fusiona” en un objeto mayor, lo que es más simple de procesar que muchas partículas sueltas. Un truco de eficiencia digital.

De la entropía térmica a la “infodinámica”

Uno de los pilares de la física clásica es la segunda ley de la termodinámica, que dice que la entropía siempre tiende a aumentar. Es la razón por la que las cosas se desordenan con el tiempo, por la que el hielo se derrite o una habitación se ensucia si no la limpias.

Vopson propone un giro: la segunda ley de la infodinámica. En lugar de asumir que la información se desordena, sugiere que puede tender al orden si eso beneficia al sistema. En otras palabras, el universo buscaría reducir la entropía informativa, justo al revés que con la energía.

Este comportamiento se parece más al de una simulación que al de un sistema físico clásico. En los videojuegos, por ejemplo, los recursos se cargan solo cuando son necesarios. No se representa cada hoja de cada árbol, sino solo lo que el jugador ve, para reducir la carga de procesamiento. Esta lógica parece similar a la que Vopson le atribuye a la gravedad.

La información tiene masa

En investigaciones anteriores, Vopson ya había planteado otra idea audaz: la información tiene masa. Según sus cálculos, los datos que componen el universo no son simplemente conceptos abstractos, sino entidades físicas con peso propio. Un poco como ocurre con el ADN, que almacena toda la información genética en una cadena molecular tangible.

Imagina que cada partícula del universo fuera una especie de unidad de almacenamiento, como una memoria USB microscópica. Así, la realidad física sería una gran base de datos en constante reorganización, y las leyes de la física serían los algoritmos que la gestionan.

¿Estamos dentro de una simulación?

Esta teoría no prueba directamente que vivimos en una simulación. Pero ofrece una nueva lente con la cual mirar fenómenos que seguimos sin comprender del todo, como la propia gravedad. Por más que podamos medirla y predecir sus efectos con enorme precisión, seguimos sin saber por qué existe ni cómo surge.

El modelo de Vopson sugiere que la gravedad no es una causa, sino una consecuencia. Un síntoma de que el universo opera bajo reglas de procesamiento de información, igual que un videojuego necesita un motor gráfico para mostrar los objetos.

Si esta visión resulta acertada, podría ser una de las pistas más claras de que el universo no es una creación espontánea, sino una construcción lógica, basada en código.

¿Qué implicaría esto para la ciencia?

Plantear que la gravedad es un algoritmo optimizador abre puertas insospechadas. Para empezar, cambiaría radicalmente nuestra forma de entender la física. Las teorías actuales buscan unificar la gravedad con la mecánica cuántica, pero no lo han logrado aún. Esta perspectiva podría ofrecer un puente entre lo físico y lo informático.

Además, cambiaría nuestra concepción de la materia y la información. Si los datos son materia y la materia es información, entonces todo el universo podría leerse como un gigantesco libro codificado. O como un videojuego extremadamente avanzado, del que no somos más que personajes conscientes dentro de un entorno virtual muy bien diseñado.

Un debate tan filosófico como científico

Las implicaciones de esta teoría no solo tocan la física, sino también la filosofía. Si todo lo que percibimos es parte de una simulación, ¿quién la creó? ¿Y por qué? ¿Podemos salir de ella o hackearla?

Aunque estas preguntas aún están lejos de tener respuesta, lo cierto es que teorías como la de Vopson nos invitan a repensar lo que creemos saber sobre el mundo. Y eso, en sí mismo, ya es una forma valiosa de avance científico.

 

La información de los estados de un sistema cuántico no se puede perder

 https://gemini.google.com/app/2aef51477ffae076?hl=es-ES

La afirmación de que la información de los estados de un sistema cuántico no se puede perder es un pilar fundamental de la mecánica cuántica, arraigado en el principio de unitariedad. Esto significa que la evolución de un sistema cuántico es siempre reversible y determinista si se conocen todas las variables. Aquí te detallo las razones principales por las que esto se considera cierto:

1. Evolución Unitaria de los Operadores Cuánticos

La evolución temporal de un estado cuántico está gobernada por operadores unitarios. Matemáticamente, un operador unitario U satisface la condición UU†=U†U=I, donde U† es la adjunta de U y I es la matriz identidad. Esto implica varias cosas cruciales:

  • Conservación de la Norma: Los operadores unitarios conservan la "longitud" o norma de un vector de estado cuántico. Esto es esencial porque la norma de un estado cuántico representa la probabilidad total de encontrar el sistema en alguno de sus posibles estados, y esta probabilidad siempre debe ser 1 (o 100%). Si la norma cambiara, implicaría que la información se está perdiendo o creando de la nada.
  • Reversibilidad: Dado que un operador unitario tiene una inversa (U−1=U†), cualquier proceso cuántico descrito por un operador unitario es completamente reversible. Si conoces el estado final, puedes aplicar la operación inversa para recuperar el estado inicial sin ambigüedad. La pérdida de información implicaría que no podrías reconstruir el pasado a partir del presente.
  • Conservación del Producto Interno: Los operadores unitarios también conservan el producto interno entre dos estados cuánticos. Esto significa que si dos estados son distinguibles al principio, seguirán siendo distinguibles de la misma manera después de la evolución unitaria. La información sobre sus diferencias relativas se mantiene.

2. Teorema de No-Clonación

El teorema de no-clonación establece que es imposible crear una copia idéntica arbitraria de un estado cuántico desconocido. Aunque esto podría parecer contradictorio con la conservación de la información (uno podría pensar que clonar preserva la información), en realidad lo refuerza. Si se pudiera clonar un estado, se podría obtener información ilimitada sobre él, lo que abriría la puerta a la extracción de información de formas que violarían los principios cuánticos, como la incertidumbre de Heisenberg. El hecho de que no se pueda copiar perfectamente un estado implica que la información contenida en ese estado es intrínseca y no se puede duplicar sin alterar el original, protegiendo así su unicidad.

3. Entrelazamiento y Decoherencia

Aunque a menudo se confunde, la decoherencia no es una pérdida de información, sino una dispersión de la misma. Cuando un sistema cuántico interactúa con su entorno (por ejemplo, con partículas de aire o fotones), se entrelaza con ese entorno. La información sobre el estado del sistema original no desaparece, sino que se distribuye y se "esconde" en las correlaciones entre el sistema y su vasto entorno.

  • Información Distribuida: La información del estado cuántico original se vuelve inaccesible localmente porque está dispersa a través de un enorme número de grados de libertad del ambiente. Es como intentar encontrar una gota de tinta en una piscina olímpica: la tinta no desaparece, pero ya no está contenida en un solo lugar.
  • Irreversibilidad Aparente: La decoherencia hace que los estados cuánticos parezcan "colapsar" o volverse clásicos, lo que sugiere una pérdida de información. Sin embargo, esta irreversibilidad es solo aparente desde una perspectiva práctica. En principio, si pudiéramos medir y controlar todos los grados de libertad del entorno entrelazado, la información podría ser recuperada. No es una pérdida fundamental, sino una dificultad práctica de recuperación.

4. El Problema de la Información del Agujero Negro

El principio de conservación de la información es tan fundamental que ha llevado a uno de los debates más profundos en la física moderna: el problema de la información del agujero negro. Si la radiación de Hawking causa que los agujeros negros se evaporen, ¿qué sucede con la información de la materia que cayó en ellos?

  • Paradoja: Si la información se perdiera definitivamente dentro del agujero negro al desaparecer este, la mecánica cuántica (que exige la conservación de la información) estaría en conflicto directo con la relatividad general (que describe la evaporación del agujero negro).
  • Búsqueda de Soluciones: Este conflicto ha impulsado décadas de investigación y ha llevado a ideas como el "firewall" (pared de fuego) o la teoría de cuerdas, que buscan resolver la paradoja garantizando que la información, de alguna manera, escape o se preserve en la radiación saliente o en el remanente del agujero negro. El hecho de que este sea un problema tan grande subraya la importancia de la conservación de la información en la mecánica cuántica.

En síntesis, la imposibilidad de perder información en los estados cuánticos se deriva directamente de la naturaleza reversible y unitaria de la evolución cuántica, el teorema de no-clonación, y la forma en que el entrelazamiento dispersa la información en lugar de destruirla. Este principio es tan central que cualquier aparente violación (como en el caso de los agujeros negros) representa un desafío fundamental para nuestra comprensión del universo.

 

¿Cuáles son los dos pasos principales del algoritmo de Grover y cómo contribuyen al proceso de búsqueda?

https://es.eitca.org/quantum-information/eitc-qi-qif-quantum-information-fundamentals/grovers-quantum-search-algorithm/grovers-algorithm/examination-review-grovers-algorithm/what-are-the-two-main-steps-of-grovers-algorithm-and-how-do-they-contribute-to-the-search-process/

 

 

Einstein y la teoría unificada: una nueva propuesta reabre su idea más ambiciosa. Una formulación geométrica alternativa plantea que el electromagnetismo podría entenderse sin partículas ni campos, solo como curvaturas del espacio-tiempo

https://www.eldiario.es/spin/einstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html#amp_tf=De%20%251%24s&aoh=17447048300984&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.eldiario.es%2Fspin%2Feinstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html

Una formulación geométrica alternativa plantea que el electromagnetismo podría entenderse sin partículas ni campos, solo como curvaturas del espacio-tiempo

Durante décadas, Albert Einstein persiguió un sueño que nunca llegó a cumplir: unificar todas las fuerzas fundamentales en un único marco matemático. Su obsesión era la llamada teoría unificada del campo, una formulación capaz de describir tanto la gravitación como el electromagnetismo bajo una sola estructura. Esa búsqueda quedó inconclusa a su muerte, en 1955. Ahora, un estudio firmado por los físicos Jussi Lindgren y Andras Kovacspublicado en Journal of Physics: Conference Series, reabre ese camino con una propuesta que prescinde de partículas, campos y cargas, y lo reduce todo a una cuestión de geometría.

El modelo que presentan parte de una idea radical: que el electromagnetismo no requiere una entidad física separada que actúe sobre las partículas, sino que puede interpretarse como una manifestación local de la geometría del espacio-tiempo. Apoyándose en una extensión matemática de la relatividad general conocida como geometría de Weyl, los autores afirman que la carga eléctrica no es más que una compresión geométrica, una alteración en la estructura del espacio-tiempo que modifica las trayectorias de las partículas. Así, los electrones o protones no “sienten” una fuerza: simplemente siguen geodésicas —caminos naturales en ese entorno curvado— como si no existiera nada externo actuando sobre ellos.

Una reformulación del electromagnetismo desde la geometría

La propuesta implica una reformulación completa de las ecuaciones clásicas del electromagnetismo. En lugar de las conocidas ecuaciones de Maxwell, el modelo parte de un principio variacional, similar al que se usa para derivar las leyes del movimiento en física teórica. Este enfoque lleva a una serie de ecuaciones no lineales, que describen el comportamiento electromagnético como una propiedad del espacio, no como una fuerza aplicada desde fuera. Lindgren las denomina “Ecuaciones Generalizadas de Maxwell” y las considera un puente natural hacia la integración de la mecánica cuántica.

Uno de los aspectos más llamativos del estudio es su reinterpretación de la ecuación de Dirac, fundamental para describir partículas con spin, como el electrón. Según los autores, esta ecuación no necesita postular propiedades cuánticas a priori, sino que puede deducirse como una consecuencia natural del tipo de geometría que adopta el espacio-tiempo en determinadas regiones. La frecuencia asociada al movimiento ondulatorio del electrón —el fenómeno conocido como Zitterbewegung, una oscilación a la velocidad de la luz— sería, en esta visión, el origen profundo de la función de onda cuántica.

Más allá de la física clásica: efectos cuánticos desde la curvatura

El modelo también ofrece una explicación alternativa al límite clásico entre la física cuántica y la clásica. Hasta ahora, se asumía que este umbral dependía de la intensidad de los campos (el llamado límite de Schwinger). Pero en esta nueva formulación, la clave estaría en la curvatura local del universo, concretamente en la integral del potencial vectorial, que determina cuándo emergen los efectos cuánticos. Esta visión sitúa la transición entre lo clásico y lo cuántico no en una propiedad del campo, sino en la forma del espacio en sí.

Más allá de la coherencia matemática, la propuesta tiene implicaciones que podrían verificarse experimentalmente. Por ejemplo, predice la posibilidad de que partículas cargadas experimenten desviaciones sin necesidad de un campo electromagnético presente, lo que se relaciona directamente con el efecto Aharonov-Bohm, un fenómeno cuántico en el que el potencial modifica la fase de una partícula sin que haya fuerza alguna actuando sobre ella. En este marco, el espacio-tiempo deja de ser un escenario pasivo para convertirse en un medio activo, que puede alterar el comportamiento de la materia sin intervención directa.

Una teoría del todo sin partículas nuevas ni dimensiones ocultas

Los autores defienden que esta aproximación geométrica podría ofrecer una alternativa viable a otras grandes teorías unificadoras como la teoría de cuerdas, que requieren dimensiones adicionales y entidades aún no observadas. “Nuestra propuesta no necesita partículas nuevas, ni dimensiones ocultas —explica Lindgren—. Solo una forma distinta de mirar la geometría del universo”. Aun así, reconocen que se trata de un primer paso y que su modelo necesita desarrollos matemáticos más amplios y una revisión detallada de su compatibilidad con las predicciones experimentales ya conocidas.

 

El algoritmo de Grover como parte fundamental de la propia naturaleza

https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/

Cualquier ser vivo de la Tierra usa el mismo código, en el cual el ADN almacena información mediante cuatro bases de nucleótidos. Las secuencias de nucleótidos codifican información para construir proteínas a partir de un alfabeto de 20 aminoácidos.

Pero ¿por qué se trata de estos números, 4 y 20, y no otros? En 2000, solo unos años después de que Grover publicara su trabajo, el investigador del Instituto Indio de Ciencia de Bangalore, Apoorva Patel demostró que el algoritmo de Grover podía explicar estos números.

La idea de Patel está relacionada con la forma en la que el ADN se ensambla dentro de las células. En esta situación, la maquinaria molecular de cada célula debe buscar el nucleótido correcto dentro de una sopa molecular de bases. Si hay cuatro opciones, una búsqueda clásica necesitaría una media de cuatro pasos. Por lo tanto, la maquinaria tendría que probar cuatro bases diferentes durante cada paso de ensamblaje.

Pero la búsqueda cuántica mediante el algoritmo de Grover es mucho más rápida: Patel demostró que cuando hay cuatro opciones, una búsqueda cuántica puede distinguir entre cuatro alternativas en un solo paso. De hecho, cuatro es el número óptimo.

Este planteamiento también explica por qué hay 20 aminoácidos. En el ADN, cada conjunto de tres nucleótidos define un solo aminoácido. Entonces, la secuencia de tripletes genéticos es la que define la secuencia de aminoácidos en una proteína.

Pero durante el ensamblaje de proteínas, cada aminoácido es elegido entre 20 opciones diferentes. El algoritmo de Grover también explica este número: una búsqueda cuántica de tres pasos puede encontrar un objeto en una base de datos que contenga hasta 20 tipos de entrada. De nuevo, el 20 es el número óptimo.

En otras palabras, si los procesos de búsqueda involucrados en el ensamblaje de ADN y proteínas deben ser lo más eficientes posible, el número de bases existentes debe ser cuatro y el número de aminoácidos debe ser 20, exactamente tal y como es en realidad. La única condición es que las búsquedas sean de naturaleza cuántica.

Puede ser que la vida sea solo un ejemplo de la búsqueda cuántica de Grover y que este algoritmo sea en sí mismo una propiedad fundamental de la naturaleza. Si la idea se confirma, podría resultar grandiosa.

 

La Endosimbiosis como forma de cooperación entre bacterias para conseguir dos saltos clave en la evolución

https://culturacientifica.com/2024/05/06/nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis/?utm_source=rss&utm_medium=rss&utm_campaign=nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis

 

La gran bióloga Lynn Margulis propuso en 1967 que la endosimbiosis está detrás del origen de las células eucariotas. Según ella, un procariota ancestral se habría asociado con bacterias heterótrofas, es decir, capaces de oxidar la materia orgánica. Esta asociación, ocurrida hace unos 2000 millones de años, se habría consolidado, de forma que las bacterias perdieron su capacidad de vida libre y se convirtieron en las mitocondrias, los orgánulos en los que se genera la energía que necesitan nuestras células. Un segundo evento de endosimbiosis, hace 1500 millones de años, asoció a un eucariota con cianobacterias fotosintéticas, capaces de producir materia orgánica utilizando la energía de la luz. Esas bacterias terminaron por constituir orgánulos celulares, los cloroplastos. De esta forma algas y plantas verdes llegaron a ser capaces de utilizar la luz para sintetizar compuestos orgánicos.

 

Nueva teoría sobre materia oscura apunta a un "mundo espejo"

https://www.dw.com/es/nuevas-teor%C3%ADas-sobre-la-materia-oscura-apuntan-a-un-mundo-espejo/a-73562913

El mundo espejo: quarks y gluones oscuros en el universo primitivo

Su primera propuesta plantea una pregunta fascinante: ¿y si existiera una especie de "mundo espejo" dentro de nuestro propio universo? No se trata de ciencia ficción ni de un mundo espejo visual, sino de una teoría basada en la cromodinámica cuántica (QCD), la misma física bien establecida que explica cómo se mantienen unidos los protones y neutrones en los átomos.

En este sector hipotético, habría versiones "oscuras" de las partículas fundamentales: quarks oscuros y gluones oscuros que se combinan para formar partículas más pesadas. Durante los primeros segundos del universo, cuando las condiciones eran extremas, estas partículas podrían haberse vuelto tan densas que colapsaron bajo su propio peso, formando objetos minúsculos similares a agujeros negros.

Estos objetos serían perfectamente invisibles para nuestros detectores, interactuando con la materia normal únicamente a través de la gravedad. Pero si existieran en suficiente cantidad, podrían explicar perfectamente todos los efectos gravitacionales que atribuimos a la materia oscura.

El artículo plantea que estos objetos serían apenas unas pocas veces más masivos que la llamada masa de Planck, un umbral fundamental en física. Su atractivo radica en que no requieren física nueva, sino una prolongación especular de la que ya conocemos.

"Residuo" cuántico: materia oscura desde el horizonte cósmico

El segundo estudio de Profumo toma una ruta aún más abstracta. Esta vez, el origen de la materia oscura no sería un reflejo, sino una especie de "residuo" cuántico del propio universo en expansión.

La idea se inspira en la radiación de Hawking, que predice que los agujeros negros pueden emitir partículas en su horizonte de sucesos debido a efectos cuánticos. Profumo plantea un escenario similar para el horizonte cósmico, el límite del universo observable. Durante una breve, pero intensa fase de expansión acelerada justo después del big bang (no tan violenta como la inflación, pero sí significativa), el universo podría haber generado partículas de materia oscura a partir de fluctuaciones cuánticas.

Estas partículas no necesitarían interactuar con nada más, excepto con la gravedad. Lo único imprescindible sería que fueran estables y lo bastante numerosas. Como explica Profumo en el comunicado, ambos mecanismos –el espejo oscuro y el horizonte cósmico– son "muy especulativos", pero tienen una gran virtud: no dependen de los modelos tradicionales de materia oscura de partículas, cada vez más presionados por la falta de evidencias.

 

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia.html

Pero, ¿qué es la gravedad? ¿Como actúa a distancia, de dónde obtiene la energía para tirar al suelo una simple fruta? ¿Por qué unas cosas pesan más que otras? La respuesta aceptada es que existe un campo, el llamado campo de Higgs, que permea el espacio-tiempo y que, al interaccionar con la materia, le proporciona a las partículas su masa. Es decir, algo totalmente cotidiano y evidente, la propia existencia de la gravedad, depende de algo invisible, difícil de comprender y muy lejos de ser evidente. Tan es así que la existencia del bosón de Higgs , la partícula que genera el campo del mismo nombre, solo se pudo constatar hace seis años.

Y esto es solo una ínfima parte del enorme desafío que es comprender el funcionamiento de lo que nos rodea. De hecho, en la actualidad se desconoce la naturaleza del 95 por ciento del Universo . La materia visible, que forma estrellas, planetas y nubes de polvo y gas, no explica cómo las galaxias giran tan rápido como lo hacen sin deshacerse. Debe de existir algo invisible que las mantiene unidas, gracias a la gravedad: quizás la llamada materia oscura. Por otro lado, la materia visible tampoco explica por qué existe una misteriosa fuerza repulsiva que separa el espacio-tiempo y expande el Universo, con más aceleración cuanto más disperso está. Debe de existir algo que lo separa todo: podría ser la llamada energía oscura. Pero, ¿de dónde surgen estos fenómenos? Si algo tan natural como la gravedad que sentimos tiene una base tan extraña, ¿qué podemos esperar de estos fenómenos oscuros que no tenemos ni idea de cómo son?

Hasta el momento, no ha habido forma de detectar ni una traza de la fracción oscura del Universo, y no es de extrañar que haya cientos de investigadores devanándose los sesos por ello. Ahora, un grupo de científicos de la universidad de Oxford (Reino Unido) acaba de publicar un artículo en la revista Astronomy and Astrophysics donde propone una explicación, basada en modelos matemáticos que son capaces de reproducir parcialmente nuestro Universo, y que unifican tanto la materia como la energía oscuras . Su propuesta consiste en sugerir la existencia de la masa negativa , una exótica forma de materia que se caracteriza por alejar a la masa de su alrededor. Si las masas se atraen entre sí gracias a la gravedad, ¿por qué no puede ocurrir lo contrario? ¿Podría ser que el Universo fuera simétrico y hubiera masas positivas y negativas?

«Parece que un simple signo negativo podría solucionar dos de los mayores problemas de la Física », ha explicado a ABC Jamie Farnes , primer autor del estudio. «Nuestra teoría parece no solo explicar la materia oscura, sino que también obtenemos una posible solución para la energía oscura».

En primer lugar, ¿cómo sería esta masa negativa? Según el autor, sería «extraña y peculiar para nosotros, porque vivimos en una región del espacio dominada por la materia positiva». De hecho, aventura que tendría una exótica propiedad: «Si empujaras una masa negativa, ¡esta iría hacia ti!».

La repulsión que une galaxias

El investigador ha recordado que el callejón sin salida de la materia y la energía oscuras, que es resultado de no poder explicar lo que vemos en el Universo con nuestras teorías, ha llevado a algunos científicos a coger el camino de en medio. Algunos trabajan en una «gravedad modificada» que se comporta de una forma distinta en las grandes escalas y otros han creado el concepto del «fluido oscuro», una exótica forma de materia que combinan algunas de las propiedades de la energía y la materia oscuras. ¿Es por esto por lo que el Universo se expande tan rápido? ¿O el motivo por el que se mantienen unidas las galaxias? ¿Que no lo veamos indica que no existe?

Responder a estas preguntas puede ser una tarea demasiado ambiciosa, o no. De momento, Jamie Farnes ha elaborado un modelo matemático basado en la masa negativa que es capaz de explicar la formación de halos de materia oscura alrededor de galaxias de masa positiva.

«Mi modelo muestra que la fuerza repulsiva de los alrededores, proveniente de la masa negativa, puede mantener unida a una galaxia», ha explicado Farnes. «La gravedad de la masa positiva de la galaxia atrae la masa negativa en todas las direcciones y, a medida que esta masa negativa se acerca, ejerce una fuerza repulsiva cada vez con más fuerza que permite a la galaxia girar a gran velocidad sin salir disparada».

La fuerza que expande el espacio-tiempo

Si la masa negativa puede explicar la materia oscura, ¿puede explicar también la energía oscura y la expansión del Universo? Hasta ahora, siempre se ha rechazado esta posibilidad, porque no parece compatible con lo observado.

«Sabemos que la materia, incluyendo las partículas de masa negativa, se dispersarían más a medida que el Universo se expande. Sin embargo, las observaciones de energía oscura muestran que esta sustancia no se hace más fina con el tiempo, de hecho permanece constante durante la expansión del Universo», ha resumido Jamie Farnes.

Sin embargo, este científico ha ideado una posibilidad que acabaría con esta incompatibilidad. ¿Y si la masa negativa se genera espontáneamente? «En nuestra teoría, las partículas de masa negativa son creadas continuamente por un "tensor de creación ", de modo que se regeneran a medida que el Universo se expande. Con esta propuesta, estas masas negativas creadas continuamente parecen ser idénticas a la energía oscura». Por tanto, serían compatibles con lo observado.

El «tensor de creación»

Este científico ha detallado que este «tensor de creación» no es más que una construcción matemática, «que permite a la materia aparecer espontáneamente en la existencia, como una especie de palomita microscópica».

En su opinión, sería interesante observar si esta idea puede ser compatible con la Mecánica Cuántica, para estudiar si podría haber partículas que aparecieran espontáneamente en el vacío, o incluso para ayudar a la unificación de las incompatibles Relatividad y Mecánica Cuántica. Puede parecer inverosímil, pero, ¿no lo es también la base de una realidad tan cotidiana como la gravedad? ¿O la de los fenómenos que permiten el funcionamiento de satélites o televisiones?

Aceptando el marco propuesto por esta investigación, resultaría que la energía y la materia oscuras pueden ser unificadas en una sola sustancia, cuya naturaleza se explica sencillamente como resultado de que « la masa positiva –del Universo– surfea en un mar de masas negativas », según Farnes.

Los pasos para confirmarlo

¿Qué harán a continuación para tratar de validar esta hipótesis? El investigador ha explicado que este modelo predice que la distribución de las galaxias debería variar de una forma muy concreta en función el tiempo. Pues bien, están desarrollando herramientas para procesar los datos que obtendrá el Square Kilometre Array (SKA), un inmenso radiotelescopio con un área colectora de un millón de metros cuadrados y capaz de generar 5 millones de petabytes de información cada año, para estudiar la distribución de las galaxias, según ha dicho Farnes, «más atrás en el tiempo que ninguna otra máquina ha podido mirar».

Esto les permitirá comparar la teoría propuesta con el modelo cosmológico convencional, que no puede explicar la energía o la materia oscuras, y quizás incluso contraponera con otras teorías cosmológicas.

Todo esto no ocurrirá hasta al menos 2030, según Jamie Farnes. Sin embargo, es posible que antes de eso los experimentos Alpha-G y ATLAS, del CERN, encuentren indicios de la antimateria de masa negativa , lo que serían un importante impulso en la búsqueda de partículas de masa negativa.

 

 

 

Webs relacionadas

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.google.com/amp/s/www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia_amp.html

 

Masa negativa: Explicando el universo que no vemos

https://www.astrobitacora.com/masa-negativa-explicando-el-universo/

 

Crean un objeto con "masa negativa": va para el lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton

https://www.bbc.com/mundo/noticias-39642708

 

Nuevo modelo para unificar la materia oscura y la energía oscura en gravedad negativa

https://www.xatakaciencia.com/astronomia/nuevo-modelo-para-unificar-materia-oscura-energia-oscura-gravedad-negativa

 

Nuevos indicios de que el espacio-tiempo estaría hecho de recuerdos

https://www.msn.com/es-es/noticias/tecnologia/nuevos-indicios-de-que-el-espacio-tiempo-estar%C3%ADa-hecho-de-recuerdos/ar-AA1Hx4hb

 

La física cuántica ha llegado al rescate de los neurocientíficos. Aspira a explicar la consciencia humana

https://www.xataka.com/investigacion/fisica-cuantica-ha-llegado-al-rescate-neurocientificos-aspira-a-explicar-consciencia-humana#amp_tf=De%20%251%24s&aoh=17243638272558&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.xataka.com%2Finvestigacion%2Ffisica-cuantica-ha-llegado-al-rescate-neurocientificos-aspira-a-explicar-consciencia-humana

 

Una investigación asegura que cada célula de nuestro cuerpo podría ser consciente

https://www.infobae.com/america/ciencia-america/2024/06/21/una-investigacion-asegura-que-cada-celula-de-nuestro-cuerpo-podria-ser-consciente/

 

El cerebro estaría conectado con el cosmos a escala cuántica

https://www.tendencias21.es/El-cerebro-estaria-conectado-con-el-cosmos-a-escala-cuantica_a44304.html

 

Nueva teoría: demuestran que la gravedad puede existir sin masa

https://www.dw.com/es/la-gravedad-puede-existir-sin-masa-lo-que-cuestiona-la-existencia-de-la-hipot%C3%A9tica-materia-oscura/a-69326362

 

Crean un objeto con "masa negativa": va para el lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton

https://www.bbc.com/mundo/noticias-39642708

 

El Big Bang pudo crear un 'Universo espejo', en el que el tiempo va hacia atrás

https://www.abc.es/ciencia/abci-bang-pudo-lugar-universo-espejo-tiempo-hacia-atras-202203240033_noticia.html#amp_tf=De%20%251%24s&aoh=17269563549948&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.abc.es%2Fciencia%2Fabci-bang-pudo-lugar-universo-espejo-tiempo-hacia-atras-202203240033_noticia.html

 

«¿Por qué las cosas se caen?», una explicación de Susskind a través de «Relatividad General = Mecánica Cuántica»

https://estudiarfisica.com/2018/07/03/por-que-las-cosas-se-caen-una-explicacion-de-susskind-a-traves-de-relatividad-general-mecanica-cuantica/

 

Maldacena y Milekhin explican el agujero de gusano de la película Interstellar (2014) usando la teoría de Randall-Sundrum

https://francis.naukas.com/2020/08/18/maldacena-y-milekhin-explican-el-agujero-de-gusano-de-la-pelicula-interstellar-2014-usando-la-teoria-de-randall-sundrum/

 

Qué es la 5ª dimensión y dónde está escondida

https://www.bbc.com/mundo/noticias-44725096

 

Mecánica cuántica y cerebro: una revisión crítica

https://neurorgs.net/investigacion/mecanica-cuantica-y-cerebro-una-revision-critica/

 

¿Es relevante la mecánica cuántica para la comprensión científica del problema mente-cerebro?

https://www.unav.edu/web/ciencia-razon-y-fe/es-relevante-la-mecanica-cuantica-para-la-comprension-cientifica-del-problema-mente-cerebro

 

El efecto túnel a detalle

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

 

El principio holográfico: el más bello avance hacia la gravedad cuántica

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

 

Una nueva teoría sugiere que la gravedad surge de la entropía, lo que podría unir la relatividad y la mecánica cuántica

https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/

 

Un físico propone que la gravedad no es una fuerza real, sino la prueba de que vivimos en una gigantesca simulación informática diseñada para optimizar y comprimir la información del universo

https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html

 

Is gravity evidence of a computational universe? 

https://pubs.aip.org/aip/adv/article/15/4/045035/3345217/Is-gravity-evidence-of-a-computational-universe

 

Las dos caras del espacio-tiempo

https://culturacientifica.com/2025/07/15/las-dos-caras-del-espaciotiempo/

 

Einstein y la teoría unificada: una nueva propuesta reabre su idea más ambiciosa

https://www.eldiario.es/spin/einstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html#amp_tf=De%20%251%24s&aoh=17447048300984&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.eldiario.es%2Fspin%2Feinstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html

 

Una nueva teoría sugiere que la gravedad surge de la entropía, lo que podría unir la relatividad y la mecánica cuántica

https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/

 

Un famoso algoritmo cuántico podría ser parte de la propia naturaleza
https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/

 

Hallazgo en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad similar a los "cambios de fase" estudiados en física

https://www.muyinteresante.com/ciencia/hallazgo-adn-salto-matematico-vida-complejidad-cambio-fase.html

 

Qué es: la entropía de Shannon

https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/

 

¿Y si la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una simulación

https://wwwhatsnew.com/2025/05/05/y-si-la-gravedad-fuera-un-algoritmo-una-sorprendente-teoria-sobre-vivir-en-una-simulacion/

 

¿Cuáles son los dos pasos principales del algoritmo de Grover y cómo contribuyen al proceso de búsqueda?

https://es.eitca.org/quantum-information/eitc-qi-qif-quantum-information-fundamentals/grovers-quantum-search-algorithm/grovers-algorithm/examination-review-grovers-algorithm/what-are-the-two-main-steps-of-grovers-algorithm-and-how-do-they-contribute-to-the-search-process/

 

El principio holográfico: el más bello avance hacia la gravedad cuántica.

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

 

EUREKA La conjetura de Maldacena. De la mecanica cuántica al universo holográfico

https://diarium.usal.es/guillermo/2017/11/eureka-la-conjetura-de-maldacena-de-la-mecanica-cuantica-al-universo-holografico/

 

New theories on dark matter’s origins point to ‘mirror world’ and universe’s edge

https://news.ucsc.edu/2025/08/dark-matter-origin-theories/