Álvaro
Ballesteros
17. Agosto.
2025
Índice:
RESUMEN
1.Estamos rodeados
de un Universo de masas negativas
2.Un simple
signo negativo puede solucionar muchos de los grandes problemas de la Física
3.Ambos
Universos están entrelazados
4.El
espacio-tiempo cuántico está hecho de pixeles
5.Todos los
estados cuánticos de lo que ha ocurrido están grabados en el Universo de masas negativas
6.El
espacio-tiempo no es pasivo, está hecho de pixeles que tienen existencia/propiedades
propias
7.Los
sistemas/moléculas/virus de nuestro espacio/tiempo evolucionan de acuerdo a la
ecuación de la entropía de Shannon y la
segunda ley de la infodinámica de Vopson
8.La
inteligencia/virus usan el Algoritmo de Grover para evolucionar hacia estados
de entropía óptimos
Pies de nota
de mi planteamiento
ANEXOS
¿Y si el
Universo está flotando en un extraño océano de masa negativa?
Masa
negativa: Explicando el universo que no vemos
https://www.astrobitacora.com/masa-negativa-explicando-el-universo/
Crean un
objeto con "masa negativa": va para el lado contrario al que lo
empujas y desafía las leyes físicas de Isaac Newton
https://www.bbc.com/mundo/noticias-39642708
Nuevo
modelo para unificar la materia oscura y la energía oscura en gravedad negativa
Un físico
propone que la gravedad no es una fuerza real, sino la prueba de que vivimos en
una gigantesca simulación informática diseñada para optimizar y comprimir la
información del universo
https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html
Conjetura
de Maldacena / Correspondencia AdS/CFT: Equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con
dimensión menor por uno. Correspondencia AdS/CFT:
https://www.wikiwand.com/es/Correspondencia_AdS/CFT
El
principio holográfico: el más bello avance hacia la gravedad cuántica
El Modelo
Estándar de la Física de Partículas
https://www.i-cpan.es/es/content/el-modelo-est%C3%A1ndar-de-la-f%C3%ADsica-de-part%C3%ADculas
Agujeros
negros primordiales, MACHOs y WIMMP´s. Los agujeros negros primordiales podrían
explicar la materia oscura, el crecimiento de las galaxias y mucho más
https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales
El tiempo
corre en dos sentidos, según Julian Barbour
https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/
La
Integral de caminos de Feynman
https://culturacientifica.com/2023/04/04/integral-de-caminos/
La
Gravedad cuántica de bucles
https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles
Energía
del vacío. La mayor discordancia de la historia de la ciencia
http://www.javierdelucas.es/vaciomedir.htm
La
Ecuación de la Relatividad General de Einstein y la energía oscura
https://historiasdellean.blogspot.com/2023/04/el-entrelazamiento-cuantico-explicado.html
La
Ecuación de Dirac y la antimateria
https://significado.com/ecuacion-de-dirac/
La
Métrica de Alcubierre y la densidad de energía negativa para los viajes
superlumínicos
https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre
Los 10
pasos clave de la evolución
https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/
La Mecánica Cuántica de la fotosíntesis
http://neofronteras.com/?p=3012
Tunelaje
cuántico para conseguir la fusión nuclear en el Sol
https://triplenlace.com/2014/01/16/la-quimica-del-sol/
¿Es
nuestra consciencia cuántica?
Teoría de
cuerdas y supersimetría
http://www.nocierreslosojos.com/teoria-cuerdas/
Un fotón
ha retrocedido en el tiempo
Modelo
Cosmológico Lambda-CDM (Cold Dark Matter)
https://es.wikipedia.org/wiki/Modelo_Lambda-CDM
Principio
de incertidumbre de Heisenberg para la energía-tiempo
https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg
Tipos de
partículas virtuales
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
Experimento
de la doble rendija explicado por la interferencia de los fotones virtuales
Dualidad
onda-partícula, Postulado de Louis de Broglie y longitudes de onda de un
electrón y de una pelota de beisbol
https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo
Ecuación
de onda de Schroedinger, aplicada al caso de un túnel cuántico
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
La
entropía de Shannon
https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/
Evolución
de las mutaciones del virus del Covid para reducir su entropía, según un
estudio de Vopson:
https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics
Hallazgo
en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad
similar a los "cambios de fase" estudiados en física
¿Y si la gravedad fuera un algoritmo? Una sorprendente
teoría sobre vivir en una simulación
La información de los estados de un sistema cuántico no
se puede perder
https://gemini.google.com/app/2aef51477ffae076?hl=es-ES
¿Cuáles son los dos pasos principales del algoritmo de
Grover y cómo contribuyen al proceso de búsqueda?
Einstein y la teoría unificada: una nueva propuesta
reabre su idea más ambiciosa. Una formulación geométrica alternativa plantea
que el electromagnetismo podría entenderse sin partículas ni campos, solo como
curvaturas del espacio-tiempo
El algoritmo de Grover como parte fundamental de la
propia naturaleza
La Endosimbiosis como forma de cooperación entre
bacterias para conseguir dos saltos clave en la evolución
Nueva teoría sobre materia oscura apunta a un "mundo
espejo"
¿Y si el Universo está flotando en un extraño océano de
masa negativa?
RESUMEN
1.Estamos rodeados de un Universo de
masas negativas
2.Un simple signo
negativo puede solucionar muchos de los grandes problemas de la Física
3.Ambos Universos
están entrelazados
4.El espacio-tiempo
cuántico está hecho de pixeles
5.Todos los estados
cuánticos de lo que ha ocurrido están grabados en el Universo de masas negativas
6.El espacio-tiempo
no es pasivo, está hecho de pixeles que tienen existencia/propiedades propias
7.Los
sistemas/moléculas/virus de nuestro espacio/tiempo evolucionan de acuerdo a la
ecuación de la entropía de Shannon y la
segunda ley de la infodinámica de Vopson
8.La
inteligencia/virus usan el Algoritmo de Grover para evolucionar hacia estados
de entropía más óptimos
1.Estamos rodeados de un Universo de masas negativas
Jamie
Farnes ha elaborado un modelo matemático basado en la masa negativa que es
capaz de explicar la formación de halos de materia oscura alrededor de
galaxias de masa positiva.
«Parece
que un simple signo negativo podría solucionar dos de los mayores
problemas de la Física », ha explicado a ABC Jamie Farnes , primer autor del estudio. «Nuestra
teoría parece no solo explicar la materia oscura, sino que también obtenemos
una posible solución para la energía oscura».
En
primer lugar, ¿cómo sería esta masa negativa? Según el autor, sería «extraña y
peculiar para nosotros, porque vivimos en una región del espacio dominada por
la materia positiva». De hecho, aventura que tendría una exótica propiedad: «Si
empujaras una masa negativa, ¡esta iría hacia ti!».
«Mi
modelo muestra que la fuerza repulsiva de los alrededores, proveniente de la
masa negativa, puede mantener unida a una galaxia», ha explicado Farnes. «La
gravedad de la masa positiva de la galaxia atrae la masa negativa en todas las
direcciones y, a medida que esta masa negativa se acerca, ejerce una fuerza
repulsiva cada vez con más fuerza que permite a la galaxia girar a gran
velocidad sin salir disparada».
¿Y si
la masa negativa se genera espontáneamente? «En nuestra teoría, las
partículas de masa negativa son creadas continuamente por un "tensor de
creación ", de modo que se regeneran a medida que el Universo se
expande. Con esta propuesta, estas masas negativas creadas continuamente
parecen ser idénticas a la energía oscura». Por tanto, serían compatibles con
lo observado.
El
«tensor de creación»
Este
científico ha detallado que este «tensor de creación» no es más que una
construcción matemática, «que permite a la materia aparecer espontáneamente en
la existencia, como una especie de palomita microscópica».
En su
opinión, sería interesante observar si esta idea puede ser compatible con la
Mecánica Cuántica, para estudiar si podría haber partículas que aparecieran
espontáneamente en el vacío, o incluso para ayudar a la unificación de las
incompatibles Relatividad y Mecánica Cuántica. Puede parecer inverosímil, pero,
¿no lo es también la base de una realidad tan cotidiana como la gravedad? ¿O la
de los fenómenos que permiten el funcionamiento de satélites o televisiones?
Aceptando
el marco propuesto por esta investigación, resultaría que la energía y la
materia oscuras pueden ser unificadas en una sola sustancia, cuya naturaleza se
explica sencillamente como resultado de que « la masa positiva –del
Universo– surfea en un mar de masas negativas », según Farnes.
Jamie
Farnes sugiere que la Materia Oscura es un Universo de masas negativas que
rodea nuestro Universo de masas positivas
2.Ambos
Universos están entrelazados
Julian
Barbour propone que hay dos Universos, uno en el que el tiempo se mueve hacia
adelante, en el que el caos aumenta, y otro hacia atrás, en el que el caos disminuye
y la complejidad aumenta
Ambos
Universos están entrelazados, dado que tuvieron un origen común, para respetar
la simetría masas positivas = masas negativas
Ambos
Universos nacieron a partir de una fluctuación cuántica
De
acuerdo con la conjetura EPR = ER, donde hay entrelazamiento hay agujeros de
gusano
Ambos
Universos están conectados a través de agujeros de gusano
Esos
agujeros de gusano se abren gracias a las masas negativas del otro Universo,
según las soluciones de la Relatividad General descubiertas por Miguel
Alcubierre y Kip Thorne
La información de lo que ocurre en nuestro Universo queda
grabada en el Horizonte de Sucesos del Universo de masas negativas, de manera
similar a lo que predice el Principio Holográfico y la Conjetura de Maldacena
3.El espacio-tiempo cuántico está hecho de pixeles
El espacio-tiempo de nuestro Universo y del Universo de masas
negativas está hecho de pixeles
El Universo de masas negativas tiene como componente clave una
capa de cebolla externa que es similar al Horizonte de Sucesos de un Agujero
Negro
A cada pixel de nuestro espacio-tiempo de 3 Dimensiones le
corresponde un pixel de 2 Dimensiones en el Universo de masas negativas, según
la conjetura Maldadena
Toda la información de lo que ocurre en el espacio de tres
dimensiones de nuestro universo ordinario es almacenada en el contorno de 2
dimensiones del Horizonte de Sucesos del Universo de Materia Negativa
Cada pixel tiene la longitud de Planck: 1,6 x 10 exp -35
metros
Por debajo de la longitud de Planck aparecen los efectos de
la gravedad cuántica
Cada pixel es único y está definido por información
exclusiva de él
Por visualizar, cada pixel tiene propiedades que lo definen,
como una celda de un Excel
Los pixeles son la base para demostrar la segunda ley de la
infodinámica de Vopson
Los pixeles pueden ser la base para el cálculo integral de
posibles ecuaciones de leyes básicas del Universo, como es el caso de la ley de
Gauss del campo eléctrico, una de las ecuaciones de Maxwell del
electromagnetismo:
Realmente, la integral del flujo eléctrico se puede pensar
como integral de los campos eléctricos que hay en cada pixel de Planck
Cada pixel de Planck tiene números cuánticos propios, como
los tienen los electrones o los fotones
El número cuántico de cada pixel incluye información sobre
los objetos que contiene, por ejemplo, la posición y velocidad de la masa que
alberga o la información sobre los campos eléctrico y/o magnéticos que hay en
él
5.Todos los estados cuánticos de lo que ha ocurrido en
nuestro universo están grabados en el Universo de masas negativas
Cada pixel de nuestro Universo tiene un pixel gemelo en el
Universo gemelo hecho de masas negativas
Siguiendo este ejemplo, en ese pixel del Universo de masas
negativas quedan grabados todos los estados del campo eléctrico que ha tenido
el pixel de nuestro Universo a lo largo del tiempo
O sea, cada pixel del Universo de masas negativas guarda
trazabilidad de todo lo que le ha ocurrido a todas las partículas de nuestro
Universo de Materia Ordinaria
Así, tenemos en los pixeles de nuestro Universo de masas
negativas almacenada una gigantesca memoria cósmica
6.Los sistemas / moléculas / virus de nuestro
espacio-tiempo evolucionan de acuerdo a la ecuación de la entropía de Shannon y
de la 2º ley de la infodinámica de Vopson
-La ecuación de la entropía de Shannon: La entropía de una
fuente de datos indica el número mínimo de bits necesarios para codificar la
información sin perder ningún contenido
-La segunda ley de la infodinámica de Vopson: los sistemas /
partículas / moléculas que están en el espacio-tiempo (en las celdas de la
Excel) evolucionan hacia nuevas “formas” / mutaciones que tengan menos entropía
El Universo gemelo, donde radica toda la información de todo
lo que ha pasado en nuestro Universo, trata de optimizar su “espacio en disco”
por medio de lo que le impone la segunda ley de la infodinámica de Vopson
Si en el Horizonte de Sucesos del Universo de masas
negativas queda grabado todo lo que ha sucedido en nuestro Universo, ahí es
donde radica toda la sabiduría
Asimismo, todo lo que le ocurre ahora a una persona se está
grabando en ese Horizonte de Sucesos
Eso quiere decir que mis recuerdos y los de todo el resto de
los seres de este mundo están grabados en ese Horizonte de Sucesos
Así pues, el espacio-tiempo no es un simple escenario pasivo,
sino que es un participante activo con una capacidad enorme para almacenar y
recordar información
Cada celda cuántica de espacio-tiempo funciona como una
unidad de memoria elemental
Así pues, el espacio-tiempo no solo permite que las cosas
sucedan en él, sino que también las recuerda activamente
Las propiedades cuánticas de cualquier materia o campo que
haya en el espacio-tiempo de nuestro Universo de materia ordinaria se
"imprimen" en las celdas del horizonte de sucesos del Universo de masas
negativas
Bajo determinadas circunstancias, se puede acceder a la
información previamente codificada
De esta manera, queda preservada la ley fundamental de la
Mecánica Cuántica que dice que la información de los estados cuánticos de las
partículas definidas en el Modelo Estándar NO se puede perder
7.La
inteligencia / virus usa el Algoritmo de Grover para evolucionar hacia estados
de entropía de mayor complejidad
¿Cómo descubre la
CPU del virus cuáles son esas formas / mutaciones que tengan menos entropía?:
haciendo cálculos mediante el Algoritmo de Grover
La puntualización
clave es que el Algoritmo de Grover está diseñado para correr en ordenadores
cuánticos
¿Por qué?: porque
esa computación cuántica le permite hacer muchas más simulaciones en muy poco
tiempo, hasta que descubre la solución buscada: esa nueva mutación que tiene
menos entropía, o sea más complejidad
Esa nueva
complejidad le hace sobrevivir al virus, adaptarse a nuevos desafíos
Para que el
Algoritmo de Grover funcione de manera óptima, el “programador” / el virus ha
descubierto que la molécula de ADN tiene que tener el número 4 como nº óptimo
de bases de nucleótiodos y el nº 20 como nº óptimo de aminoácidos
Pies de nota de
mi planteamiento
La información es una entidad física,
equivalente en importancia a la equivalencia masa = energía
Principio de equivalencia masa = energía =
información
La información podría ser la elusiva Materia
Oscura
Ley de la Infodinámica: describe cómo
evoluciona la información y cómo se comporta en el Universo
La información se organiza y comprime constantemente
El universo podría estar compuesto de Q-bits de información
Los sistemas de información tienden a
reducir su nivel de entropía, es decir se ordenan o comprimen con el tiempo
Lo sistemas que gestionan información, como
el ADN, podrían estar sujetos a un principio natural que busca la eficiencia,
la compresión y la minimización del ruído
Las mutaciones de los virus tienden a
moverse hacia una optimización del código genético, reduciendo su complejidad informacional
a la vez que aumentan la eficacia del virus para replicarse y transmitirse
El ADN actúa no solo como una cadena
biológica sino como un sistema de almacenamiento de datos que sigue las leyes
de compresión similares a las utilizadas en informática
¿Cuánta información contienen una partícula
subatómica?
Un electrón podría contener 1,5 x 10 exp -30
Kg de masa como contenido informacional
Este enfoque refuerza la idea de que la
información no es meramente un fenómeno derivado sino un componente medible,
que contribuye a las propiedades físicas de la materia
Los datos que componen el Universo no son
simplemente conceptos abstractos, sino entidades físicas con peso propio
Un poco como ocurre con el ADN, que almacena
toda la información genética en una cadena molecular tangible: la información necesita
/ tiene masa
Imagina que cada partícula del Universo fuera
una espacie de unidad de almacenamiento, como una memoria USB microscópica.
Así, la realidad física sería como una gran base de datos en constante
reorganización, y las leyes de la física serían los algoritmos que las
gestionan
El Modelo de Vopson sugiere que la gravedad
NO es una causa, sino una consecuencia
Un síntoma de que el Universo opera bajo
reglas de procesamiento de la información, igual que un videojuego necesita un
motor gráfico para mostrar los objetos
Si esta visión resulta acertada, podría ser
una de las pistas más claras de que el Universo no es una creación espontánea, sino
una construcción lógica, basada en código
Si los datos son materia y la materia es
información, entonces el Universo podría leerse como un gigantesco libro
codificado
O como en un videojuego extremadamente avanzado,
del que no somos más que personajes conscientes dentro de un entorno virtual muy
bien diseñado
El virus del Covid muta de acuerdo a la
segunda ley de la infodinámica de Vopson
Ecosistema del virus de Covid si él fuera la
Inteligencia Creadora:
-Tiene un sistema / lugar donde guardar toda
la información de sus “experimentos” : el Horizonte de Sucesos del Universo de
masas negativas que rodea a nuestro Universo y / o cada ser vivo
-Ese lugar es una
“Excel” vacía, llena de celdas, que cada una de ellas es diferente a las demás
-à tiene
u spin seientero ---- > obedecen al Principio de Exclusión de Pauli
Tenemos la memoria, tenemos al Ecel llena de
celdas infinitamente pequeñas: del área de Plank: 2,6 x 10 exp – 70 m2
Nuestro Universo
está regido por las siguientes leyes fundamentales:
La ecuación de la
entropía de Shannon, que con sus Algoritmos de compresión define la cantidad mínima
posible de bits que define un sistema de partículas
La segunda ley de
la infodinámica de Vopson, lo que hace que las formas de las partículas /
moléculas / sistemas evolucionen hacia nuevas formas con menos entropía y, por
tanto, más complejidad: por ejemplo, la evolución de las mutaciones del virus
del Covid
El Algoritmo de
computación cuántica de Grover para definir 4 como el número clave de nucleótidos
y 20 como el número clave de aminoácidos en la molécula de ADN
La computación
cuántica para producir procesos como la fotosíntesis, donde el efecto de túnel
cuántico es clave para que los electrones sin energía suficiente alcancen los
centros transformadores que producen ATP
La Conjetura
Maldacena / el Principio Holográfico para almacenar la información en el
Horizonte de Sucesos del Universo de Masas Negativas de todos los estados
cuánticos que han ocurrido en nuestro Universo
La Conjetura EPR =
ER, o sea donde hay entrelazamiento cuántico hay agujeros de gusano, para
comunicar instantáneamente ambos Universos
Otros casos clave
de aplicación de la segunda ley de la infdinámica de Vopson son:
-La colaboración
entre las cianobacterias para producir las células eucariotas y las
mitocondrias son otros dos casos de evolución a soluciones con menos grado de
entropía infodinámica
Las cianobacterias
de la fotosíntesis distorsionan el espacio-tiempo
Explicación
alternativa de la distorsión del espacio-tiempo producida por una entropía
cuántica
La entropía es
cuántica
La entropía acopla
los campos de materia con la geometría del espacio-tiempo
La entropía
cuántica describe las diferencias entre materia y espacio-tiempo
La gravedad
cuántica existe en forma de partículas y de ondas
Si la gravedad
existe en forma de partículas, eso podría explicar la materia oscura
Al principio el
desorden era máximo (la entropía era mínima), por lo que el espacio-tiempo
tenía una energía baja, una curvatura pequeña y una constante cosmológica
pequeña
Cuando aparece un salto clave en la evolución,
la complejidad aumenta, la entropía disminuye y el espacio-tiempo cambia
Un ejemplo claro de
salto cuántico evolutivo clave sería cuando las cianobacterias colaboran para
producir la fotosíntesis
Así pues, acción de
cianobacterias = fotosíntesis = cambio en entropía = cambio en geometría del
espacio-tiempo = distorsión del espacio-tiempo = paso del electrón desde el
punto A al B, a pesar de que NO tiene energía suficiente
Conclusión: las
cianobacterias son capaces de crear distorsiones del espacio-tiempo y al
hacerlo consiguen que los electrones de la fotosíntesis lleguen, por efecto
túnel, a su meta (aunque no tengan energía suficiente)
Cuando ocurrió un
salto evolutivo clave, por ejemplo, el descubrimiento de la fotosíntesis por
unas cianobacterias en algún lugar de la Tierra, esa experiencia quedó grabada
en el Horizonte de Sucesos, y de ahí cogieron la información el resto de las
cianobacterias para reproducirlo a nivel masivo
Es como si esa
información quedara grabada en la “nube” de las cianobacterias, espacio
especial del Horizonte de Sucesos reservado para la comunidad de cianobacterias
Los experimentos
hechos por cada cianobacteria quedan grabados originalmente por separado, pero
con el objetivo último de reducir el espacio ocupado en el Horizonte de
Sucesos, se terminan agrupando todos los experimentos de cada cianobacteria en
unos pocos
El proceso anterior
es consecuencia de la segunda ley de la infodinámica, propuesta por Vopson
El espacio-tiempo
de ese Horizonte de Sucesos no es continuo, es discreto, como una pixelación
Cada pixel almacena
información sobre los objetos que contiene, creando una gigantesca memoria
cósmica
Conclusión
El Modelo Estándar
de partículas debe incluir los “entes” del espacio-tiempo de la Materia Oscura
/ Masas Negativas
Partículas del
Universo de Masas Negativas: habrá que incluir los quarks y gluones de masas
negativas
Habrá que incluir las
celdas / pixeles del espacio-tiempo
El Modelo Estándar
debe incluir las partículas de masas negativas
La masa negativa
existe porque la distorsión del espacio-tiempo es real: las galaxias más lejanas
se alejan entre ellas “a más velocidad que la de la luz” porque existe un Warp-Drive
de Alcubierre que lo permite
La solución de
Alcubierre es de una densidad de masa negativa
Estamos rodeados de
un océano de masa negativa
Este océano de masa
negativa tiene un Horizonte de Sucesos
Este Horizonte de
Sucesos está hecho de pixeles cuánticos de espacio-tiempo
En esta Horizonte
de Sucesos queda grabada toda la historia de nuestro Universo, según la
Conjetura de Maldacena, correspondencia AdS/CFT
Este Horizonte de
Sucesos funciona según la Segunda Ley de la Infodinámica de Vopson
Este Universo de masas
negativas se comunica con el nuestro a través de agujeros de gusano, según la
conjetura EPR = ER
Eso quiere decir
que donde hay entrelazamientos entre partículas cuánticas hay agujeros de
gusano
Los dos Universos
se comunican a través de agujeros de gusano porque están entrelazados
Estos agujeros de
gusano se abren debido a las masas negativas, tal como predice la solución de
Alcubierre de la Relatividad General
La densidad de masa
negativa de la solución de Alcubierre es:
Todos los estados
de nuestro pasado quedan grabados, porque según la Mecánica Cuántica, no se
puede perder la información de la evolución de una función de onda
La evolución de la
función de onda de un determinado sistema queda determinada por la ecuación de
onda de Schroedinger de ese sistema
La información
queda grabada en el horizonte de sucesos de ese Universo de masas negativas,
conforme a lo que predice el Principio Holográfico y la Conjetura de Maldacena
Esa información grabada
en el Universo de masas negativas evoluciona optimizando el espacio ocupado por
la información según la segunda ley de la infodinámica de Vopson
Si en ese Universo
de masas negativas está grabado todo lo que ha sucedido en nuestro Universo,
ahí es donde radica toda la sabiduría
La información
puede tener masa, incluso las partículas elementales almacenan información
sobre sí mismos, de manera similar a como el ADN almacena información sobre
nosotros
La información es
una entidad física, equivalente en importancia a la equivalencia masa = energía
Principio de
equivalencia masa = energía = información
La información
podría ser la elusiva Materia Oscura
Ley de la
Infodinámica: describe cómo evoluciona la información y cómo se comporta en el Universo
La información se
organiza y comprime constantemente
Uno no es de carne
y hueso, sino que está hecho de Q-Bits
El universo podría
estar compuesto de Q-bits de información
Los sistemas de
información tienden a reducir su nivel de entropía, es decir se ordenan o comprimen
con el tiempo
Lo sistemas que
gestionan información, como el ADN, podrían estar sujetos a un principio
natural que busca la eficiencia, la compresión y la minimización del ruido
Las mutaciones de
los virus tienden a moverse hacia una optimización del código genético,
reduciendo su complejidad informacional a la vez que aumentan la eficacia del
virus para replicarse y transmitirse
El ADN actúa no
solo como una cadena biológica sino como un sistema de almacenamiento de datos que
sigue las leyes de compresión similares a las utilizadas en informática
¿Cuánta información
contienen una partícula subatómica?
Un electrón podría
contener 1,5 x 10 exp -30 Kg de masa como contenido informacional
Este enfoque
refuerza la idea de que la información no es meramente un fenómeno derivado
sino un componente medible, que contribuye a las propiedades físicas de la
materia
Los datos que
componen el Universo no son simplemente conceptos abstractos, sino entidades
físicas con peso propio
Un poco como ocurre
con el ADN, que almacena toda la información genética en una cadena molecular tangible:
la información necesita / tiene masa
Imagina que cada
partícula del Universo fuera una espacie de unidad de almacenamiento, como una
memoria USB microscópica. Así, la realidad física sería como una gran base de
datos en constante reorganización, y las leyes de la física serían los
algoritmos que las gestionan
El Modelo de Vopson
sugiere que la gravedad NO es una causa, sino una consecuencia
Un síntoma de que
el Universo opera bajo reglas de procesamiento de la información, igual que un
videojuego necesita un motor gráfico para mostrar los objetos
Si esta visión
resulta acertada, podría ser una de la pistas más claras de que el Universo no
es una creación espontánea, sino una construcción lógica, basada en código
Si los datos son
materia y la materia es información, entonces el Universo podría leerse como un
gigantesco libro codificado
O como un
videojuego extremadamente avanzado, del que no somos más que personajes
conscientes dentro de un entorno virtual muy bien diseñado
El virus del Covid
muta de acuerdo a la segunda ley de la infodinámica de Vopson
Ecosistema del
virus de Covid si él fuera la Inteligencia Creadora:
-Tiene un sistema /
lugar donde guardar toda la información de sus “experimentos” : el Horizonte de
Sucesos del Universo de masas negativas que rodea a nuestro Universo y
/ o cada ser vivo
-Ese lugar es una
“Excel” vacía, llena de celdas, que cada una de ellas es diferente a las demás
-à tiene un spin semientero ----
> obedecen al Principio de Exclusión de Pauli
Tenemos la memoria,
tenemos al Excel llena de celdas infinitamente pequeñas: del área de Plank: 2,6
x 10 exp – 70 m2
Tenemos la memoria
del ordenador = pixeles del espacio-tiempo, tenemos la Excel llena de celdas
infinitamente pequeñas, área de Plank: 2,6 x 10 exp -70 m2
Programas que el
virus hace funcionar / correr:
-La segunda ley de la infodinámica de Vopson:
los sistemas / partículas / moléculas que están en el espacio-tiempo (en las
celdas de la Excel) evolucionan hacia nuevas “formas” / mutaciones que tengan
menos entropía
La puntualización clave es que el Algoritmo
de Grover está diseñado para correr en ordenadores cuánticos
¿Por qué?: porque esa computación cuántica le
permite hacer muchas más simulaciones en muy poco tiempo, hasta que descubre la
solución buscada: esa nueva mutación que tiene menos entropía, o sea más
complejidad
Esa nueva complejidad le hace sobrevivir al
virus, adaptarse a nuevos desafíos
Para que el Algoritmo de Grover funcione de
manera óptima, el “programador” / el virus ha descubierto que la molécula de
ADN tiene que tener el número 4 como nº óptimo de bases de nucleótiodos y el nº
20 como nº óptimo de aminoácidos
¿Y si el Universo
está flotando en un extraño océano de masa negativa?
Pero, ¿qué es la gravedad? ¿Como actúa a
distancia, de dónde obtiene la energía para tirar al suelo una simple fruta?
¿Por qué unas cosas pesan más que otras? La respuesta aceptada es que existe un
campo, el llamado campo de Higgs, que permea el espacio-tiempo y que,
al interaccionar con la materia, le proporciona a las partículas su masa. Es
decir, algo totalmente cotidiano y evidente, la propia existencia de la
gravedad, depende de algo invisible, difícil de comprender y muy lejos de ser
evidente. Tan es así que la existencia del bosón de
Higgs , la partícula que
genera el campo del mismo nombre, solo se pudo constatar hace seis años.
Y esto es solo una ínfima parte del enorme
desafío que es comprender el funcionamiento de lo que nos rodea. De hecho, en
la actualidad se desconoce la naturaleza del 95 por ciento del
Universo . La materia visible, que forma estrellas, planetas y nubes de
polvo y gas, no explica cómo las galaxias giran tan rápido como lo hacen sin
deshacerse. Debe de existir algo invisible que las mantiene unidas, gracias a
la gravedad: quizás la llamada materia oscura. Por otro lado, la materia
visible tampoco explica por qué existe una misteriosa fuerza repulsiva que
separa el espacio-tiempo y expande el Universo, con más aceleración cuanto más
disperso está. Debe de existir algo que lo separa todo: podría ser la llamada
energía oscura. Pero, ¿de dónde surgen estos fenómenos? Si algo tan natural
como la gravedad que sentimos tiene una base tan extraña, ¿qué podemos esperar
de estos fenómenos oscuros que no tenemos ni idea de cómo son?
Hasta el momento, no ha habido forma de
detectar ni una traza de la fracción oscura del Universo, y no es de extrañar
que haya cientos de investigadores devanándose los sesos por ello. Ahora, un
grupo de científicos de la universidad de Oxford (Reino Unido) acaba de
publicar un artículo en la revista Astronomy and
Astrophysics donde propone una
explicación, basada en modelos matemáticos que son capaces de reproducir
parcialmente nuestro Universo, y que unifican tanto la materia como la
energía oscuras . Su propuesta consiste en sugerir la existencia de
la masa negativa , una exótica forma
de materia que se caracteriza por
alejar a la masa de su alrededor. Si las masas se atraen entre sí gracias a la
gravedad, ¿por qué no puede ocurrir lo contrario? ¿Podría ser que el Universo
fuera simétrico y hubiera masas positivas y negativas?
«Parece que un simple signo negativo
podría solucionar dos de los mayores problemas de la Física », ha
explicado a ABC Jamie
Farnes , primer autor del
estudio. «Nuestra teoría parece no solo explicar la materia oscura, sino que
también obtenemos una posible solución para la energía oscura».
En primer lugar, ¿cómo sería esta masa
negativa? Según el autor, sería «extraña y peculiar para nosotros, porque
vivimos en una región del espacio dominada por la materia positiva». De hecho,
aventura que tendría una exótica propiedad: «Si empujaras una masa negativa,
¡esta iría hacia ti!».
La repulsión que une galaxias
El investigador ha recordado que el callejón
sin salida de la materia y la energía oscuras, que es resultado de no poder
explicar lo que vemos en el Universo con nuestras teorías, ha llevado a algunos
científicos a coger el camino de en medio. Algunos trabajan en una «gravedad
modificada» que se comporta de una forma distinta en las grandes escalas y
otros han creado el concepto del «fluido oscuro», una exótica forma de materia
que combinan algunas de las propiedades de la energía y la materia oscuras. ¿Es
por esto por lo que el Universo se expande tan rápido? ¿O el motivo por el que
se mantienen unidas las galaxias? ¿Que no lo veamos indica que no existe?
Responder a estas preguntas puede ser una
tarea demasiado ambiciosa, o no. De momento, Jamie Farnes ha elaborado un
modelo matemático basado en la masa negativa que es capaz de explicar la
formación de halos de materia oscura alrededor de galaxias de masa
positiva.
«Mi modelo muestra que la fuerza repulsiva
de los alrededores, proveniente de la masa negativa, puede mantener unida a una
galaxia», ha explicado Farnes. «La gravedad de la masa positiva de la galaxia
atrae la masa negativa en todas las direcciones y, a medida que esta masa
negativa se acerca, ejerce una fuerza repulsiva cada vez con más fuerza que
permite a la galaxia girar a gran velocidad sin salir disparada».
La fuerza que expande el espacio-tiempo
Si la masa negativa puede explicar la
materia oscura, ¿puede explicar también la energía oscura y la expansión del
Universo? Hasta ahora, siempre se ha rechazado esta posibilidad, porque no
parece compatible con lo observado.
«Sabemos que la materia, incluyendo las
partículas de masa negativa, se dispersarían más a medida que el Universo se
expande. Sin embargo, las observaciones de energía oscura muestran que esta
sustancia no se hace más fina con el tiempo, de hecho permanece constante
durante la expansión del Universo», ha resumido Jamie Farnes.
Sin embargo, este científico ha ideado una
posibilidad que acabaría con esta incompatibilidad. ¿Y si la masa negativa se
genera espontáneamente? «En nuestra teoría, las partículas de masa
negativa son creadas continuamente por un "tensor de creación ",
de modo que se regeneran a medida que el Universo se expande. Con esta
propuesta, estas masas negativas creadas continuamente parecen ser idénticas a
la energía oscura». Por tanto, serían compatibles con lo observado.
El «tensor de creación»
Este científico ha detallado que este
«tensor de creación» no es más que una construcción matemática, «que permite a
la materia aparecer espontáneamente en la existencia, como una especie de
palomita microscópica».
En su opinión, sería interesante observar si
esta idea puede ser compatible con la Mecánica Cuántica, para estudiar si
podría haber partículas que aparecieran espontáneamente en el vacío, o incluso
para ayudar a la unificación de las incompatibles Relatividad y Mecánica
Cuántica. Puede parecer inverosímil, pero, ¿no lo es también la base de una
realidad tan cotidiana como la gravedad? ¿O la de los fenómenos que permiten el
funcionamiento de satélites o televisiones?
Aceptando el marco propuesto por esta
investigación, resultaría que la energía y la materia oscuras pueden ser
unificadas en una sola sustancia, cuya naturaleza se explica sencillamente como
resultado de que « la masa positiva –del Universo– surfea en un
mar de masas negativas », según Farnes.
Los pasos para confirmarlo
¿Qué harán a continuación para tratar de
validar esta hipótesis? El investigador ha explicado que este modelo predice
que la distribución de las galaxias debería variar de una forma muy concreta en
función el tiempo. Pues bien, están desarrollando herramientas para procesar
los datos que obtendrá el Square
Kilometre Array (SKA), un inmenso
radiotelescopio con un área colectora de un millón de metros cuadrados y
capaz de generar 5 millones de petabytes de información cada año, para estudiar
la distribución de las galaxias, según ha dicho Farnes, «más atrás en el tiempo
que ninguna otra máquina ha podido mirar».
Esto les permitirá comparar la teoría
propuesta con el modelo cosmológico convencional, que no puede explicar la
energía o la materia oscuras, y quizás incluso contraponera con otras teorías
cosmológicas.
Todo esto no ocurrirá hasta al menos 2030,
según Jamie Farnes. Sin embargo, es posible que antes de eso los experimentos
Alpha-G y ATLAS, del CERN, encuentren indicios de la antimateria de masa
negativa , lo que serían un importante impulso en la búsqueda de
partículas de masa negativa.
Un físico propone que la gravedad no es
una fuerza real, sino la prueba de que vivimos en una gigantesca simulación
informática diseñada para optimizar y comprimir la información del universo
https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html
"La segunda
ley de infodinámica describe la evolución temporal de la entropía de los
estados de información en un sistema aislado hacia el equilibrio", explica
Vopson en su artículo. Según esta idea, la materia en
el espacio estaría obligada a reorganizarse para reducir su huella informativa,
no para maximizarla.
Esta perspectiva
lleva a pensar que el espacio-tiempo no sería continuo,
sino "discreto, similar a una pixelación o al mallado en análisis de
elementos finitos". Cada "píxel" del
espacio almacenaría información sobre los objetos que contiene, como una
especie de gigantesca mente cósmica
Según Vopson, el
propio proceso de agrupación está impulsado por una fuerza
entrópica: "La fuerza atractiva generada por el requerimiento de
reducir la entropía de la información tiene todas las características de una
fuerza gravitacional". Así, la gravedad no sería más
que el esfuerzo del universo por mantener su información comprimida y
organizada.
Aplicando esta
idea, el autor consigue derivar la ley de la gravitación universal de
Newton: "Recuperamos una expresión de la fuerza entrópica que es
idéntica a la ley de la gravedad de Newton". Esto
implica que lo que percibimos como gravedad podría ser un efecto secundario de
la tendencia fundamental del cosmos a optimizar su almacenamiento de datos.
Conjetura de Maldacena / Correspondencia AdS/CFT:
Equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por
uno.
Correspondencia
AdS/CFT:
https://www.wikiwand.com/es/Correspondencia_AdS/CFT
En física teórica, la correspondencia AdS/CFT (espacio anti-de Sitter/teoría conforme de campos) también
llamada conjetura de Maldacena, dualidad Maldacena o
dualidad gauge/gravedad, es una relación conjeturada entre dos tipos de teorías
físicas. Por un lado están los espacios anti-de Sitter (AdS) que se
utilizan en las teorías de la gravedad cuántica, formulados en términos de
la teoría de cuerdas o la teoría M.
En el otro lado de la correspondencia están las teorías de campos conformes (CFT)
que son teorías de campos cuánticos, que incluyen
teorías similares a las teorías de Yang-Mills que describen
partículas elementales.
La dualidad representa un gran avance en nuestra comprensión
de la teoría de cuerdas y la gravedad cuántica. Esto se debe a que
proporciona una formulación no
perturbativa de la teoría de cuerdas con ciertas condiciones de
frontera y porque es la realización más exitosa del principio holográfico, una idea en gravedad
cuántica propuesta originalmente por Gerard
't Hooft y promovida por Leonard
Susskind.
En física, la correspondencia AdS/CFT es la
equivalencia entre una teoría de cuerdas o una supergravedad definida
en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida
en su frontera con dimensión menor por uno.
El espacio anti-de Sitter (AdS) corresponde a una solución a
las ecuaciones de Einstein con constante cosmológica negativa, y es una teoría
clásica de la gravedad; mientras que la teoría conforme de campos
(CFT:Conformal Field Theory) es una teoría cuántica. Esta correspondencia entre
una teoría clásica de la gravedad y una cuántica, puede ser el camino hacia la
gravedad cuántica.
La correspondencia AdS/CFT fue propuesta originalmente por
el físico argentino Juan Maldacena a finales de 1997, y algunas de sus
propiedades técnicas pronto fueron clarificadas en un artículo de Edward
Witten y otro artículo de Gubser, Klebanov y Polyakov.
Para 2015, el artículo de Maldacena tenía más de 10.000 citas, convirtiéndose
en el artículo más citado en el campo de la física de partículas.
El
principio holográfico: el más bello avance hacia la gravedad cuántica
Agujeros negros y determinismo en relatividad
general:
Como vimos en la entrada sobre órbitas
alrededor de agujeros negros, cuando un cuerpo llegaba al horizonte de
sucesos su tiempo pasaba infinitamente más despacio que en el exterior. Esto
implica que cuando uno atraviesa el horizonte de un agujero negro en principio
el universo del que procede ha acabado: ha pasado infinito tiempo mientras
caía. Este hecho era el que hacía de los agujeros negros objetos tan especiales
y les dio tanta relevancia en la ciencia-ficción. Si uno consigue salir de un
agujero negro relativista, no puede aparecer en el universo desde el que entró
porque ya no existe.
No obstante, la relatividad general es perfectamente
determinista: la trayectoria del cuerpo que cae al agujero negro se puede
seguir matemáticamente hasta que llega a la singularidad central, aunque ahí no
se sepa qué le sucede.
Agujeros negros y determinismo con gravedad cuántica:
En el momento en el que combinamos la relatividad general
con la teoría cuántica de campos los agujeros negros no solo pueden sino que
además deben radiar. Más cuanto más pequeños sean. Su temperatura disminuye
solo a medida que crecen, mientras que por contrapartida aumentan su entropía.
Sin embargo, dado que radian, contrariamente a lo previsto
por la relatividad general los agujeros negros tienden a disminuir su tamaño
salvo que se los alimente constantemente con materia nueva.
La termodinámica de agujeros negros surgió porque era
necesario asignarles entropía dentro de un marco teórico adecuado: si no la
poseían, era posible cargarse la entropía del universo arrojando cosas a un
agujero negro.
La paradoja de la información:
La conocida como «Guerra de los agujeros negros» comenzó
cuando Hawking empezó a decir que lo que radiaban los agujeros negros era
completamente aleatorio, dado que la ley de radiación era de naturaleza no
determinista.
Y el lector familiarizado con la física cuántica podría
pensar: «tiene sentido, en física cuántica se supone que todo es aleatorio». En
principio, podría parecer que los únicos que no tendrían que estar contentos
con la conclusión de Hawking serían los físicos que renegasen de las teorías
cuánticas.
Sin embargo, había un punto flaco que ponía en jaque los
propios conceptos cuánticos básicos: la interpretación de Hawking ni siquiera
era respetuosa con el determinismo de la onda de probabilidad.
En mecánica cuántica podrás no saber exactamente las
magnitudes de un sistema, pero si conoces su función de onda puedes calcular
deterministamente la evolución de esta siguiendo la ecuación de Schrödinger o
la que proceda para estimar cómo será dicha función un tiempo después. Es uno
de los presupuestos básicos: la función de onda es determinista. Más aún,
la función de onda propaga toda la información del sistema cuántico, por lo que
no es concebible que sea destructible.
Hawking insistía en que la función de onda de una partícula
se descomponía al atravesar el horizonte de sucesos y esta perdía su identidad,
contribuyendo simplemente a la masa neta del agujero negro. Después el agujero
negro radiaría cosas al azar, no dejando rastro de lo que había entrado en él.
Hay un ejemplo que ilustra bien el problema. Hasta la la
llegada de Hawking se daba por hecho que un agujero negro era como una caja
fuerte sin llave: había cosas guardadas en él pero no había forma de sacarlas
fuera o saber cuáles eran. Con la llegada de Hawking la caja fuerte
directamente desaparece. Cuando el agujero negro se evapora no quedaría ni
rastro de todo lo que un día entró en él y la radiación liberada sería
información nueva.
Una locura.
La paradoja mayor:
Pensando en estas cosas, al físico de cuerdas Leonard
Susskind le dio por pensar en algún absurdo al que se llegase con todo este
asunto donde cada cosa parecía tener menos sentido que la anterior.
En la teoría de Hawking, la radiación térmica solo era
percibida por un observador externo al agujero negro debido al principio de
equivalencia de la relatividad general: un observador en un espacio-tiempo
curvado no puede percibirlo en su entorno. Dado que la radiación es un efecto
asociado a la curvatura, un observador cayendo a un agujero negro no percibiría
nunca dicho efecto. Lo que para él es vacío, para alguien viéndolo desde fuera
es un mar de partículas calientes.
Y aquí había una cuestión muy importante que resolver: si se
arroja un cuerpo a un agujero negro muy caliente (muy pequeño), ¿se incinera
antes de llegar al horizonte o no le pasa nada? La incompatibilidad estaba ahí.
Reflexionando sobre esto, surgieron dos posibles soluciones:
o el principio de equivalencia de Einstein era incorrecto, o los agujeros
negros no tenían temperatura.
Cargarse el principio de equivalencia implicaría cargarse de
base toda la relatividad general, dado que se basa en este de forma central. El
concepto de curvatura es inseparable de que esta no sea percibida en la
cercanía de quien la observa.
Por el otro lado, cargarse la temperatura de Hawking volvía
a dejar sin resolver el problema de la entropía y los agujeros negros.
El principio holográfico:
Pese a que se hablaba largo y tendido sobre la temperatura
de Hawking y sus consecuencias, no muchos se preocupaban de entender la
entropía de Bekenstein asociada al agujero negro.
Cuando en mecánica
estadística hablamos de la entropía de un sistema típicamente
estamos contando la cantidad de información de la que no disponemos sobre dicho
objeto. Así pues, ¿qué estamos contando cuando asignamos al agujero negro una
entropía?
En 1994 Bekenstein escribió un artículo llamado «¿Entendemos la entropía de los
agujeros negros?«, en el cual reflexionaba sobre su propia ecuación,
planteando que era una entropía debida al entrelazamiento cuántico. Las
partículas de fuera del agujero y las de dentro quedaban entrelazadas cuando un
agujero negro se formaba y si el agujero negro tenía entropía podía ser debido
fundamentalmente a que desconocer los estados en su interior implicaba un
cierto desconocimiento sobre los estados fuera. En particular, la entropía que
nosotros asignamos a un agujero negro tendría que ser la misma que la que desde
el interior de un agujero negro se asignaría al exterior.
El hecho de que la entropía fuese de entrelazamiento y
tuviese estas propiedades iba de la mano, de forma obvia, con que dependía del
área de contacto entre el agujero negro y el exterior y no del volumen de
ninguno de ambos. Esta intepretación es 100% coherente con la fórmula de
Bekenstein en unidades naturales, donde la entropía S del
agujero es un cuarto de su área A:
En paralelo con las reflexiones de Bekenstein, Leonard
Susskind y Gerardus ‘t Hooft intentaban resolver las paradojas de los agujeros
negros de una vez por todas, y se dieron cuenta de algo genial: de hecho,
cuando uno dice que lo que observa alguien desde fuera de un agujero negro y lo
que observa alguien desde dentro es incompatible está presuponiendo que en
algún momento van a poder comparar sus medidas. Si dos observadores miden cosas
incompatibles pero nunca van a poder quedar para comentarlas, ¿qué más da?
Cuentan que llegados a esta reflexión ‘t Hooft dijo: «¿Qué
tenemos que cargarnos para que ambos observadores tengan razón?». Y ahí
radicaba la clave de todo.
Del mismo modo que los principios fundamentales de la física
cuántica dicen que solo podemos medir la posición o la velocidad de una
partícula, y que si medimos una cosa implícitamente renunciamos a conocer la
otra, en el problema del agujero negro si lo observamos desde fuera renunciamos
a observarlo desde dentro. Son dos realidades diferentes desligadas.
Ahora bien, la coherencia sugiere que dado que el agujero
negro se evapora no puede ser que lo que haya pasado dentro sea incompatible
con lo que haya pasado fuera. Es decir, que de algún modo u otro lo que vemos
incinerarse en el horizonte debe de haberse incinerado. ¿Y cuándo puede que un
cuerpo que está dentro del agujero perciba su propia incineración? En la
singularidad.
Surge así la siguiente propuesta: lo que vemos que sucede en
el horizonte es una representación perfecta de lo que sucede en el interior del
agujero negro, y una representación perfecta. De modo que de hecho siempre
estaríamos viendo el interior del agujero sin necesidad de entrar en él.
Para que esto fuera posible era necesario imponerle a la
naturaleza una restricción que a día de hoy aún no ha podido ser probada: un
cierto volumen físico de nuestro universo no puede contener más información que
la que se pueda codificar en su frontera. De lo contrario, si un agujero negro
tuviese más información que la codificable en su horizonte, sería imposible
concluir que una cosa y la otra son equivalentes.
¿Y cuál tendría que ser la unidad mínima de información? ¿El
bit cósmico? Planck había dado la respuesta casi 100 años antes con su sistema
de unidades. Si queremos escribir la ecuación de la entropía de Bekenstein
con constantes, solo tenemos que dividir cada término por su asociado de
Planck. Es decir, la entropía entre la entropía de Planck (la constante de
Boltzmann) y el área entre el área de Planck (el área de Planck al cuadrado):
G es la constante de gravitación
universal, h la constante cuántica de Planck y c la
velocidad de la luz en el vacío.
Al hacer las operaciones indicadas, obtenemos la ecuación de
Bekenstein en unidades de sistema internacional:
Con este razonamiento, la propuesta fue que el horizonte del
agujero negro contenía un bit de información por cada pequeño recinto de tamaño
igual al área de Planck sobre su superficie. Un agujero negro que almacenase
tres millones de bits de información cuántica tendría que tener un área de tres
millones de áreas de Planck, que son diminutas.
Si nos vamos a un caso bien sencillo, como podría ser un
agujero negro de un centímetro de radio (que es
lo que mediría el de la Tierra si esta se comprimiese), la información que
podría almacenar sería de:
Para calcular el área del agujero hemos usado la fórmula del
área de una esfera.
Esto es una barbaridad. Un ordenador normal almacena no más
de 10 elevado a 13 bits, una cantidad
prácticamente nula en comparación con la que nos ha salido. La propia Tierra,
en principio, requiere menos bits de información para ser descrita que esa
cantidad.
Pongamos otro ejemplo planteado por el propio Susskind,
rellenando todo el universo observable de libros. Si cada caracter en un libro
lo consideramos con un bit, un libro posee aproximadamente 6000 bits
por centímetro cúbico. El tamaño del universo
observable, por otra parte, son 4 por 10 elevado
a 80 metros cúbicos. Toda esa barbaridad de libros podrían ser
acogidos como bits en la frontera de un agujero negro de apenas 7 kilómetros:
Consecuentemente, la información en el universo está muy
poco concentrada en comparación con lo que podría estarlo.
La propuesta de ‘t Hooft y Susskind se conoce como principio
holográfico porque trata el interior del agujero negro como si fuese un
holograma codificado en su superficie, del mismo modo que en películas de
ciencia ficción como Star Wars las imágenes tridimensionales que usan para
comunicarse están codificadas en el plano que las genera.
Dentro de la propuesta, se incluye el axioma de que en el
universo en un volumen delimitado por cierta área no puede haber mayor cantidad
de información que la que tendría un agujero negro con dicha área y que,
análogamente, dada una cierta cantidad de información no se puede comprimir más
que lo que la comprimiría un agujero negro. De haber en el cosmos algo con
mayor densidad de información que un agujero negro la propuesta tendría que ser
revisada, como poco reduciendo el tamaño de los bits para que entren más en
menos sitio.
Finalmente, gracias al principio holográfico, en el agujero
negro en principio dejaron de haber paradojas. La información no se pierde
porque queda registrada constantemente en la frontera del agujero negro y los
dos observadores llegan a las mismas conclusiones.
Leonard Susskind se lanzó a la aventura explicando esta
propuesta en su artículo «El
universo como un holograma«.
Determinismo holográfico:
A partir de lo expuesto resulta obvio que la paradoja de la
información desaparece. Las funciones de onda se propagan y evolucionan
deterministamente codificadas en el horizonte del agujero negro para el
observador externo, mientras que el observador interno verá que las cosas
entran y más adelante salen despedidas en algún momento como radiación térmica,
pero sin haber perdido su identidad.
Otras formas de verlo sugieren incluso que dado que ver algo
atravesar el agujero negro lleva un tiempo infinito según la relatividad
general, los bits de información en la frontera realmente son las propias
partículas que todavía no han podido ser observadas entrando, y que sin embargo
se ven saliendo como radiación antes incluso de atravesar el horizonte. De aquí
surge toda la idea de que finalmente es posible que ni siquiera los agujeros
negros existan con sus propiedades mágicas, aunque habrán servido para
desarrollar una teoría muy completa necesaria para desmentirlos.
Superdeterminismo:
En la entrada
anterior, explicamos que Bell demostró que la mecánica cuántica era
incompatible con una teoría determinista de variables ocultas locales. Es
decir, que no era posible que los efectos aleatorios de la mecánica cuántica
fuese debida a falta de información interna sobre las partículas.
Sin embargo, quedaba la veda abierta para que la información
necesaria a tener en cuenta estuviese en cualquier parte del universo. El
principio holográfico, que es posible gracias al entrelazamiento cuántico (del
que se deduce la fórmula de Bekenstein), da de nuevo así un empujón al
determinismo.
Si, no importa lo grande que sea una región física del
universo, toda la información que contiene debe estar codificada en la frontera
que la envuelve, resulta evidente la comunicación a velocidades superiores a
las de la luz (ya lo era desde Bell) y el hecho de que todo el universo esté
entrelazado es más aceptable.
Y si todo el universo está entrelazado… obviamente nunca
controlaremos todas las variables en un experimento cuántico porque el
resultado puede depender de cosas que pasen en Alfa Centauri o más lejos. Quien
defiende que el universo es determinista pero hace falta conocer toda su
información sin excepciones para predecir resultados experimentales es
considerado un superdeterminista, en alusión a que ha superado las críticas de
Bell.
Conclusiones:
El principio holográfico, mucho más que una teoría
científica, es una obra de arte. La cantidad de conocimiento acumulado durante
siglos que hemos necesitado para llegar hasta él es impresionante, y en el
fondo su enunciado es muy simple: solo hemos llegado a una conclusión sobre la
mayor cantidad de información que puede haber en un volumen, ¡y ni siquiera
buscando eso! Yo creo que nunca dejaré de estar fascinado con ello.
La teoría de cuerdas, por otra parte, es la única teoría de
gravedad cuántica en la que el principio holográfico está incluido de base y
parece que puede funcionar.
El Modelo Estándar de la
Física de Partículas
https://www.i-cpan.es/es/content/el-modelo-est%C3%A1ndar-de-la-f%C3%ADsica-de-part%C3%ADculas
Partículas de la materia
Toda la materia que nos rodea, desde una pelota de fútbol
hasta la gran estrella que ilumina nuestro cielo, el Sol, está formada por
partículas fundamentales, también llamadas elementales, que son los componentes
básicos de la materia. Estas partículas se clasifican en dos tipos o grupos:
quarks y leptones. Cada grupo consta de seis partículas, que se relacionan por
pares o "generaciones". Las partículas más ligeras y estables
constituyen la primera generación, mientras que las más pesadas y menos
estables pertenecen a la segunda y tercera. Toda la materia estable del
universo está formada por partículas que pertenecen a la primera generación, ya
que cualquier partícula más pesada decae rápidamente en otras más estables. Los
seis quarks están emparejados en tres generaciones: el "quark up"
(quark arriba) y el "quark down" (quark abajo) forman la primera
generación, seguidos por el "quark charm" (quark encanto) y el
"quark strange" (quark extraño), y luego el "quark top"
(quark cima) y el "quark bottom" (quark fondo). Los seis leptones
están dispuestos de forma similar en tres generaciones: el "electrón"
y el "neutrino del electrón", el "muón" y el "neutrino
del muón", y el "tau" y el "neutrino del tau". El
electrón, el muón y el tau tienen una carga eléctrica y una masa considerable,
mientras que los neutrinos son eléctricamente neutros y tienen muy poca masa.
Partículas portadoras de fuerzas
En el universo actúan cuatro fuerzas fundamentales: la
fuerza fuerte, la fuerza débil, la fuerza electromagnética y la fuerza
gravitatoria. Funcionan en distintos rangos y tienen distintas intensidades. La
gravedad es la más débil, pero tiene un alcance infinito. La fuerza
electromagnética también tiene un alcance infinito, pero es mucho más fuerte
que la gravedad. Las fuerzas débil y fuerte solo son efectivas a distancias muy
cortas, por lo que únicamente dominan en la escala de las partículas subatómicas.
A pesar de su nombre, la fuerza débil es mucho más fuerte que la gravedad, pero
es la más débil de las otras tres. La fuerza fuerte, como su nombre indica, es
la más fuerte de las cuatro interacciones fundamentales.
Tres de las fuerzas fundamentales, la fuerza fuerte, la
débil y la electromagnética, son el resultado del intercambio de partículas
portadoras de fuerza, que pertenecen a un grupo más amplio llamado
"bosones". Las partículas de la materia transfieren cantidades
discretas de energía intercambiando bosones entre sí. Cada fuerza fundamental
tiene su propio bosón correspondiente: la fuerza fuerte es transportada por el
"gluón", la fuerza electromagnética por el "fotón" y los "bosones
W y Z" son responsables de la fuerza débil. Aunque todavía no se ha
encontrado, el "gravitón" debería ser la partícula portadora
correspondiente a la fuerza de la gravedad.
El Modelo Estándar incluye las fuerzas electromagnética,
fuerte y débil y todas sus partículas portadoras, y explica bien cómo estas
fuerzas actúan sobre todas las partículas de materia. Sin embargo, la fuerza
más conocida en nuestra vida cotidiana, la gravedad, no forma parte del Modelo
Estándar, pues resulta muy difícil de describir con este modelo físico. La
teoría cuántica, utilizada para describir el micromundo, y la teoría general de
la relatividad, utilizada para describir el macromundo, son difíciles de
encajar en un único marco teórico, todavía se está trabajando en ello. Nadie ha
conseguido que ambas sean matemáticamente compatibles en el contexto del Modelo
Estándar. Pero por suerte para la física de partículas, cuando se trata de la
minúscula escala de las partículas, el efecto de la gravedad es tan débil que
resulta insignificante. Solo cuando la materia está en grandes cantidades, por
ejemplo, a la escala del cuerpo humano o de los planetas, el efecto de la
gravedad domina. Por tanto, hasta el momento, la ciencia sigue aceptando el
Modelo Estándar a pesar de su reticente exclusión de una de las fuerzas
fundamentales.
Una de las piezas que faltaba: el bosón de Higgs
En la década de 1960, el físico británico Peter Ware Higgs
predijo la existencia de una nueva partícula que parecía ser necesaría a la
hora de comprender el Modelo Estándar en su conjunto y las interacciones entre
las partículas que lo componen. El 4 de julio de 2012, los experimentos ATLAS y
CMS en el Gran Colisionador de Hadrones (LHC) del CERN anunciaron
la observación de una nueva partícula en la región de masa
alrededor de 126 GeV, compatible con la características del bosón de Higgs
predichas por Peter Higgs.
El bosón de Higgs es un tipo de partícula elemental con un
papel fundamental en el mecanismo que origina la masa de las partículas
elementales. Es la partícula asociada al llamado "campo de Higgs",
una especie de continuo que se extiende por el espacio formado por incontables
bosones de Higgs. La masa de las partículas estaría causada por una
"fricción" con el campo de Higgs: las partículas con una mayor
fricción con este campo tienen una masa mayor. El bosón de Higgs era la pieza
que faltaba por descubrir en el Modelo Estándar, que hasta entonces no
conseguía explicar el origen de la masa. Sin masa, el Universo sería un lugar
muy diferente: si el electrón no tuviera masa no habría átomos, con lo cual no
existiría la materia como la conocemos, no habría química, ni biología ni
existiríamos nosotros mismos.
¿Se considera terminado el Modelo Estándar?
Lo cierto es que no. Aunque el Modelo Estándar es
actualmente la mejor descripción que existe del mundo subatómico, no lo explica
al completo. Como ya hemos contado, este modelo sólo incorpora tres de las
cuatro fuerzas fundamentales, omitiendo la gravedad. También hay preguntas
importantes a las que no da respuesta, como por ejemplo, ¿qué es la materia
oscura?, ¿qué pasó con la antimateria después del big bang? o ¿por qué hay tres
generaciones de quarks y leptones con una escala de masas tan diferente?
Por último, pero no por ello menos importante, todavía
quedan por descifrar muchos de los misterios que rodean a la partícula llamada
"bosón de Higgs", predicha por Peter Higgs en la década de los 60 y
observada por primera vez en 2012 en las instalaciones del CERN.
Así pues, aunque el Modelo Estándar describe con precisión
los fenómenos de su ámbito, sigue siendo incompleto. Tal vez sea solo una parte
de un marco teórico mucho más amplio que incluye nueva física oculta en las
profundidades del mundo subatómico o en los recovecos oscuros del universo.
Futuros experimentos de física de partículas nos ayudarán a encontrar
respuestas a las piezas que faltan.
Agujeros
negros primordiales, MACHOs y WIMMP´s
Los agujeros negros
primordiales podrían explicar la materia oscura, el crecimiento de las galaxias
y mucho más
https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales
Un día, hace poco más de cinco años, Ely Kovetz almorzaba
con sus colegas de la Universidad Johns Hopkins de Baltimore y discutía un
rumor tentador. Al igual que muchos en la comunidad de físicos, Kovetz había
escuchado el rumor sobre una posible señal de un observatorio de física
estadounidense recientemente puesto en operación. El observatorio estaba
diseñado para captar perturbaciones en el tejido del espacio-tiempo,
ondulaciones creadas, entre otras cosas, por agujeros negros que chocan entre
sí. Lo más intrigante es que la señal parecía haber sido creada por objetos
masivos, mucho más pesados de lo que se esperaba. Eso apuntaba a algunas
posibilidades sorprendentes.
“Lo primero que pensó todo el mundo fue ‘¿Qué? Esto no puede
ser. Esto es imposible’”, recuerda Kovetz, físico de la Universidad Ben-Gurión
de Israel y profesor visitante en Johns Hopkins. Pero entonces empezó a surgir
una sospecha más emocionante. Tal vez, pensaron, esto podría ser una señal de
agujeros negros primordiales.
¡Agujeros negros desde el inicio de los tiempos! Parece el
título de una película de ciencia ficción de bajo presupuesto, pero fracciones
de segundo después de que naciera nuestro universo, un enjambre de voraces
agujeros negros podría haberse formado espontáneamente a partir de la ardiente
energía que impregnaba el cosmos. Apoyados por las matemáticas y la teoría,
pero nunca observados definitivamente, estos agujeros negros primordiales son
una posibilidad que ha fascinado a los físicos durante casi medio siglo,
ganando o perdiendo popularidad a medida que nuevas observaciones parecían
apoyar o excluir su existencia.
Las desconcertantes señales de 2015 del Observatorio de
Ondas Gravitatorias por Interferometría Láser estadounidense (LIGO, por sus
siglas en inglés), y otras docenas de detecciones realizadas por el
observatorio y su homólogo europeo, Virgo, han alimentado un renovado interés
por la idea, con cientos de artículos publicados sobre ellos en tan solo los
últimos cinco años.
Los agujeros negros primordiales, de existir, serían
entidades masivas que no emiten luz, por lo que serían invisibles. Dado que
estarían dispersos por todo el universo, podrían ayudar a dar sentido a una
amplia variedad de observaciones extrañas que hasta ahora han desafiado la
explicación. Una de las principales razones por las que los investigadores se
sienten atraídos por estos extraños agujeros negros es que podrían resolver uno
de los mayores y más enigmáticos misterios de la astrofísica: la identidad de
la materia oscura.
Aunque no puedan detectarla, los físicos saben que la
materia oscura existe porque sus efectos gravitatorios se ven por todo el
cosmos. Pero nadie sabe de qué está hecha. Los agujeros negros masivos
primordiales podrían ser la respuesta que se busca desde hace tiempo. Estos
grandes y pesados objetos podrían haber servido también como anclas alrededor
de las cuales se unieron las primeras galaxias, otro enigma que se ha resistido
durante mucho tiempo a la explicación.
Aunque sigue habiendo escepticismo, los verdaderos creyentes
esperan con impaciencia los nuevos proyectos de telescopios y estudios del
cielo que podrían llevar finalmente a estas bestias cautivadoras de la esfera
de la especulación al reino de la realidad.
Varias galaxias chocan entre sí en el famoso Cúmulo de la
Bala, dejando cúmulos de gas caliente (mostrados en rosa) y una cantidad aún
mayor de materia oscura (mostrada en azul). Algunos físicos creen que los
agujeros negros primordiales podrían constituir una fracción significativa de
la materia oscura del universo.
CRÉDITO: NASA HST / CXC / MAGELLAN
De MACHOs y WIMPs
Los agujeros negros ordinarios surgen de la muerte. Cuando
una gran estrella llega al final de su vida, explota en una espectacular
supernova. El pesado núcleo de la estrella, que puede pesar al menos varias
veces la masa del Sol, se colapsa hasta formar un objeto compacto tan denso que
ni siquiera la luz puede escapar a su atracción gravitatoria. Ha nacido un
agujero negro.
En los años setenta, el brillante físico Stephen Hawking y
su estudiante de doctorado Bernard Carr propusieron
otra posible vía de creación para los agujeros negros. Se sabía que,
poco después del big bang, el universo estaba lleno de una espesa
sopa de radiación y partículas fundamentales como los quarks y los gluones, los
componentes básicos de los protones y los neutrones. Las variaciones naturales
de densidad en la sopa habrían dejado algunas regiones con más material y otras
con menos. Las ecuaciones de Hawking y Carr demostraron que las zonas con
suficiente radiación y partículas empaquetadas en ellas podrían haber colapsado
sobre sí mismas y formado agujeros negros con una amplia gama de tamaños
posibles.
Esta idea se archivó, pero se desempolvó en los años
noventa, cuando el debate sobre lo que podría constituir la materia oscura
empezó a calentarse. La enigmática sustancia se ha visto tirando
gravitatoriamente de las estrellas y galaxias y haciéndolas girar mucho más
rápido de lo esperado. Las observaciones sugieren que esta materia oscura
invisible es tan omnipresente que supera en más de cinco a uno a la materia que
podemos ver en el cosmos.
Un bando se inclinó por la explicación de que la materia
oscura estaba formada por objetos compactos, incluidos los agujeros negros —con
una gran cantidad de agujeros negros primordiales desde el principio de los
tiempos para ayudar a explicar la extensa cantidad de materia oscura— a los que
se les dio el acrónimo de Objetos Compactos de Halo Astrofísico Masivo (MACHO,
por sus siglas en inglés). Los científicos rivales preferían la perspectiva
conocida como Partículas Masivas Débilmente Interactivas (WIMP, por sus siglas
en inglés), partículas subatómicas hasta ahora no detectadas que podrían
ejercer una atracción gravitatoria permaneciendo invisibles.
La gravedad de una galaxia roja masiva amplía y distorsiona
la luz de una galaxia lejana y antigua situada detrás de ella, formando un
objeto azul en forma de anillo conocido como la Herradura Cósmica. Estas
alineaciones fortuitas crean un efecto de lente que podría permitir a los
astrónomos detectar pruebas de agujeros negros primordiales a la deriva en el
espacio.
CRÉDITO: ESA / HUBBLE Y NASA
Según las leyes de la física, los MACHOs deformarían el
espacio-tiempo a su alrededor, formando regiones parecidas a lentes que
crearían distorsiones observables. Cuando la luz de las estrellas lejanas
atraviesa estos lentes, los telescopios terrestres deberían ver cómo las
estrellas se iluminan brevemente. Sin embargo, cuando los astrónomos buscaron
esos destellos, encontraron pocos casos que pudieran atribuirse a los MACHOs,
lo que llevó a la mayoría de los físicos a centrarse en la idea de que la materia
oscura está formada por las WIMPs.
Pero algunos investigadores nunca perdieron del todo la
esperanza de que los agujeros negros tuvieran algún papel en la materia oscura.
Entre ellos se encuentra Carr, ahora en la Universidad Queen Mary de Londres,
en el Reino Unido, coautor de un reciente artículo sobre los agujeros negros
primordiales en la revista Annual
Review of Nuclear and Particle Science. “Los agujeros negros
primordiales son los candidatos ideales”, afirma. “Sí sabemos que los agujeros
negros existen. No estamos invocando alguna partícula de la que actualmente no
tenemos pruebas”.
Ruidos misteriosos en la noche
Durante las décadas transcurridas, la búsqueda de las WIMPs
hasta ahora no ha dado resultados, aunque no por falta de intentos. Enormes
detectores dedicados a descubrir su existencia no han visto nada. Y el potente
acelerador de partículas Gran Colisionador de Hadrones, cerca de Ginebra, no ha
encontrado ningún indicio de nuevas entidades subatómicas inesperadas. En
consecuencia, algunos investigadores ya se habían alejado de la idea de las
WIMPs cuando se detectaron las nuevas señales de LIGO, lo que desató los
rumores y volvió a centrar la atención en los agujeros negros MACHOs.
Se confirmó que las señales detectadas por LIGO en 2015 eran
chirridos procedentes de una enorme colisión entre dos agujeros negros, cada
uno de los cuales pesaba unas 30 masas solares. Los objetos eran extrañamente
voluminosos —tan grandes que si se hubieran creado por el colapso de estrellas,
estas habrían tenido masas de hasta 100 veces la de nuestro Sol—. Estas bestias
deberían ser bastante raras en el universo, dice Kovetz, por lo que, o
bien LIGO tuvo suerte con su primera detección y detectó un evento muy inusual,
o bien hay más agujeros negros gigantes de los que los físicos esperarían si el
colapso de estrellas fuera su único origen. Tras el anuncio del hallazgo al año
siguiente, tres equipos diferentes propusieron que estos objetos no habían nacido
de las estrellas, sino en los albores del tiempo, antes de que estas
existieran.
“Cuando escribí este artículo... esperaba que alguien diera
alguna razón por la que definitivamente no podía ser cierto”, dice Simeon Bird,
cosmólogo de la Universidad de California en Riverside, cuyo artículo, escrito
en coautoría con Kovetz y otros, fue el primero en salir a la luz. En cambio,
LIGO siguió captando señales adicionales de otros agujeros negros en este rango
de masas inmensas, lo que desencadenó una excitante actividad entre los físicos
teóricos que aún no ha disminuido.
Si los agujeros negros primordiales existen, algunos
investigadores piensan que podrían agruparse en conjuntos con unas pocas
entidades pesadas rodeadas de muchas más ligeras, como se ilustra aquí. Los
nuevos telescopios están a la caza de las señales de tales conjuntos de
agujeros negros putativos.
CRÉDITO: INGRID BOURGAULT / WIKIMEDIA COMMONS
Las nuevas señales llegan en un momento en el que nuestra
comprensión de las condiciones abrasadoras inmediatamente después del big
bang —cuando se habrían formado los agujeros negros primordiales— ha
mejorado enormemente gracias a los nuevos modelos teóricos. Un estudio reciente
de Carr y otros sugiere que, aproximadamente una millonésima de segundo después
del big bang, la expansión del espacio-tiempo habría provocado un
descenso de la temperatura y la presión que podría haberse alineado de forma
adecuada para producir agujeros negros relativamente pequeños con masas
similares a la del Sol. Poco después, las condiciones cambiaron para favorecer
la aparición de agujeros negros de gran tamaño, con unas 30 masas
solares.
Los modelos también sugieren que, a lo largo de la historia
cósmica, estos diversos agujeros negros primordiales podrían haberse encontrado
entre sí. Atraídos por la gravedad, los agujeros negros podrían haber formado
cúmulos, con múltiples objetos más pequeños girando alrededor de un agujero
negro gigante central, de forma parecida a como los electrones suelen orbitar
alrededor de un núcleo atómico.
Esto podría explicar por qué los cazadores de MACHOs de los
años noventa nunca vieron suficientes objetos para dar cuenta de la materia
oscura: solo buscaban lentes gravitacionales creados por los tipos de agujeros
negros más pequeños. Los lentes de los objetos más pequeños serían más
compactos y, al flotar por la galaxia, tardarían menos de un año en pasar por
delante de las estrellas, lo que haría que su luz se iluminara y luego se
atenuara con relativa rapidez. Si los agujeros negros se encontraran en cúmulos,
la deformación gravitatoria del espacio-tiempo, mucho mayor, tardaría más
tiempo en pasar por delante de una estrella lejana —varios años o incluso
décadas —.
Búsqueda de galaxias
Alrededor de 15 segundos después del big bang,
podría haber surgido otro tipo de agujero negro. Según los cálculos actuales,
estos agujeros negros pesarían un millón de veces la masa del Sol, lo
suficientemente grandes como para explicar potencialmente el origen
de las galaxias.
Los telescopios han detectado galaxias
bastante desarrolladas a grandes distancias, lo que significa que se
formaron bastante pronto en la historia cósmica. Resulta desconcertante, ya que
las galaxias son estructuras enormes y, al menos en las simulaciones
computacionales, tardan mucho tiempo en formarse a partir de los lentos y
pesados remolinos de gas y polvo que se encuentran en todo el cosmos. Pero esta
es la mejor explicación de su formación que los astrónomos han encontrado hasta
ahora.
Los agujeros negros primordiales pueden proporcionar una
ruta más fácil. Dado que casi todas las galaxias contienen un enorme agujero
negro en el centro, parece posible que estos goliats gravitacionales
actuaran como puntos de partida, ayudando a atraer material hacia las primeras
protogalaxias en una etapa bastante temprana de la historia cósmica. A medida
que el universo avanzaba, estas pequeñas galaxias se habrían atraído
gravitatoriamente unas a otras, para luego chocar y fusionarse en las galaxias
mucho más grandes que se ven hoy en día.
Carr y sus colegas han empezado a considerar la posibilidad
de que los agujeros negros primordiales estén mucho más extendidos de lo que se
sospecha. En teoría, las condiciones que se dieron poco después del big
bang podrían haber producido agujeros negros aún más pequeños, a
escala planetaria, con masas aproximadamente 10 veces superiores a la de la
Tierra. De hecho, los estudios han detectado diminutos lentes gravitacionales
flotando por toda la galaxia, que pasan por delante de las estrellas y hacen
que su luz parpadee rápidamente. La mayoría de los astrofísicos han atribuido
estos lentes a grandes planetas errantes que fueron expulsados de sus sistemas
estelares. Pero no todos están de acuerdo.
Entre ellos se encuentra el físico teórico Juan
García-Bellido, de la Universidad Autónoma de Madrid, que afirma que los lentes
están causados por agujeros negros primordiales. García-Bellido, coautor del
reciente artículo de Carr, sigue entusiasmado con la idea de los agujeros
negros primordiales.
El nuevo observatorio Vera C. Rubin, que se ve en
construcción en Chile y que comenzará a funcionar a finales de 2023, se
utilizará para escanear el cielo nocturno en busca de pruebas de agujeros
negros primordiales.
CRÉDITO: RUBIN OBS / NSF /AURA
Pero otros no están seguros de que los agujeros negros sean
tan frecuentes como deberían serlo para explicar la materia oscura. “Creo que
es poco probable”, afirma la cosmóloga Anne Green, de la Universidad de
Nottingham, en el Reino Unido. Uno de los problemas de la teoría es que la
existencia de un gran número de agujeros negros de masa multisolar en todo el
cosmos tendría todo tipo de efectos visibles que nunca se han visto. Como estos
objetos consumen gas y polvo, deberían emitir grandes cantidades de ondas de
radio y rayos X que podrían delatar su presencia, añade.
En cuanto a la materia oscura, los modelos teóricos del
universo primitivo también requieren muchos ajustes para que arrojen el número
correcto de agujeros negros que coincidan con la cantidad de materia oscura que
sabemos que existe. “Resulta bastante difícil elaborar modelos que produzcan la
cantidad correcta de agujeros negros”, afirma Green.
Incluso algunos de los mayores fanáticos de los agujeros
negros primordiales ya no son tan optimistas sobre la posibilidad de que los
tipos de agujeros negros detectados por LIGO puedan dar cuenta de toda la
materia oscura del universo. Si muchos de esos agujeros negros estuvieran al
acecho en el espacio, los astrónomos ya habrían visto más de sus efectos, dice
Kovetz. Él sigue pensando que pueden contribuir algo y, en general, que incluir
más tamaños de agujeros negros primordiales más allá de lo que LIGO ha
detectado podría sumar lo suficiente para explicar la materia oscura. Y, sin
embargo, “personalmente, he perdido parte de mi motivación”.
La buena noticia es que los nuevos instrumentos podrían
ayudar a los físicos a llegar al fondo de la cuestión muy pronto. LIGO y Virgo
están siendo actualizados y ahora se les ha unido un detector de ondas
gravitacionales japonés llamado KAGRA. En los próximos años también se pondrá
en marcha un instrumento indio.
Las observaciones de estas instalaciones podrían finalmente
inclinar la balanza hacia un lado u otro. Si los observatorios detectan un
pequeño agujero negro de una masa solar o menos —algo imposible de crear a
partir de la evolución estelar—, proporcionaría una prueba emocionante y
definitiva de al menos un tipo de agujero negro primordial, lo que los
convertiría en una explicación mucho más atractiva para la materia oscura y la
formación de galaxias.
Además de buscar agujeros negros muy pequeños, los
científicos también podrían sellar el acuerdo encontrando agujeros negros que
se formaron incluso antes de que existieran las estrellas. Esto puede estar más
allá de la capacidad de los observatorios existentes, pero la Agencia Espacial
Europea está planeando lanzar en la próxima década una nueva sonda espacial
altamente sensible llamada Antena Espacial de Interferometría Láser (LISA, por
sus siglas en inglés), que podría estar a la altura.
García-Bellido y otros están planeando utilizar otro nuevo
instrumento que está previsto que comience a funcionar en 2023, el Observatorio
Vera C. Rubin de Chile, para buscar estrellas que brillen en escalas de tiempo
de varios años, lo que podría ser una prueba de la existencia de cúmulos de
agujeros negros a la deriva en los cielos. Al menos unos pocos investigadores
esperan que, dentro de tres o cuatro años, puedan tener por fin una respuesta
real y definitiva sobre si los agujeros negros primordiales existen o no.
Hasta entonces, los científicos estarán al borde de sus
asientos, tratando de mantener la mente abierta sobre la materia oscura. Quizás
la misteriosa sustancia resulte estar hecha de muchas cosas, incluyendo tanto
partículas exóticas como agujeros negros. “El universo es desordenado y tiene
un montón de cosas”, dice Bird. “Creo que al universo le gusta ponerle las
cosas difíciles a los físicos”.
El tiempo corre en dos
sentidos, según Julian Barbour
https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/
Desde que la física cuántica hizo su aparición no ha dejado
de sorprendernos. Julian Barbour es un digno representante de este enfoque y
desde hace varias décadas estudia uno de los conceptos más enigmáticos del
universo: el tiempo. Su teoría es fascinante.
Según Julian Barbour, el tiempo corre en dos sentidos a la vez.
Imaginemos que cada sentido es una flecha cuyo origen es el cero. Mientras la
flecha de la derecha aumenta paulatinamente hasta el infinito, la de la
izquierda apuntaría hacia un infinito negativo.
Dicho de una forma más simple, lo que Julian Barbour propone
es que hay un universo en el que el tiempo corre desde lo que llamamos el
pasado hacia lo que llamamos el futuro. Mientras tanto, en otro
universo ocurre lo contrario: el tiempo avanza desde el futuro hacia el pasado. ¿Ciencia
ficción? No, es una teoría científica seria.
El universo y la gran explosión
La teoría más aceptada sobre el comienzo del universo
postula que se originó hace poco menos de 14 mil millones de años a partir de
un elemento más minúsculo que un átomo. Así se formaría toda la materia que
compone el universo.
Esa materia comenzó a expandirse, una tendencia que hoy se
mantiene. La explosión también habría dado origen al tiempo, que desde
entonces habría comenzado a contar. Las partículas de materia, disparadas
en múltiples direcciones, fueron agrupándose y formaron las estrellas, los
planetas y las galaxias.
Según esta teoría, el tiempo se mueve en una sola dirección:
hacia adelante. Al respecto, Julian Barbour y otros físicos se han
preguntado: ¿por qué si el universo se expande hacia todas partes,
el tiempo solo avanza en una dirección? Las posibles respuestas a esta
pregunta dieron origen a la tesis de que el tiempo corre en dos sentidos.
Julian Barbour y el tiempo
Julian Barbour es un físico veterano, profesor de la
Universidad de Oxford y autor de varios libros de divulgación. Su prestigio es
incuestionable. Ha estudiado a fondo el tema del tiempo y a partir de esto ha
planteado su interesante teoría. El postulado básico que propone dice
que el tiempo corre en dos direcciones a la vez.
Barbour dice que la gran explosión original hizo que
comenzara a avanzar en sentidos opuestos, ya que eso es lo propio de una
explosión semejante. Su idea se basa en dos principios de la física: la
entropía y la segunda ley de la termodinámica.
La entropía es un concepto equivalente al caos. La física
señala que la realidad, o más bien los sistemas que la componen, avanzan hacia
el caos. A su vez, el caos es irreversible. Un ejemplo de esto sería una casa
que es abandonada y se cae. El proceso va hasta que se derrumba y es imposible
volver atrás. El derrumbe es el estado más caótico posible.
Ahora bien, la segunda ley de la termodinámica dice
que la entropía solo puede aumentar, pero nunca
disminuir. A su vez, el tiempo avanza en el mismo sentido en el que aumenta la
entropía. Así, en el ejemplo anterior, una vez la casa es abandonada y
comienza a deteriorarse, cada vez es más probable que se derrumbe.
El incremento de la complejidad
Julian Barbour dice que todo lo anterior se ha establecido
así porque se ha observado en un contexto, podríamos decir, “normal”. El de
nuestro planeta, nuestra materia, nuestras dimensiones, etc. Si se mira
en términos del universo como un todo, aparece un nuevo
enfoque.
Supongamos que la casa derruida de la que hablamos está en
el marco de un espacio infinito. Al derrumbarse, las partículas que la componen
viajarían en diferentes direcciones, se juntarían con otras partículas y
formarían nuevas estructuras. Estas serían más complejas.
Barbour trabaja con dos ideas básicas. El Big-Bang produjo
que la materia y el tiempo se desplazaran en dos direcciones opuestas. Por lo
tanto, existiría una especie de “universo espejo”. Lo que se espera en ese
universo es el pasado, porque todo ocurre al revés de nuestro universo. De
una forma simple, lo que hay en ese horizonte es un avance hacia el año cero.
La Integral
de caminos de Feynman
https://culturacientifica.com/2023/04/04/integral-de-caminos/
Cómo nuestra realidad puede ser la suma de todas las
realidades posibles:
La ecuación, aunque adorna las páginas de miles de
publicaciones de física, es más una filosofía que una receta rigurosa. Sugiere
que nuestra realidad es una especie de mezcla, una suma, de todas las
posibilidades imaginables. Pero no les dice a los investigadores exactamente
cómo llevar a cabo la suma. Así que la comunidad científica ha pasado décadas
desarrollando un arsenal de estrategias de aproximación para construir y
calcular la integral para diferentes sistemas cuánticos.
Las aproximaciones funcionan lo suficientemente bien como
para que físicas intrépidas como Loll busquen ahora la integral de caminos
definitiva: una que combina todas las formas concebibles de espacio y tiempo y
produce un universo con la forma del nuestro como resultado neto. Pero en esta
búsqueda por demostrar que la realidad es de hecho la suma de todas las
realidades posibles, se enfrentan a una profunda confusión sobre qué
posibilidades deberían entrar en la suma.
La Gravedad cuántica de
bucles
https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles
Para la Teoría Cuántica de bucles, formulada por científicos
como John Baez, Carlo Rovelli y Lee Smolin, el espacio no es continuo, es
decir, no se puede dividir infinitamente: hay una unidad mínima de distancia.
El espacio-tiempo está “granulado”. Piensa en la pantalla de tu televisión o tu
teléfono móvil. Puedes ver cómo un punto de luz se mueve de un lado a otro de
manera aparentemente continua. Si te acercas lo suficiente puedes notar que la
pantalla está dividida en decenas de miles de cuadritos que forman la imagen.
Estos cuadritos se llaman “pixeles”: son la unidad mínima de la imagen: no se
pueden subdividir más. Y un punto de luz que se mueve puede estar en este
pixel, o en el pixel contiguo, pero no se puede mover “medio pixel”.
La propuesta de la Gravedad Cuántica de bucles es que el
espacio también está así: pixelizado. O más propiamente “cuantizado”, de la
misma manera que la energía sólo se puede transferir en paquetes llamados
“cuantos”. No sólo la materia y la energía, sino el espacio mismo tiene una
estructura atómica. La distancia mínima se llama “distancia de plank”, es
millones de veces más pequeña que un electrón, y nada se puede
mover en distancias menores.
¿Cómo se estructura?
La idea es que el espacio-tiempo está estructurado en redes
de pequeñísimos rizos o bucles conectados entre sí. Estas redes se llaman
“redes de spin”, y son estudiadas mediante una rama de las matemáticas llamada
“teoría de grafos”, que se ocupa de calcular los modos posibles en los que se
relacionan los vértices y las aristas de la red. Una red de spin representa el
estado cuántico de un campo gravitacional. Y no es fijo: está en constante
flujo.
Una hipótesis meramente especulativa dice que las partículas
subatómicas podrían ser “nudos” o “trenzas” dentro de la red de spin. Esta por
ejemplo podría ser un electrón, mientras que ésta podría ser un positrón. Acá
tenemos un electrón neutrino y éste, un anti-neutrino. Y la deformación del
espacio-tiempo que se manifiesta como gravedad a escalas planetarias o
galácticas, empieza aquí, en la escala más pequeña posible. El universo sería
una impresionantemente complicada red de spin.
La antigua idea del espacio y el tiempo como un escenario
donde ocurren las cosas ya no aplica. Una red de spin no está en el tiempo y el
espacio: sino que es el espacio-tiempo mismo.
Energía
del vacío. La mayor discordancia de la historia de la ciencia
http://www.javierdelucas.es/vaciomedir.htm
Las medidas astronómicas basadas en el movimiento del
sistema solar y sobre todo de galaxias lejanas se han traducido en un valor
máximo para la constante cosmológica:
|V|<10-56 cm-2
Este valor máximo implica que la densidad de energía
del vacío tiene que ser menor que 10-9 erg/cm3. A
continuación veamos qué nos dicen las estimaciones teóricas. Si intentamos
expresar la energía del vacío en unidades de Planck que constituyen el sistema
de unidades fundamental en mecánica cuántica obtenemos:
Eplanck=(hc5/G)1/2=1019 GeV
Entonces tenemos que la densidad de energía del vacío
sería:
Pvac=(1019GeV)4=1076 GeV=10114 erg/cm3
¡Esto es una cantidad inmensa de energía! La
discrepancia es por tanto de 123 órdenes de magnitud. Este
valor es de una magnitud inconcebible para el cerebro humano. Por eso se dice
que esta estimación teórica constituye la discordancia entre teoría y
experimento más grande de la historia de la ciencia.
El cálculo de la energía del vacío de la QED
La QED (Quantum Electrodinamics) constituye la más
simple pero a la vez más exitosa teoría que nos permite aplicar los principios
de la mecánica cuántica y la relatividad especial al electromagnetismo. Para
calcular la energía del vacío en QED debemos cuantizar el campo
electromagnético. Al cuantizar obtenemos la expresión:
Pvac=E/V=1/VSum(1/2hWk)=h/(2pi2c3)§0Wmax(w3)
dW=h/(8pi2c3)w4max
Esta expresión nos conduce a la famosa analogía entre el
campo electromagnético y un oscilador armónico cuántico. De esta forma la
energía del punto cero será la suma de la energía del punto cero de cada
oscilador armónico.
Wmax es un parámetro denominado frecuencia de corte que
hablando “a grosso modo” es el valor a partir del cual la contribución de los
armónicos de alta frecuencia se considera despreciable. El valor a introducir
en Wmax es objeto de discusión y la estimación de Pvac depende del valor
elegido. Un valor razonable para Wmax sería aquel en el que el
electromagnetismo deja de existir como tal y se unifica con la fuerza débil, es
decir, la energía a la que se restablece la simetría electrodébil que es del
orden de 100GeV. Con este valor obtenemos:
Pvac=(100GeV)4=1046 erg/cm3 (55
órdenes mayor que el valor experimental).
El cálculo de la energía del vacío electrodébil
En la teoría electrodébil, la energía que adquieren
las partículas y los campos cuánticos al romperse la simetría es proporcional
al vacío del campo de Higgs. El potencial del Higgs es:
V(Ø)=Vo-µ2Ø2+gØ4.
Donde g es la constante de autoacoplamiento del Higgs.
Este potencial es mínimo para
Ø2= µ2/2g por tanto V(Ø)=Vo-µ4/4g
Considerando que V(Ø) se anula para Ø=0 tenemos:
Pvac=-µ4/4g=-gv4=-(105GeV)4= -1043 erg/cm3 (52
órdenes de mayor que el valor experimental)
El cálculo de la energía del vacío de la QCD
La QCD (Quantum Chromodynamics) es la teoría cuántica
que se utiliza cuando tenemos en cuenta la fuerza nuclear fuerte, es decir,
cuando estudiamos el interior del núcleo atómico. En QCD existe una escala de
energía característica denominada Lqcd que es la escala a la cual se restablece
la simetría quiral y desaparece el condensado quark-gluon del vacío cuántico;
por esto la energía del vacío en QCD se suele considerar un prefactor de Lqcd.
El cálculo estimativo nos dice entonces que
Pvac=(10-3 o 10-2)4= 1035 o
1036 erg/cm3 (44 o 45 órdenes mayor que el
valor experimental)
El cálculo de la constante cosmológica según la
Relatividad General
Si consideramos la gravedad el problema se vuelve aún
más difícil, algunos dirían que casi imposible de resolver. El campo
gravitatorio "crea" partículas de forma equivalente a un marco de
referencia acelerado. El efecto Unruh se basa en este fenómeno, de forma que un
detector acelerando en un espacio vacío detectará partículas continuamente. Sin
embargo, existe una buena noticia: los experimentos nos indican que cuando la
gravedad es débil, por ejemplo en la Tierra, los cálculos de nuestras teorías
cuánticas son correctos y por lo tanto podemos despreciar las contribuciones de
la gravedad a la energía del vacío.
Posibles soluciones al problema
Como hemos visto, las contribuciones de los campos
conocidos a la energía del vacío son enormes, muchos órdenes de magnitud por
encima del valor observado experimentalmente. A continuación se enumeran 4
posibles soluciones al que es considerado por muchos como el mayor problema de
la Física:
1º) La existencia de nuevos campos y
partículas que cancelen el enorme exceso de energía estimado
Muchos físicos piensan que tienen que existir nuevas
partículas y nuevos campos cuánticos por encima del rango de energías explorado
que contribuirían a la energía del vacío con signo contrario y que podrían
cancelar la inmensa densidad de energía que predicen nuestras teorías. La
supersimetría es uno de los candidatos favoritos, sin embargo, debido a que la
supersimetría está rota a bajas energías esta cancelación no sería ni mucho
menos exacta, por lo que el problema persiste. El problema es que es muy difícil
que un modelo teórico pueda producir un ajuste tan inmensamente preciso como el
requerido. ¡El ajuste tendría que cancelar el exceso con una exactitud de al
menos 56 cifras decimales!
2º) Realizar una modificación de nuestras
teorías cuánticas
Nadie sabe cómo realizar esto, además éstas han tenido
un éxito experimental sin precedentes.
3º) Realizar una modificación de la relatividad
general
Esto tiene el mismo inconveniente que la anterior.
4º) Considerar que el vacío no posee ninguna
densidad de energía
Esta solución parece imposible, sin embargo, merece tenerse
en consideración: no existe ningún experimento cuántico que pueda medir esta
energía puesto que siempre medimos diferencias de energía.
Además todos los experimentos considerados como debidos a la energía del vacío
(efecto Cassimir, desplazamiento Lamb del átomo de hidrógeno, etc) pueden
explicarse como fluctuaciones de los objetos materiales del experimento (ver
por ejemplo Schwinger Source Theory). Considerar que el vacío
es el estado con 0 energía y 0 momento resolvería de un plumazo el problema de
la constante cosmológica cuyo valor es casi nulo. Por supuesto habría que
estudiar las posibles implicaciones de imponer tal condición en las teorías
actuales.
Si esto resultara correcto el vacío sería la primera
entidad física conocida que no posee energía ni momento y por tanto se podría
"crear" en infinita cantidad sin un aporte neto de energía ¿Como
sucedió en la inflación cósmica?
La Ecuación de la Relatividad
General de Einstein y la energía oscura
En términos técnicos, las ecuaciones de campo de Einstein
son un conjunto de ecuaciones (concretamente, ecuaciones diferenciales
parciales no lineales) que pueden expresarse de forma sintetizada como una
única ecuación:
donde el primer subíndice μ (mu en griego) representa las coordenadas del
espaciotiempo y el segundo subíndice ν (nu en griego) representa las
coordenadas del momento (es decir, el cambio de las coordenadas del
espacio-tiempo -en términos simples, la posición- con respecto al
tiempo). G es la constante gravitacional, c es
la velocidad de la luz, Rμν se llama tensor de
curvatura de Ricci, gμν se llama tensor métrico, es
la curvatura escalar y Tμν se llama tensor de
tensión-energía. Esta ecuación incluye la constante Λ, conocida como la
constante cosmológica, para dar cuenta de una fuente adicional de energía. Λ
representa una fuerza adicional de expansión (energía oscura). La figura
un poco más abajo muestra los términos de la ecuación anterior y su
significado.
La existencia de la energía y la materia oscuras se
dedujeron para que las ecuaciones de campo de Einstein pudieran predecir
correctamente la expansión del universo y la velocidad de rotación de las
galaxias. Según este punto de vista, la energía oscura es la fuente de una
fuerza de expansión en el universo (es lo que explica la constante de Hubble en
las principales teorías), mientras que la materia oscura proporciona una fuente
de gravedad adicional necesaria para estabilizar las galaxias y los cúmulos de
galaxias, ya que no hay suficiente masa ordinaria para mantenerlos unidos dada
la expansión acelerada del Universo. Esta gravedad adicional también explicaría
la velocidad rotacional
de las galaxias.
A grandes rasgos, el lado izquierdo de la ecuación de la figura anterior
expresa la deformación geométrica del espacio-tiempo producida por la
contribución de energía-masa en el lado derecho de la misma ecuación. Esta
deformación del espacio también explica las ondas gravitacionales detectadas
recientemente por LIGO en 2015 y que emanan de la fusión de dos agujeros
negros.
Como afirma el físico John Wheeler, "el espacio-tiempo
le dice a la materia cómo moverse; la materia le dice al espacio-tiempo cómo
curvarse".
La Ecuación
de Dirac y la antimateria
https://significado.com/ecuacion-de-dirac/
Aplicar reglas de cuantización sobre una función
vectorial de cuatro dimensiones
Las reglas de cuantización conducen a operaciones con
derivadas que normalmente actúan sobre una función de onda escalar, pero como
las constantes α y β son matrices de 4X4, los operadores diferenciales actuarán
sobre un vector de cuatro dimensiones Ψ, al que luego se le llamó el espinor.
Si se elige un sistema de medida en el que la velocidad de
la luz sea 1, la ecuación de Dirac se escribe así:
En la ecuación anterior se expresa una sumatoria sobre los índices μ,
comenzando desde 0 hasta 3, y por supuesto, “i” es la unidad imaginaria, ya que
se trata de una ecuación en variable compleja.
Esta ecuación se suele compactar más mediante el uso del
símbolo ∂ atravesado por una barra inclinada / para simbolizar la sumatoria de
derivadas, así queda:
Esa expresión es la que ha quedado como “ecuación del amor”.
Las soluciones de la ecuación de Dirac y el espín del
electrón
La ecuación de Dirac es una ecuación de autovalores que
corresponden a las energías posibles. Hay dos soluciones con energía positiva,
una para cada estado de espín, y dos soluciones con energía negativa, también
para cada uno de los dos estados posibles de espín.
Es de resaltar que el espín, en la ecuación de Dirac,
aparece naturalmente, como un resultado de sus posibles soluciones y a
consecuencia directa de tomar en cuenta la energía relativista.
Es así que, por primera vez en la Física, se cae en cuenta
que el espín, una propiedad intrínseca del electrón y de otras partículas
elementales, es una consecuencia de la relatividad. Por cierto, esta propiedad
del electrón había sido comprobada antes que Dirac formulara su ecuación,
gracias al famoso experimento de Stern y Gerlach en 1922.
La ecuación de Dirac predice la existencia de la
antimateria
Dirac fue increíblemente brillante al haber obtenido su
ecuación, aplicando ingeniosamente las matemáticas, y también es notable la
forma en que interpretó sus soluciones.
Al principio, a Dirac no le quedaba claro si había
electrones con energía cinética negativa. Entonces teorizó lo siguiente:
El vacío (la ausencia de electrones) no es tal, sino que
está lleno de electrones con energía negativa en sus dos estados de espín.
Lo que sucede es que los científicos no tienen la
posibilidad de ver esos electrones, de la misma forma que normalmente no se ven
los peces del mar, de allí sale la denominación mar de Dirac.
Ahora bien, si un fotón es capaz de entregar energía
suficiente a uno de los electrones de ese mar, entonces sí será visible,
apareciendo de la nada.
Pero el espacio vacante en el mar de Dirac es un hueco de
carga positiva, es decir una partícula de la misma masa y carga que el
electrón, pero positiva, llamada positrón.
Poco tiempo después de la interpretación de Dirac, en 1932,
Carl D. Anderson detectó experimentalmente el positrón.
La Métrica de Alcubierre y la
densidad de energía negativa para los viajes superlumínicos
https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre
Gráfico de la impulsión de Alcubierre, mostrando las regiones opuestas,
contraída y extendida, del espacio-tiempo respecto al sector central en el cual
se ubica la burbuja plana de deformación.
La Métrica de Alcubierre es una idea
especulativa basada en un modelo matemático que supondría posibles los
viajes a velocidades mayores que c (velocidad de la luz), es decir, superlumínicos.
Con base en algunas de las instancias teóricas pero probables estudiadas
del espacio-tiempo, Alcubierre plantea la métrica que
lleva su nombre como una solución a las ecuaciones de Einstein en el marco de
la Teoría General de la Relatividad.
Fue publicada en la
revista científica Classical and
Quantum Gravity1en 1994 por el físico mexicano Miguel
Alcubierre.
Idea general (el
Impulso por deformación)
La métrica de Alcubierre tiene, como una de sus conclusiones
más llamativas, la posibilidad de un viaje a mayor velocidad que la luz al
crearse una burbuja de deformación plana dentro de la cual se
situaría estacionariamente la cosmonave; detrás de la cosmonave el espacio-tiempo sería
deformado extendiéndolo mientras que por contraparte delante de la cosmonave el
espacio-tiempo sería contraído o contractado poniendo así el punto de destino
mucho más cerca, mientras que "detrás" de la nave el espacio-tiempo
quedaría expandido "empujado" hacia atrás gran cantidad de años luz,
todo esto sin que el espacio y el tiempo dentro de la burbuja de deformación
plana en que se hallaría la cosmonave se modificara notoriamente.
En tal caso la nave (para hacer una analogía)
"surfearía" sobre una especie de ola espaciotemporal dentro de la
"burbuja de deformación plana" que es plana por permanecer estable
entre las dos distorsiones (la anterior y la posterior) provocadas en el
espacio-tiempo (se crearía una distorsión local del espacio-tiempo).
Existirían enormes fuerzas
de marea en la región periférica de la supuesta burbuja debidas a las
curvaturas provocadas en el espacio-tiempo; sin embargo, tales fuerzas serían
despreciables en el interior de la burbuja dado el carácter plano que allí
tendría el espacio-tiempo (véase gráfico).
No se violaría ninguna ley física de las previstas por la
teoría de la relatividad ya que dentro de la "burbuja de deformación"
nada superaría la velocidad de la luz; la nave no se desplazaría dentro de tal
burbuja sino que sería llevada por la misma, la nave dentro de la burbuja nunca
viajaría más rápido que un haz de luz.
La nave y sus presuntos tripulantes estarían exentos de
sufrir los efectos devastadores provocados por las aceleraciones con
sus correspondientes enormes fuerzas g, desaceleraciones o los
efectos relativistas como la contracción de Lorentz y la dilatación del tiempo a altas
velocidades. Alcubierre ha podido demostrar que incluso cuando la nave está
acelerando viaja en una caída
libre geodésica.
Sin embargo, el que la burbuja de deformación permita
viajes superlumínicos se debe a la posibilidad de que el
propio espacio-tiempo en el cual viaja la luz tenga la capacidad de superar la
velocidad de la luz.
La Teoría de la Relatividad considera imposible que los objetos viajen a una
velocidad mayor que la de la luz en el espacio-tiempo, pero se
desconoce a qué velocidad máxima puede moverse el espacio-tiempo; se
hipotetiza que en casi en el instante inicial del Big Bang nuestro
universo poseía velocidades exponenciales superlumínicas (véase Universo inflacionario), se supone asimismo
que algunos quásares muy lejanos pueden alcanzar velocidades de
recesión translumínicas.
Aquí se introduce otra analogía: existe una velocidad máxima
a la cual un objeto puede marchar sobre el suelo ¿pero qué ocurriría si es un
suelo móvil —como puede ser una cinta trasportadora— que supera la velocidad de
la marcha? Esto supone un cambio en el sistema de coordenadas utilizado como
referencia para medir la velocidad. Si el sistema de coordenadas se mueve en la
misma dirección del desplazamiento respecto a un segundo sistema de referencia
(que debería ser externo al propio espacio-tiempo), el objeto debiera poder
incrementar su velocidad indefinidamente respecto del segundo sistema de
referencia. Lo que esta analogía plantea es si ¿sería posible "cabalgar
sobre un rayo de luz"?
Para crear un dispositivo como la burbuja de
deformación que permita el impulso de deformación —
explica Alcubierre— se requeriría operar con materia de densidad negativa
o materia exótica,
creando así con tal materia una burbuja de energía negativa que englobaría a la nave
(véase Dirac, Energía negativa). Según Alcubierre, la
cantidad de energía negativa sería proporcional a la velocidad de propagación
de la burbuja de deformación, verificándose que la distribución de la energía
negativa estaría concentrada en una región toroidal perpendicular a la dirección en que
se movería la burbuja plana (véase ilustración).
De este modo, dado que la densidad de energía sería
negativa se podría viajar a una velocidad mayor que la de la luz merced al
efecto suscitado por la materia exótica. La existencia de la materia exótica no
está descartada, antes bien el efecto
Casimir parece confirmar la existencia de tal materia; sin embargo
producir bastante materia exótica y conservarla para realizar una proeza como
el viaje superlumínico plantea los mismos actualmente
irresolubles problemas que para mantener estable a un agujero
de gusano.
Por otra parte en la Relatividad General primero se específica una distribución
factible de la materia y de la energía para luego encontrar una geometría del
espacio-tiempo asociada; si bien es posible operar con las ecuaciones de
Einstein primero especificando una métrica y luego encontrando el tensor de
energía e impulso asociado a tal métrica (que es lo realizado por Alcubierre),
esta práctica significa que la solución podría violar varias condiciones de energía y requerir la
materia exótica.
Robert J. Low, en 19992ha probado que dentro del
contexto de la relatividad general y aún en ausencia de la materia exótica es
posible construir una burbuja de deformación (los textos en francés utilizan
como equivalente de burbuja de deformación las palabras «commande de chaîne»/
pedido de cadena). Una teoría coherente de la gravedad cuántica quizás sirva para resolver
estas cuestiones.
Además, Alexey Bobrick y Gianni Martire afirman que, en
principio, se puede construir una clase de espaciotiempos sublumínicos y
esféricamente simétricos de impulso factorial basados en principios físicos
actualmente conocidos por la humanidad, como la energía positiva.3
La métrica de Alcubierre puede ser escrita:
La densidad de energía necesaria para causar ese tensor métrico es:
Así la densidad de energía es negativa y se
requiere por esto de la materia exótica para provocar las
deformaciones del espacio-tiempo.4
Otras denominaciones
El sistema supuesto por
Alcubierre para los viajes cósmicos es denominado en inglés "Warp
Drive" (el mismo nombre dado en la serie Star Trek —
o "Viaje a las estrellas"—), la traducción es: Impulso por
deformación o Impulso de Deformación o Distorsión Impulsada, también se
encuentran las siguientes traducciones: Impulso de torsión, Impulso Warp,
Impulso curvado, Impulso deformativo, Viaje curvado, Viaje combado, Motor de
curvatura e incluso Motor de Impulso Factorial. Todas estas denominaciones dan
la noción del principio básico de este hipotético método de viaje "superluminal":
en lugar de acelerar un objeto (supongase la cosmonave) a velocidad c o
próxima a c se combaría o curvaría el "tejido" del
espacio-tiempo de modo que los objetos a donde se viaja se acerquen sin un
movimiento de la nave en el sentido usual del término movimiento: más que
moverse la nave -en estas hipótesis-, es movido (curvado) el espaciotiempo.
Los 10 pasos clave de la evolución
https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/
La evolución de las especies a
lo largo de su historia ha permitido la aparición de cualidades impresionantes
a los seres vivos. En este post me gustaría repasar los que creo son los 10
cambios más relevantes que han ocurrido en la historia de la vida en la Tierra
desde que aparecieron los primeros seres vivos. Evidentemente estos pasos
fueron todos muy graduales y es difícil acotarlos en «un paso». La lista está
ordenada por orden cronológico de aparición partiendo de los primeros seres
replicantes cuyas características concretas sólo podemos especular actualmente:
1-La fidelidad en la copia
del DNA
Una bacteria actual
comete un
error en la copia del DNA cada 10E10 generaciones aproximadamente. Este
ratio entre mutaciones y fidelidad permite adaptaciones pero limitando
acumular grandes errores rápidamente que acabarían con la especie. La
principal artífice de esta maravilla evolutiva se llama DNA polimerasa que por
si sola es capaz de copiar fielmente varios miles de bases de DNA antes
de cometer un error. Las versiones más avanzadas y que aparecieron más tarde en
la evolución de los eucariotas tienen además mecanismos de revisión para
minimizar los errores cometidos. Su necesidad para la vida es tal que no
existen seres vivos que carezcan de este mecanismo. Sólo
algunos virus como el HIV que a cambio utilizan la perfecta maquinaria
celular.
2-El flagelo
Flagelo bacteriano
De esperar a que la comida
llegue, a ir a p0r ella. Este uno de los cambios principales cambios que supuso
el flagelo. Aunque anteriormente las bacterias desarrollaron pequeños
filamentos (cilios) que permitían cierto movimiento lo cierto es que estás estaban
totalmente sometidas a las fuerzas que gobiernan el movimiento browniano:
Imaginad que estáis dentro de una piscina llena de canicas que se
propulsan a toda velocidad en todas direcciones. El flagelo suponía además
una mejora en la capacidad de colonizar nuevos y lejanos ambientes o de escapar
de circunstancias adversas. Puedes ver un vídeo sobre la evolución del
flagelo aquí donde se postula su aparición a partir de un organulo
destinado a la sujeción.
2-El fotorreceptor
Y se hizo la luz. La capacidad
de reconocer la luz suponía inicialmente acceso a alimento (la síntesis de
muchos compuestos orgánicos es catalizada por la luz) y una guía para el
movimiento (define arriba y abajo). Sin embargo, este pequeño avance sembraría
la semilla para dos futuros mecanismos de gran relevancia: la fotosíntesis y la
visión. Los fotorreceptores se basan en pigmentos capaces de excitarse con la
luz y de transmitir dicho estado excitado a alguna proteína.
3-La fotosíntesis
¿Quién necesita comida cuando
puedes fabricarla? Este es quizás el salto evolutivo más impresionante: la
capacidad de producir compuestos orgánicos a partir de inorgánicos, mucho más
abundantes. Estas reacciones requieren de gran energía que los seres vivos
obtienen del calor, degradación de otros compuestos orgánicos/ inorgánicos o de
la luz. Podéis leer algo más sobre la fotosíntesis en
este otro post que escribí. La fotosíntesis no podría ser posible sin los
fotoreceptores que además probablemente coevolucionaron con la mejora del
flagelo. Ninguno de estos «castillos de naipes» habria aguantado sin la
fidelidad en la copia del DNA.
4-El ciclo de Krebs y la
respiración oxidativa
La fotosíntesis trajo
consigo una nueva época de problemas u oportunidades según se mire. El
principal deshecho de la fotosíntesis es el oxígeno. Una molécula que ahora nos
parece inocua pero que cuando apareció era como vivir en un mar de arsénico. El
oxígeno tiene la capacidad de oxidar el DNA y las proteínas e interfería en
muchas de las reacciones necesarias para las bacterias de la época. La
aparición del oxígeno atmosférico probablemente fue un proceso rápido que acabo
de un plumazo con la mayoría de las especies. Algunas especies (entre ellas las
productoras de oxígeno) desarrollaron mecanismos para inactivar el oxígeno,
entre estos mecanismos encontramos la utilización de electrones y protones que
reaccionan con el oxígeno produciendo agua. Curiosamente se pueden obtener
electrones como productos de deshecho del metabolismo de compuestos orgánicos.
La sofisticación del metabolismo de los azucares en el denominado ciclo de
Krebs junto a un complejo sistema de transporte de electrones permitió aprovechar
al máximo la energía de los compuestos orgánicos.
5-La célula eucariota
La complejidad de la aparición
de la vida es el único hecho comparable a la aparición de la célula eucariota.
Se ha especulado que los eucariotas
provienen de la simbiosis de varios tipos bacterianos, hipótesis que
cobra fuerza con los análisis genéticos. En cualquier caso la aparición de
células con núcleo definido y orgánulos es una gran caja negra. Uno de los
procesos evolutivos más interesantes que nos quedan por descifrar. El gran
avance de la célula eucariota puede describirse con algo tan simple como la
compartimentalización. Cada cosa en su rincón. Muchas de las
reacciones químicas celulares requieren un ambiente muy específico incompatible
con otras reacciones.
6-La especialización
celular
El hijo favorito. Una célula
se divide en dos pero no deja lo mismo en cada célula hija: una contiene más
deshechos que otra, diferente concentración de proteínas o le falta algún
componente. Estos podrían haber sido los antecedentes de la especialización
celular. Ocurre actualmente en bacterias, levaduras o algunas algas
unicelulares y que en algunos casos viven en colonias, donde
algunos individuos se especializan en ciertas funciones en función de
su localización dentro de la colonia. La especialización supone una mayor
eficiencia. De allí hasta células como las neuronas o los glóbulos blancos
quedaría aun un buen trecho.
7-La reproducción sexual
¡Qué sería de nosotros sin el
sexo! Se ha sugerido que la reproducción sexual permite una rápida adaptación
de las especies al eliminar rápidamente las mutaciones perniciosas y esparcir
las beneficiosas. Su aparición podría estar relacionada con virus y otros
parasitos o bien como un resultado colateral de la estrategia de duplicar el
genoma para reducir los efectos de las mutaciones. En cualquier caso, los seres
vivos con reproducción sexual se han diversificado y adquirido una complejidad
que ningún ser asexual puede superar.
8-El desarrollo embrionario
«Nada
de lo que te ocurra en la vida te marcará tanto como la gastrulación«. Las
instrucciones para formar un cuerpo de forma progresiva y ordenada supusieron
el salto entre un mundo de medusas y gusanos al actual. Instrucciones que se
encuentran agrupadas en bloques o paquetes genéticos que permiten gran
adaptabilidad. Un paso a destacar en el desarrollo embrionario es la gastrulación, que
consiste en la invaginación de una capa de células del embrión. Así, a primera
vista no parece tan importante pero su aparición supuso la
especialización en 3D, como ocurre en la mayoría de los animales como
nosotros frente a la especialización en 2D que ocurre en los gusanos.
Etapas del desarrollo embrionario humano
9-El sistema nervioso y el
cerebro
Mucho antes de la aparición
del sistema nervioso las células se comunicaban solamente mediante contactos
con su célula vecina y la emisión de señales, como hormonas. En mi opinión el
salto no está tanto en la formación de una red para hacer llegar las señales
más rápido sino en una centralización de las señales, que a largo plazo
supondría la aparición del cerebro. El estudio de las redes neuronales ha
avanzado considerablemente en los últimos años gracias a los estudios en varios
animales modelo, especialmente en el gusano C. elegans, del
que conocemos la red que forman sus 302 neuronas.
10-La percepción del
individuo
Hasta hace unos pocos años se
creía que sólo los primates superiores teníamos esta capacidad. Sin embargo
varios estudios demuestran que otros mamíferos como
el elefante o el delfín, e incluso aves como la urraca poseen dicha
habilidad. Se ha especulado que esta capacidad es la precursora de la aparición
de lo que llamamos el yo y del pensamiento racional. Si bien
este último merecería una escala entera por si mismo.
La Mecánica Cuántica de la
fotosíntesis
http://neofronteras.com/?p=3012
Descubren unos mecanismos
mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la
fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones
de años antes que los humanos.
|
Si alguien nos dice que
durante la fotosíntesis se utiliza la Mecánica Cuántica no nos debería extrañar
lo más mínimo. Al fin y al cabo, la célula fotoeléctrica del ascensor o las
placas solares del tejado (si es que se tienen) funcionan bajo los mismos principios.
La explicación al efecto fotoeléctrico tiene ya 105 años, fue dada por Albert
Einstein y por ello recibió el Nóbel de Física. Todo el mundo sabe, por tanto,
que la Mecánica Cuántica debe jugar un papel esencial en la fotosíntesis, pero
los detalles del proceso se desconocían.
Cuando uno estudia Mecánica Cuántica (MC) por primera vez se decepciona un
poco, pues su introducción suele ser fenomenológica. Uno espera ver gatos de
Schrödinger y en su lugar ve, como máximo, cuantos de energía y niveles en el
átomo de hidrógeno o en el pozo cuadrado. Es decir, a lo más que se suele
llegar es a la ecuación de Schrödinger.
Lo más fantástico y sorprendente viene normalmente después y para ello se
necesita un buen andamiaje matemático basado en los espacios de Hilbert. Es
entonces cuando se ven las bases de la MC, sus postulados, la preparación de
estados, la superposición de los mismos, el colapso de la función de ondas, la
paradoja EPR y, ¿cómo no?, el gato de Schrödinger.
Hacer experimentos para estudiar estos detalles de la MC es muy difícil,
normalmente todo se va al traste con la menor perturbación, por eso a veces hay
que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto,
momento en que cesa toda vibración. De ahí que sea tan difícil conseguir el
famoso computador cuántico. Tener una partícula en una superposición de un par
de estados es todo un logro. Pues bien, al parecer las plantas llevan haciendo
esto mismo desde hace miles de millones de años.
Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo
de la Biología Cuántica al observar estados cuánticos muy especiales durante la
fotosíntesis de algas marinas. Otro equipo australiano ha llegado a resultados
similares.
Según Greg Scholes, líder del proyecto canadiense, sus experimentos muestran
que los sistemas biológicos tienen la capacidad de usar la MC para así
optimizar procesos esenciales como el de la fotosíntesis.
La fotosíntesis usa diferentes sistemas bioquímicos. En un primer paso están
las “antenas” o los complejos que captan la luz y la llevan a los centros de
reacción en donde se suceden otros procesos que finalmente dan lugar a energía
química utilizable por la planta. Cuando un fotón alcanza una de estas antenas
transfieren su energía a los electrones de la misma, pero esta energía se puede
perder si no es transferida rápidamente a otra molécula.
En el alga Chroomonas CCMP270, por ejemplo, estas antenas tienen 8 moléculas de
pigmentos tejidas en una estructura proteica más grande, y cada pigmento
absorbe luz de una diferente gama de frecuencias (color) del espectro
electromagnético. La ruta a lo largo de estas moléculas es importante porque
cuanto más largo sea el viaje más pérdidas de energía se pueden producir. Desde
un punto de vista clásico la energía debería viajar por un camino aleatorio por
ellas. Por tanto, los investigadores esperaban que la energía de un pulso láser
no se transfiriera desde la antena a los centros de reacción de manera
eficiente y parte se perdiera.
Este equipo de investigadores aisló estas antenas o complejos de captación de
luz de dos especies distintas de alga marina y estudió su funcionamiento a
temperatura ambiente (a 21 grados centígrados) gracias a la espectroscopía
electrónica bidimensional. Para ello se valieron de un láser de femtosegundo
con el que iluminaron esos complejos y así remedar el proceso natural de
absorción de luz.
El pulso de este tipo de láser es tan corto que se pueden vigilar más
fácilmente los procesos que se suceden después de la iluminación sin la
interferencia del haz que iluminó, aunque esos procesos sean muy rápidos. Entre
los fenómenos que se pueden observar está el movimiento de la energía por las
moléculas especiales que están unidas a una proteína.
Al excitar con el pulso láser se consigue que los electrones de las moléculas
de pigmentos salten a un estado excitado. Al volver a sus estados fundamentales
se emiten fotones con longitudes de onda ligeramente diferentes que se combinan
para formar un patrón de interferencia determinado. Estudiando este patrón los
científicos pudieron estudiar el estado de superposición que se creaba.
Los investigadores se vieron sorprendidos al observar claramente la
supervivencia a largo plazo (cuatro veces más prolongados de lo esperado) de
estados mecanico-cuánticos relacionados con ese movimiento de energía. Este
tiempo (400 femtosegundos o 4 × 10-13 s) es lo suficientemente
largo como para que la energía del fotón absorbida ensaye todos los posibles
caminos (¿recuerda esto a la integral de caminos de Feyman?) a lo largo de la
antena, permitiendo que viaje sin pérdidas. Durante un tiempo la energía de la
luz absorbida reside en varios lugares a la vez. Es decir que hay una
superposición coherente de estados cuánticos. En esencia la antena realiza una
computación cuántica para determinar la mejor manera de transferir la energía.
El descubrimiento va en contra de la idea supuesta que sostiene que la
coherencia cuántica sólo puede ocurrir a temperaturas muy bajas cerca del cero
absoluto, porque le calor ambiental la puede destruir. Se desconoce cómo se las
arregla este sistema fotosintético para realizar esta proeza, pero se especula
que quizás se deba a la propia estructura de la proteína.
Según Scholes, este resultado podría significar que las leyes de probabilidad
mecánico-cuánticas prevalecen sobre las leyes clásicas en los sistemas
biológicos complejos, incluso a temperatura normal. La energía puede entonces
fluir eficientemente bajo la perspectiva clásica de una manera contraintuitiva
y atravesar de manera simultánea varios caminos alternativos a través de las
proteínas. En otras palabras, los complejos de captación convierten la luz en
una onda que viaja desde la antena a los centros de reacción sin pérdida de
energía.
Scholes se plantea si los organismos desarrollaron esta estrategia
mecánico-cuántica de captación de energía solar como una ventaja adaptativa.
Según él es como si el alga “conociera” la Mecánica Cuántica 2000 millones de
años antes que los humanos. La pregunta que queda por resolver es obvia: ¿se
dan este tipo de fenómenos mecánico-cuánticos en otros procesos biológicos?
Paul Davies, director del BEYOND Center for Fundamental Concepts in Science con
sede en Arizona, cree que la Naturaleza ha tenido miles de millones de años
para evolucionar aprovechándose de las ventajas cuánticas, y que probablemente
las explota de manera eficiente cuando puede. Sospecha que el funcionamiento de
muchas estructuras biológicas nanométricas sólo se podrán entender
completamente con referencias a la coherencia, efecto túnel, entrelazamiento y
otros procesos cuánticos no triviales. El desafío será identificar dichos
procesos en el ambiente ruidoso de la célula.
Tunelaje cuántico para conseguir la fusión nuclear en el
Sol
https://triplenlace.com/2014/01/16/la-quimica-del-sol/
A 8 minutos y 19 segundos-luz
se encuentra nuestro sol. Cuando observamos a nuestra estrella aparecer en el
horizonte entre brumas añil y rojos suaves, hace ya 8 minutos y 19 segundos que
el sol estuvo en esa posición. Se encuentra nada menos que a 150 millones de
Kilómetros de la Tierra. Y menos mal porque se trata de un potente reactor
químico.
Del sol sabemos que su
diámetro es 109 veces el de la Tierra, concretamente 1.400.000 Km; tres cuartas
partes está compuesto de hidrógeno, una cuarta parte es helio y menos del 2%
está formado por oxígeno, carbono, nitrógeno, silicio, neón, hierro y azufre.
La temperatura en su superficie es de 5.000 grados centígrados mientras que en
su núcleo alcanza la astronómica cifra (nunca mejor dicho) de 15 millones de
grados centígrados. Pero ¿qué reacción química consigue tan exuberantes
resultados? La fusión nuclear.
La fusión nuclear en el sol
consiste en la transformación de dos átomos ligeros en un átomo más pesado.
Esos átomos ligeros son el combustible de la reacción y resultan ser isótopos
del hidrógeno. El hidrógeno es el más sencillo de los elementos químicos, tiene
un protón en su núcleo y un electrón girando alrededor. Sin embargo, en la
naturaleza también se presentan isótopos; de vez en cuando el protón del núcleo
del átomo de hidrógeno aparece acompañado de partículas neutras: los neutrones.
Cuando un neutrón acompaña al protón de hidrógeno en el núcleo tenemos un átomo
de deuterio, 2H ó D; cuando
se suman dos neutrones al protón de hidrógeno tenemos otro isótopo, el
tritio, 3H.
Estos dos isótopos de hidrógeno son los átomos clave de la reacción de fusión
nuclear. Cuando un átomo de deuterio se encuentra con un átomo de tritio y se
fusionan en un superchoque dejan tras de sí un nuevo
átomo que contiene en su núcleo dos protones y dos neutrones: un átomo de helio, He.
Pero si han hecho las cuentas de cabeza se habrán dado cuenta de que en este
balance de materia nos sobra un neutrón.
12H
+ 13H → 24He + 01n
Efectivamente, ese neutrón
sobrante sale despedido después del choque con la velocidad de la luz
transformando su masa en energía según la famosa ecuación de Einstein:
E = mc2
Donde E es
energía, m es la masa de la partícula y c es
la velocidad de la luz. ¡Por cada mol de hidrógeno que reacciona se liberan 180
GJ (gigajulios)!
Ahora bien, visto así no parece que esta reacción tenga mucha complicación y
poder controlarla nos liberaría de nuestra dependencia de combustibles fósiles
como las gasolinas o el gas natural y en eso se afanan los científicos que
investigan en la fusión fría. ¿Pero por qué “fría”?
Volvamos al sol. Las condiciones en las que esta reacción tiene lugar no se
producen con facilidad. En primer lugar, el sol es una masa de plasma. El
plasma es un estado de la materia a muy altas temperaturas en el que la masa de
su superficie es menos densa y mucho más densa en su núcleo. Las altas
temperaturas a las que están sometidos los átomos en el plasma hacen que
pierdan sus electrones convirtiéndolo en una especie de gas ionizado.
Por lo tanto en esas
condiciones tenemos una bola de núcleos que se mueven y chocan entre sí y que
cuanto más cerca están del núcleo de plasma alcanzan más temperatura y más
densidad. Es decir, se mueven más (tienen más energía cinética) y están más
cerca los unos de los otros a presiones extremas. En el mayor punto de
temperatura y densidad, los núcleos, alcanzan una velocidad próxima a la de la
luz. Sin embargo, aunque todo esto suena favorable para un choque de fusión
nuclear, existe también otra potente fuerza que resulta desfavorable: la fuerza
de repulsión entre los protones, ya que éstos tienen cargas positivas
y se repelen entre sí. A veces estas fuerzas de repulsión pueden ser infinitas.
La cuestión es resolver en qué momento la energía cinética y la densidad son
suficientes como para vencer esa repulsión, para lo cual debemos recurrir a lo
que se conoce en Física como túnel cuántico o barrera
de penetración.
Este efecto de la mecánica cuántica se aprovecha de la dualidad onda-partícula
de la materia a niveles subatómicos y predice que para una partícula que esté
confinada en una habitación de paredes infinitamente altas, y que por lo tanto
nunca las pueda superar con su función de onda asociada, pueda sin embargo
atravesar la pared como si de un fantasma se tratara. La ecuación de Schrödinger puede
hacer una predicción sobre la probabilidad que tiene esa partícula de salir de
su confinamiento “atravesando” la pared gracias a que tenga una función de onda
que varíe suavemente dentro de la región cercana a la pared y recupere el
aspecto de onda oscilante cuando sale de ella. Esto es posible para partículas
ligeras que atraviesan barreras o “paredes” de pequeño grosor, tales como los
isótopos de hidrógeno venciendo la barrera energética de su propia repulsión.
Las intensas investigaciones
en el campo de la fusión fría están orientadas a conseguir esa reacción
termonuclear a temperatura ambiente. El combustible en forma de partículas
ligeras como los isótopos de hidrógeno son fáciles de conseguir y se convertiría
en una fuente inagotable de energía. La fusión nuclear en frío de forma
controlada es, sin duda alguna, uno de los mayores retos energéticos que se
plantea la ciencia moderna. En realidad, es: el reto estrella.
¿Es nuestra consciencia cuántica?
Las biomoléculas presentan un comportamiento mecánico cuántico
Un equipo de investigación
dirigido por Anirban Bandyopadhyay -investigador preeminente en la ciencia de
la biología cuántica-, ha demostrado la existencia de vibraciones mecánicas
cuánticas a alta temperatura en las neuronas del cerebro. La investigación,
llevada a cabo en el Instituto Nacional de Ciencias de los Materiales de
Tsukuba (Japón), descubrió cómo la oscilación de alta frecuencia de los
microtúbulos -medida en este caso a un millón de ciclos por segundo (un
megahercio - 1MHz de oscilación de los momentos dipolares eléctricos de los
electrones libres y de cambio conformacional), provocan una interferencia de
ondas que puede dar lugar a la forma característica de las oscilaciones
eléctricas del cerebro que se correlacionan con la conciencia, concretamente un
nuevo tipo de señal electroencefalográfica (EEG) de 40 Hz / 4 Hz de gestalts
anidados (oscilaciones gamma y delta, respectivamente), denominadas
"frecuencias de latido".
Las frecuencias gamma se han
correlacionado con la conciencia, aparentemente a través de la acción de la
sincronización neuronal, y la estructura de onda periódica de las
"frecuencias de latido" gamma-delta recuerdan mucho a las bandas de
interferencia alternas de los cuantos que se producen en los experimentos de
doble rendija. Así, parece que se vincula la sincronización cerebral de la
conciencia con los comportamientos mecánicos cuánticos subyacentes de los
microtúbulos. Con estas vibraciones cuánticas, los microtúbulos pueden
entrelazarse en las redes neuronales a través de canales de interconexión,
llamados gap junctions (uniones en hendidura), que unen físicamente a las
neuronas. Esta es la teoría de la conciencia desarrollada y defendida por el
biólogo cuántico y anestesista jefe de la Universidad de Arizona, Stuart
Hameroff, y el profesor emérito de matemáticas de la Universidad de Oxford, el
físico Roger Penrose.
Los últimos descubrimientos
apoyan firmemente su modelo de que la mecánica cuántica dentro del cerebro
engendra la conciencia, el que ha recibido apasionadas críticas por parte de
los académicos desde su creación en la década de 1980, como es típico de cualquier
paradigma revolucionario.
El papel del agua en el
cerebro
Cabe destacar que Anirban
Bandyopadhyay y su equipo de investigación, han realizado experimentos que
indican la importancia central del agua en las operaciones de procesamiento de
la información dentro del cerebro y el cuerpo. En su artículo: el canal de agua atómico
que controla las propiedades notables de un solo microtúbulo cerebral, el
equipo de investigación informó sobre la experimentación con el agua altamente
ordenada dentro de la cavidad cilíndrica del lumen del microtúbulo.
Descubrieron que cuando se evacuaba el agua de la cámara central, el
microtúbulo dejaba de mostrar una fuerte correlación en el conjunto
macromolecular de las subunidades de tubulina.
Esto sugiere que el agua
desempeña un papel central en la coordinación del comportamiento de las
múltiples subunidades del microtúbulo y que, en efecto, lo hace funcionar como
una sola molécula, un efecto altamente cuántico. El agua, como han sugerido
el físico Nassim Haramein y el equipo de investigación de RSF, forma parte de
la coherencia de largo alcance y de la orquestación de los procesos de
información celular correlacionados con la conciencia [1].
[1] Véase
la sección "El papel del agua ordenada en la coherencia y la
transmisión de información dentro del sistema biológico" en Unified
Spacememory Network; Haramein et al., 2017.
Observaciones de la
anestesia
Además, las investigaciones
realizadas en la Universidad de Pensilvania, dirigidas por Roderick G.
Eckenhoff, sugieren que los compuestos anestésicos actúan en parte
interrumpiendo la función normal de los microtúbulos, aparentemente dispersando
los dipolos eléctricos necesarios para la conciencia. Fueron los estudios
anestesiológicos de Stuart Hameroff en los años 70 los que le llevaron a
sugerir un papel de los microtúbulos en la generación de la conciencia, tras
observar cambios en la dinámica de los microtúbulos cuando se exponen a
compuestos anestésicos. Si existe una molécula que detenga la conciencia,
entonces ver qué cambios específicos se producen en el entorno celular cuando
se expone a dicho compuesto, será una pista importante para saber qué estructuras
están implicadas en la generación de la conciencia.
La revolucionaria idea de
Hameroff era llevar los mecanismos teóricos de la conciencia desde el nivel
celular-sináptico hasta la escala nanométrica de las grandes redes
biomoleculares, donde podrían producirse comportamientos mecánicos cuánticos
(siguiendo la estela de Herbert Fröhlich, que había propuesto que las
biomoléculas poliméricas largas podían lograr ondas de solución coherentes
cuánticas mediante el bombeo de energía metabólica, lo que daba lugar a un
entrelazamiento no local -que más tarde se denominó condensados de Fröhlich).
Un nuevo tipo de física
Una de las características
clave de la teoría de Hameroff y Penrose se denomina Reducción Objetiva
Orquestada (Orch-OR), en la que se teoriza que el vector de estado (la función
de onda que describe una partícula) de los electrones libres deslocalizados dentro
de la tubulina, sufre una reducción independiente del observador (un colapso
objetivo frente al subjetivo de la función de onda). A medida que el
electrón muestra más y más atributos no locales, lo que se conoce como
superposición, la geometría del espaciotiempo subyacente se bifurca, y el grado
de separación entre las "burbujas" del espaciotiempo -medido en
longitudes de Planck- alcanza una distancia crítica, momento en el que la
geometría del espaciotiempo se vuelve inestable y colapsa.
Este mecanismo se conoce como
el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad. Cada
una de estas bifurcaciones y colapsos representa un cómputo cuántico
indeterminable, y la coordinación de una multitud de estos eventos a través del
entrelazamiento cuántico (la parte orquestada de OR) permite realizar cómputos
cuánticos masivamente paralelos dentro del cerebro. Como sugieren Hameroff y
Penrose, esto es lo que produce la conciencia. Dado que la reducción del vector
de estado se debe enteramente a este mecanismo estocástico, y por tanto es
indeterminado, confiere a la conciencia una característica de imprevisibilidad.
La ley de escalamiento de
USN y Haramein
Al igual que el criterio
Diósi-Penrose de colapso cuántico inducido por la gravedad está mediado por una
geometría cuántica del espaciotiempo subyacente, Haramein et alii describen una
geometría del espaciotiempo subyacente en el artículo The Unified
Spacemory Network. A diferencia del mecanismo Diósi-Penrose, la geometría
cuántica del espaciotiempo de la red del espaciotiempo unificada no implica
superposiciones, sino un fuerte entrelazamiento a través de la red de
microagujeros del espaciotiempo Planckiano subyacente. Además de los
microtúbulos, los autores destacan la importancia de estructuras como el agua
atómicamente ordenada y las membranas del sistema celular.
Los microtúbulos son
estructuras macromoleculares realmente notables del sistema biológico, por lo
que no es de extrañar que varios investigadores se hayan interesado por ellos.
En el artículo Scale Unification, Haramein y Rauscher, junto con el
biólogo Michael Hyson, presentan sus descubrimientos sobre una ley de escala
universal para la materia organizada. Hay una serie de sistemas
organizados de materia que obedecen a la condición de Schwarzschild de un
agujero negro, y cuando se trazan en un gráfico de frecuencia frente al radio,
surge una línea de tendencia, en la que las estructuras desde el tamaño
cosmológico hasta el subatómico muestran una relación de escala definida. Lo
sorprendente es que los microtúbulos se sitúan en el centro de la línea de tendencia,
ocupando la posición entre lo ultra grande y lo ultra pequeño, el macrocosmos y
el microcosmos.
"Resulta interesante
que los microtúbulos de las células eucariotas, que tienen una longitud típica
de 2 X 10-8cm y una frecuencia de vibración estimada de 109 a
1014 Hz se sitúan bastante cerca de la línea especificada por
la ley de escalamiento e intermedia entre las escalas estelar y atómica" -
Haramein et al, Scale Unification, 2008
El colector fractal
Según este hallazgo, los
microtúbulos pueden tener una relación armónica con las estructuras
polarizables del vacío cuántico (¡que muestran que está en una relación Ф
(phi)! Una relación de escala de tipo fractal). John Wheeler describió por
primera vez estas estructuras fluctuantes del vacío como mini agujeros negros
de Planck. Del mismo modo, Haramein muestra cómo los osciladores del vacío
pueden ser, de hecho, sistemas de agujeros blancos/agujeros negros. Así,
mientras que el criterio Diósi-Penrose utiliza una geometría de
"burbuja" bifurcada del espaciotiempo, la solución de Haramein
muestra cómo puede ser la acción de estructuras de espaciotiempo de agujero
blanco/agujero negro polarizadas, cuya oscilación funciona como elemento
computacional en analogía con el colapso inducido por la gravedad del mecanismo
Hameroff-Penrose.
"La universalidad de
esta ley de escala sugiere un vacío estructurado polarizable subyacente de mini
agujeros blancos/agujeros negros". - ibidem
Además, Haramein describe una
estructura múltiple fractal del espaciotiempo, lejos de la arquitectura del
espaciotiempo liso y plano previsto por el Modelo Estándar. Esto es muy
pertinente para la naturaleza de la conciencia, porque los sistemas fractales
son producidos por / y subyacen a la dinámica del caos.
Una de las características
clave de los sistemas caóticos es que pueden ser extremadamente sensibles
incluso a pequeños cambios, debido a las interacciones no lineales que resultan
de las operaciones de retroalimentación y la alta coherencia global dentro del
sistema. Como tal, hay una naturaleza indeterminada en los sistemas
fractales/caóticos, como cuando se intenta predecir el tiempo. De modo que, a
diferencia del mecanismo de reducción objetiva propuesto por Hameroff y
Penrose, la dinámica caótica de las fluctuaciones de la espuma del vacío
cuántico podría ser la fuente de la aparente imprevisibilidad y autovoluntad
tan características de nuestra conciencia (téngase en cuenta que en la
semántica técnica, caos no significa desorden, sino todo lo contrario, sólo
implica ciertas características clave, como un grado de imprevisibilidad).
¿Entre la espada y la
pared? Encuentre el camino del medio
A medida que se descubren más
y más fenómenos mecánicos cuánticos no locales dentro del sistema biológico, la
teoría de Hameroff y Penrose (así como la de otros investigadores que
investigan esta nueva frontera de la ciencia) va acumulando pruebas empíricas
tangibles, de modo que los modelos de conciencia cuántica están pasando de ser
bellas construcciones teóricas a convertirse en hechos demostrables. Lo
notable del modelo de conciencia de Hameroff, así como de Haramein, es que
encuentran el punto medio entre dos extremos: la perspectiva
espiritual/metafísica por un lado, en la que la conciencia es primaria y no
puede ser explicada científicamente; y por otro lado la perspectiva
científica/materialista, en la que la conciencia es un estado ilusorio epifenomenológico
que emerge de la complejidad de las neuronas y no juega ningún papel en la
dinámica del Universo en general. En cambio, lo que llamamos conciencia no sólo
puede surgir de la dinámica de los eventos físicos discretos del colector
cuántico del espaciotiempo, sino que también juega un papel intrínseco en el
ordenamiento y la dinámica del Universo.
Teoría de cuerdas y supersimetría
http://www.nocierreslosojos.com/teoria-cuerdas/
- Figura
Clave: Leonard Susskind (n. en 1940)
- Antes:
- 1914
Se propone la idea de una quinta dimensión para explicar cómo funciona la
gravedad junto con el electromagnetismo.
- 1926
El físico sueco Oscar Klein desarrolla ideas acerca de dimensiones
adicionales inobservables.
- 1961
Se diseña una teoría para unificar el electromagnetismo y la fuerza
nuclear débil.
- Después:
- 1975
Abraham Pais y Sam Treiman acuñan el término «modelo estándar».
- 1995
Edward Witten, físico estadounidense, desarrolla la teoría M, que
incluye 11 dimensiones.
- 2012
El Gran Colisionador de Hadrones detecta el bosón de Higgs
Leonard Susskind
Nacido en Nueva York (EE UU)
en 1940, Leonard Susskind ocupa la cátedra Felix Bloch de Física en la
Universidad de Stanford en California. Se doctoró en la Universidad Cornell
(Nueva York) en 1965, y se unió a la de Stanford en 1979.
En 1969 publicó la teoría por
la cual es conocido: la teoría de cuerdas. Su trabajo matemático demostró que
la física de partículas podía explicarse mediante cuerdas vibrantes al más
pequeño nivel. En la década de 1970 desarrolló más esa idea, y en 2003 acuñó el
término «paisaje de la teoría de cuerdas». Esa radical noción pretendía
destacar el gran número de universos posibles que conformarían un increíble
«megaverso» con, quizá, otros universos con las condiciones necesarias para la
vida. Susskind es hoy una figura muy respetada en su ámbito.
- Obras
principales:
- 2005
El paisaje cósmico.
- 2008
La guerra de los agujeros negros.
- 2013
El mínimo teórico.
Física de partículas
Los físicos de partículas usan
la teoría llamada «modelo estándar» para explicar el universo.
Desarrollado en las décadas de 1960 y 1970, ese modelo describe las partículas
y las fuerzas fundamentales de la naturaleza que componen el universo y lo
mantienen unido. Un problema del modelo estándar es que no encaja con la teoría
de la relatividad general de Einstein, que relaciona la gravedad (una de
las cuatro fuerzas) y la estructura del espacio y el tiempo y los trata como
una entidad tetradimensional («espacio-tiempo»). El modelo estándar no encaja
con la curvatura del espacio-tiempo propugnada por la relatividad general.
La mecánica cuántica, en
cambio, explica cómo interactúan las partículas en los niveles más pequeños (a
escala atómica), pero no da cuenta de la gravedad. Se ha intentado en vano unir
las dos teorías; por ahora el modelo estándar solo puede explicar tres de las
cuatro fuerzas fundamentales.
Partículas y fuerzas
En física de partículas, los
átomos están formados por un núcleo de protones y neutrones, rodeado por
electrones. El electrón y los quarks que forman los protones y
los neutrones se encuentran entre los 12 fermiones (partículas de
materia): las partículas elementales o fundamentales que son los componentes
básicos conocidos más pequeños del universo. Los fermiones se subdividen en
quarks y leptones. Junto a esos fermiones, están los bosones (partículas
portadoras de fuerza) y las cuatro fuerzas de la naturaleza: electromagnetismo,
gravedad, fuerza fuerte y fuerza débil. Los diferentes bosones son responsables
de llevar las diferentes fuerzas entre los fermiones.
El modelo estándar permite
describir lo que se conoce como campo de Higgs, un campo de energía
que, según se cree, impregna todo el universo. La interacción de las partículas
en el campo de Higgs les otorga su masa; y un bosón medible llamado bosón de
Higgs es el portador de fuerza para el campo de Higgs. Ahora bien, ninguno de
los bosones conocidos es el portador de a fuerza de gravedad; ello ha
llevado a postular una partícula hipotética, aún no detectada, llamada
gravitón.
Teoría de cuerdas
En 1969, en un intento de
explicar la fuerza nuclear fuerte, que une protones y neutrones dentro del
núcleo atómico, el estadounidense Leonard Susskind desarrolló la idea de la
teoría de cuerdas. El estadounidense-japonés Yoichiro Nambu y el danés Holger
Nielsen concibieron la misma idea al mismo tiempo. Según la teoría de
cuerdas, las partículas (los componentes básicos del universo) no son como
puntos, sino más bien algo así como diminutos y unidimensionales hilos de
energía vibrantes, o cuerdas, que dan lugar a todas las fuerzas y la materia.
Cuando las cuerdas chocan, se combinan y vibran juntas brevemente antes de
separarse de nuevo.
Los primeros modelos de la
teoría de cuerdas fueron problemáticos. Explicaban los bosones pero no los
fermiones, y necesitaban que ciertas partículas hipotéticas, llamadas
taquiones, viajaran más deprisa que la luz. También necesitaban muchas más
dimensiones que las cuatro conocidas del espacio y el tiempo.
Según la teoría de cuerdas,
las partículas elementales (como los electrones y los quarks, que forman los
protones y neutrones) son cuerdas o filamentos de energía. Cada cuerda vibra
con una frecuencia diferente, y esas vibraciones se corresponden con la
velocidad, el espín y la carga de las partículas.
Supersimetría
Para sortear algunos de esos
primeros problemas se ideó el principio de la supersimetría, que propone que el
universo es simétrico y proporciona a cada una de las partículas conocidas del
modelo estándar una compañera, o «supercompañera», no detectada; así, por
ejemplo, cada fermión se empareja con un bosón, y viceversa.
Según la supersimetría, todo bosón (partícula portadora de fuerza) tiene como
«supercompañero» masivo un fermión (partícula de materia), y todo fermión tiene
un bosón. La teoría de las supercuerdas describe las partículas supercompañeras
como cuerdas que vibran en octavas más altas. Según algunos teóricos, las
supercompañeras quizá tengan masas hasta mil veces superiores a las de sus
partículas correspondientes, pero aún no se han hallado partículas
supersimétricas.
Cuando el bosón de Higgs,
predicho en 1964 por el británico Peter Higgs, fue detectado en 2012 por el
Gran Colisionador de Hadrones del CERN, resultó ser más ligero de lo
esperado. Los físicos de partículas creían que sería más pesado debido a sus interacciones
en el campo de Higgs con las partículas del modelo estándar, a las que daba
masa. Pero no era así. La idea de las supercompañeras, unas partículas capaces
de anular potencialmente algunos de los efectos del campo de Higgs y
producir un bosón de Higgs más ligero, permitió a los científicos abordar ese
problema. También les permitió descubrir que puede que tres de las cuatro
fuerzas de la naturaleza (es decir, el electromagnetismo, la fuerza fuerte y la
débil) existieran con las mismas energías en el Big Bang, un paso crucial
hacia la unificación de esas fuerzas en una Gran Teoría Unificada.
Teoría de las
supercuerdas
Juntas, la teoría de cuerdas y
la supersimetría dieron lugar a la teoría de las supercuerdas, en la que todos
los fermiones y bosones y sus partículas supercompañeras son resultado de
cuerdas vibrantes de energía. En la década de 1980, el estadounidense John
Schwarz y el británico Michael Green desarrollaron la idea de que las
partículas elementales como electrones y quarks son las manifestaciones
exteriores de «cuerdas» vibrando en la escala de la gravedad cuántica.
Así como las diferentes
vibraciones de la cuerda de un violín producen diferentes notas, propiedades
como la masa son el resultado de diferentes vibraciones del mismo tipo de
cuerda. Un electrón es un segmento de cuerda que vibra de cierta manera, mientras
que un quark es un segmento idéntico de cuerda que vibra de una manera
diferente Schwarz y Green observaron que la teoría de cuerdas predecía una
partícula sin masa similar al hipotético gravitón. La existencia de semejante
partícula podría explicar por qué la gravedad es tan débil en comparación con
las otras tres fuerzas, pues los gravitones entrarían y saldrían de la
decena aproximada de dimensiones requeridas por la teoría de cuerdas. Así,
apareció por fin algo que Einstein buscó mucho tiempo, una teoría capaz de
describirlo todo en el universo, una «teoría del todo».
Una teoría unificadora
Los físicos en busca de una
teoría que lo englobe todo encuentran problemas cuando se enfrentan a los
agujeros negros, donde la teoría de la relatividad general se une a la mecánica
cuántica tratando de explicar lo que pasa cuando una cantidad inmensa de
materia se ve comprimida en un espacio muy reducido. Según la relatividad
general, cabría decir que el núcleo de un agujero negro (su singularidad) tiene
esencialmente un tamaño cero. Sin embargo, según la mecánica cuántica, eso es
imposible porque nada puede ser infinitamente pequeño. De acuerdo con el
principio de incertidumbre concebido por el alemán Werner Heisenberg en 1927,
no es posible llegar a niveles infinitamente pequeños porque una partícula
siempre puede existir en múltiples estados. Teorías cuánticas fundamentales
como la superposición y el entrelazamiento también determinan que las
partículas pueden estar en dos estados a la vez. Tienen que producir un campo
gravitatorio, lo cual sería coherente con la relatividad general, pero no parece
ser así según la teoría cuántica.
Si la teoría de las
supercuerdas pudiera resolver algunos de esos problemas, se convertiría en la
teoría unificadora que buscan los físicos. Sería posible demostrarla haciendo
colisionar partículas. Algunos científicos creen que, a energías más elevadas,
quizá se vean gravitones disolviéndose en otras dimensiones, lo cual supondría
una prueba fundamental en favor de la teoría.
Desenredar la idea
Las paredes del observatorio de neutrinos Super-Kamiokande están cubiertas de
fotomultiplicadores para detectar la luz emitida por los neutrinos que
interactúen con el agua del tanque.
Algunos científicos, como el
estadounidense Sheldon Glashow, creen que la investigación en teoría de cuerdas
es inútil porque nadie podrá demostrar nunca si las cuerdas que describe
existen. Tratan de energías tan elevadas (más allá de la medida llamada energía
de Planck) que nos resulta imposible detectarlas, y puede que siga resultando
imposible en el futuro inmediato. Nuestra incapacidad de diseñar un experimento
que ponga a prueba la teoría de cuerdas llevó a algunos científicos como
Glashow a preguntarse si es en realidad una teoría científica. Hay quienes
disienten y señalan que hay en marcha experimentos que intentan encontrar
algunos de esos efectos y proporcionar una respuesta. El experimento
Super-Kamiokande, en Japón, por ejemplo, podría demostrar aspectos de la teoría
de cuerdas estudiando la desintegración del protón (la teorizada desintegración
de un protón a lo largo de escalas temporales extremadamente largas), un
fenómeno predicho por la supersimetría.
La teoría de las supercuerdas
puede explicar gran parte del universo desconocido –por ejemplo, por qué el
bosón de Higgs es tan ligero y por qué la gravedad es tan débil–, y
quizá pueda explicar la naturaleza de la energía oscura y la materia oscura.
Algunos científicos creen incluso que la teoría de cuerdas podría proporcionar
información sobre el destino del universo, y si seguirá o no expandiéndose de
modo indefinido.
Un fotón ha retrocedido en el tiempo
La frontera entre la ciencia y
la ciencia ficción es en ocasiones casi imperceptible. Y se lo debemos, cómo
no, a nuestra cada vez más precisa comprensión del mundo en el que vivimos. Ese
mundo macroscópico que podemos ver con nuestros ojos y en el que los procesos
parecen discurrir en un único sentido en el tiempo: del presente hacia
el futuro.
Estamos tan íntimamente
acostumbrados a observar este fenómeno que nos resulta muy difícil aceptar la
posibilidad de revertir
un proceso en el tiempo. De recuperarlo tal y como era antes de haber
sufrido algún cambio que podríamos considerar permanente. Pero no es imposible.
La física
cuántica acaba de demostrarnos que es factible tanto en el ámbito
teórico como en el práctico.
La física cuántica y
nuestra intuición están, una vez más, a punto de chocar
Nuestra intuición nos invita a
concluir que la irreversibilidad de los procesos es una ley fundamental. Y el
segundo principio de la termodinámica nos da la razón. Se puede formular de
muchas maneras diferentes, pero todas ellas, si son correctas, nos invitan a
concluir que los fenómenos físicos son irreversibles.
Si colocamos un recipiente con
agua muy caliente en la encimera de nuestra cocina y no hacemos nada con él, el
agua se enfriará. Y si se nos cae un vaso y estalla al golpearse con el suelo,
no volverá a recomponerse por sí solo. Precisamente el intercambio de calor y
la entropía son dos propiedades íntimamente ligadas al segundo principio de la
termodinámica.
La entropía suele definirse
como la magnitud que mide el grado de desorden de un sistema físico. Es una
simplificación quizá excesiva, pero puede ayudarnos a entender de qué estamos
hablando sin que nos veamos obligados a recurrir a conceptos complejos. En
cualquier caso, este principio termodinámico es de naturaleza estadística, y,
además, la física clásica es determinista.
Esto significa que es posible
predecir la evolución de un sistema físico a lo largo del tiempo si conocemos
su estado inicial y las ecuaciones diferenciales que describen su
comportamiento. Sin embargo, en el dominio de la física
cuántica, en el mundo de lo muy pequeño, de las partículas, la
reversibilidad de los procesos físicos es posible. Lo es desde un punto de
vista teórico desde hace mucho tiempo, y ahora lo es también en la práctica.
La física cuántica lo
permite: un fotón ha retrocedido en el tiempo
Los físicos coquetean con la
posibilidad de revertir procesos en el tiempo desde hace muchos años. De hecho,
algunos teóricos trabajan en unas herramientas muy peculiares que la mecánica
cuántica ha colocado en sus manos: los protocolos de reversión o
rebobinado universal. No necesitamos conocer con detalle cómo funcionan
estos mecanismos, pero nos viene de perlas saber que sirven para revertir los
cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado
inicial. Y sin saber tampoco en qué consistieron esos cambios.
Los protocolos de reversión
universal sirven para revertir los cambios que ha sufrido un sistema cuántico
sin conocer cuál era su estado inicial
Casi parece magia, pero no lo
es. Es ciencia. Y, precisamente, el físico teórico español Miguel
Navascués lidera un equipo de investigación en el Instituto de Óptica
Cuántica e Información Cuántica de la Academia de las Ciencias de Austria
experto en esta disciplina. Miguel y sus colaboradores han diseñado un
innovador protocolo teórico de reversión que propone, a grandes rasgos, qué
procedimiento es posible utilizar para conseguir que un sistema cuántico
recupere su estado inicial sin conocer qué cambios ha sufrido.
Llevar algo así a la práctica
no es nada sencillo, lo que ha provocado que los físicos experimentales que
trabajan en esta área no hayan tenido demasiado éxito. Afortunadamente, el
panorama ha cambiado. Y es que el equipo de físicos experimentales de la
Universidad de Viena dirigido por Philip Walther ha
conseguido implementar con éxito el protocolo de reversión universal diseñado
por Miguel Navascués y su equipo.
El corazón de su experimento
es un sofisticado equipo óptico constituido por varios interferómetros y
enlaces de fibra óptica que se comportan de forma conjunta como un interruptor
cuántico. Conocer con detalle cómo funciona este ingenio queda fuera del propósito
de este artículo porque, como podemos intuir, su complejidad es extraordinaria.
Aun así, quien no se deje intimidar fácilmente y tenga curiosidad puede
consultar el artículo que han publicado Navascués, Walther y sus equipos en la
revista Optica.
Merece mucho la pena.
El corazón de su experimento
es un sofisticado equipo óptico constituido por varios interferómetros y
enlaces de fibra óptica que se comportan de forma conjunta como un interruptor
cuántico
Un apunte antes de seguir
adelante: un interferómetro es un dispositivo óptico que emplea una fuente de
luz (habitualmente un láser) para medir con muchísima precisión los
cambios introducidos en un sistema físico. Descrito de esta forma parece algo
muy complicado, y sí, es complicado, pero podemos recurrir a un ejemplo cercano
en el tiempo para ilustrar de qué estamos hablando.
Los experimentos LIGO, en
Estados Unidos, y Virgo, en Italia, utilizados para identificar
y analizar ondas gravitacionales son interferómetros. Y, como acabamos
de ver, ambos incorporan un sofisticado equipo óptico y un láser que les
permite medir las perturbaciones gravitatorias generadas por los objetos
masivos del cosmos que están sometidos a una cierta aceleración. Estas
perturbaciones se propagan por el continuo espacio-tiempo a la velocidad de la
luz bajo la forma de ondas, y los interferómetros las recogen.
De alguna forma el interruptor
cuántico que han construido los equipos de Navascués y Walther es parecido a
LIGO o Virgo, pero a una escala infinitamente menor debido a que su propósito
es identificar y medir los cambios introducidos en un sistema cuántico. Lo que
han conseguido es asombroso: han revertido con éxito la evolución en el
tiempo de un fotón sin conocer previamente ni su estado inicial ni qué
cambios había experimentado. En la práctica es lo mismo que viajar hacia atrás
en el tiempo.
Este esquema describe el ingenioso equipo óptico diseñado por los
investigadores de la Universidad de Viena y el Instituto de Óptica Cuántica e
Información Cuántica de la Academia de las Ciencias de Austria.
Parece razonable pensar que
conseguir esto con una sola partícula, con un fotón, no es demasiado
interesante, pero nada más lejos de la realidad. El resultado que han obtenido
estos investigadores, que ya ha sido revisado por pares, es extraordinario porque
abre de par en par las puertas que probablemente van a permitirnos entender
mucho mejor las reglas que subyacen en el mundo en el que vivimos. Las reglas,
en definitiva, de la mecánica cuántica.
Lo que permite a este
experimento desmarcarse de otros anteriores que también pretendían demostrar la
posibilidad de revertir el estado de un sistema cuántico es que el protocolo de
reversión universal de Navascués y Walther ha conseguido hacerlo sin tener ningún
tipo de información previa acerca del estado del sistema cuántico.
Podemos verlo como si hubiesen conseguido recomponer a la perfección un jarrón
de porcelana sin conocer el número de fragmentos que tenían inicialmente, su
forma, y mucho menos que pertenecían a un jarrón y eran de porcelana.
En las conclusiones de su
artículo estos investigadores insisten en algo muy importante: los resultados
que han obtenido no son válidos únicamente en los sistemas cuánticos de
naturaleza fotónica, que son los que trabajan con luz; son coherentes con otros
sistemas cuánticos. Por esta razón, las aplicaciones de esta tecnología pueden
ser muy numerosas, especialmente en el ámbito de la
computación cuántica.
Y es que los protocolos de
reversión universal pueden en teoría ser utilizados para resolver uno de los
mayores desafíos que plantean actualmente los ordenadores cuánticos: la
corrección de errores. De hecho, este es probablemente el muro más alto
que los
investigadores en computación cuántica tendrán que derribar para
conseguir que los ordenadores cuánticos sean capaces de resolver los tipos de
problemas complejos en los que en teoría son muy superiores a los
superordenadores clásicos.
Modelo
Cosmológico Lambda-CDM (Cold Dark Matter)
https://es.wikipedia.org/wiki/Modelo_Lambda-CDM
En cosmología,
el modelo Lambda-CDM o ΛCDM (del inglés: Lambda-Cold
Dark Matter) representa el modelo de concordancia del Big Bang que explica las observaciones
cósmicas de la radiación de fondo de microondas,
así como la estructura a gran escala del
universo y las observaciones realizadas de supernovas,
arrojando luz sobre la explicación de la aceleración de la expansión
del Universo. Es el modelo conocido más simple que está de acuerdo con
todas las observaciones.
- Λ (lambda)
indica la constante cosmológica como parte de
un término de la energía oscura que permite conocer el
valor actual de la expansión acelerada del Universo que se inició hace
unos 6 mil millones de años.1La constante cosmológica se
describe en términos de , la fracción de densidad de energía de un
universo plano. En la actualidad, 0.70, lo que implica que
equivale al 70% de la densidad de energía del presente universo.
- La materia oscura fría es el modelo
de materia oscura en el que la velocidad de
sus partículas es muy inferior a la velocidad de la luz, de ahí el adjetivo
"fría". La materia oscura fría es no-bariónica,
a diferencia de la materia bariónica normal con la que no interacciona
excepto mediante la gravedad. Este componente constituye el 26% de la
densidad de la energía del actual universo. El 4% restante es toda la
materia y energía (materia bariónica), que componen los átomos y
los fotones que
son los bloques que construyen los planetas,
las estrellas y
las nubes de gas en el universo.
- El
modelo supone un espectro de casi invariancia de escala de perturbaciones primordiales y
un universo sin curvatura espacial. También asume que no
tiene ninguna topología observable, de modo que el universo es mucho más
grande que el horizonte observable de
la partícula. Se dan predicciones de inflación cósmica.
El modelo asume que la Relatividad General es la teoría correcta
de la gravedad a escalas cosmológicas. Es frecuentemente nombrado como el
modelo estándar de la cosmología del Big Bang, porque es el modelo más simple
que proporciona una explicación razonablemente buena de las siguientes propiedades
del cosmos:
- La
existencia y estructura del fondo cósmico de microondas
- La
estructura a gran escala de la distribución de galaxias
- Las
abundancias de hidrógeno (incluyendo deuterio), helio y litio
- La
expansión acelerada del universo observado en distantes galaxias y
supernovas
El modelo ΛCDM se ha simulado
con éxito en superordenadores: partiendo de la composición que tenía el
Universo (átomos de hidrógeno, helio, litio, etc, fotones, neutrinos,…
transcurridos 11.5 millones de años después del Big-Bang, la simulación forma
estrellas, galaxias y estructuras de cúmulos y supercúmulos de galaxias muy
similares a los objetos reales que observamos en el firmamento2El modelo ΛCDM se puede ampliar
añadiendo la inflación cosmológica, la quintaesencia y otros elementos que son
áreas actuales de estudio e investigación en Cosmología.
Tipos
de partículas virtuales
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
Bosones virtuales
En el modelo estándar, las
fuerzas fundamentales están transmitidas por los bosones
de gauge. Cuando estos bosones transmiten las fuerzas son partículas
virtuales, y son creados en el vacío. Incluso
en el vacío más perfecto, ya sea el que se cree en un laboratorio,
el espacio intergaláctico, o el vacío
interatómico, son creados continuamente bosones de gauge con una existencia
extremadamente breve. La mecánica cuántica predice que la energía del
vacío nunca puede llegar a ser cero. La energía menor posible del vacío se
llama energía del punto cero, y es precisamente esta
poca (aunque no nula) energía la de las partículas virtuales. Este modelo del
vacío se llama vacío cuántico.
La transmisión de las fuerzas
entre las distintas cargas de cada interacción está descrita por la teoría cuántica de campos, que describe
cómo los bosones de gauge virtuales se transmiten a través del vacío polarizado
entre las cargas reales.3Algunos de estos bosones también
se presentan como partículas reales en distintos fenómenos:
- Los fotones son
partículas reales cuando los observamos en cualquier tipo de radiación electromagnética, como
la luz o
los rayos
X. En cambio, cuando transmiten la interacción electromagnética entre
partículas con carga eléctrica los fotones son
virtuales.
- Los gluones reales
forman los llamados mesones y bariones híbridos, así como las glubolas o bolas gluónicas (la
existencia de ambos aún no está comprobada). Los gluones que transmiten
la interacción fuerte entre
partículas con carga de color son virtuales.
Pero una cuestión aún a
resolver es saber si todos los bosones de gauge sin masa que existen, incluidos
los que arriba se exponen como reales, son al fin y al cabo virtuales. Estas
partículas se mueven a la velocidad de la luz, y por tanto, atendiendo a
la teoría de la relatividad de Albert
Einstein, el tiempo que tardan en propagarse entre dos puntos cualesquiera
del universo es instantáneo desde el punto de vista de las partículas.
Entonces, al ser el tiempo de emisión y absorción instantáneo, ¿serían
virtuales?
Pares virtuales de
partícula-antipartícula
No solo surgen bosones de
gauge en el vacío cuántico, sino también pares partícula-antipartícula;
como por ejemplo pares electrón-positrón,
o pares quark arriba-antiquark arriba,
etc.
Siempre debe crearse una
partícula con su antipartícula, conservándose así el número leptónico o bariónico (dos números cuánticos) del universo. Las
partículas que surgen de este modo son virtuales porque en cuanto aparecen,
tienen tan poca energía que al instante se aniquilan entre sí.
Estos pares virtuales se usan
como un esquema explicativo para justificar que la energía del punto cero del vacío no es
estrictamente nula. Además la radiación de Hawking puede recibir una
explicación intuitiva en términos de la creación de estos pares virtuales de
partícula-antipartícula.
Experimento de la doble rendija explicado por las nubes
de los fotones virtuales
Interpretación del experimento
de la doble rendija
Para esta interpretación,
consideraremos las partículas como los vehículos (los transmisores) de la energía,
pero siendo estas partículas indetectables de por sí (no pueden interactuar
directamente con nada). Las interacciones no son provocadas por la partícula en
sí sino por los portadores de fuerza que emite (generalmente los fotones
virtuales). Cuando un detector detecta un electrón, realmente no lo “toca”, ni
siquiera lo “ve”, sino que interactúa con su campo electromagnético (con sus
fotones virtuales). El electrón está emitiendo continuamente una nube de
fotones virtuales que le rodea. La distribución de estos fotones está definida
por una función de onda. El detector no interactúa con el electrón mismo, sino
con su nube de fotones virtuales. Cuando el electrón pasa por una rendija, toda
su nube de fotones pasa por las dos rendijas así que interfiere consigo misma y
se distribuye según el patrón de interferencia. Para que uno de estos fotones
interactúe con la pantalla, la energía del electrón debe ser usada en ese punto
–si no se usa esa energía sencillamente no habría interacción-. Si una vez
hecha una interacción por un fotón con la pantalla, otro fotón intentara
interactuar con la pantalla otra vez, no habría interacción ya que no habría
más energía que permitiera que esa interacción ocurriera. Así que, cada vez que
enviamos un electrón, la pantalla mostrará sólo un punto, pero el patrón total
se definirá por la posibilidad de interacción (esto es, por la distribución de
la nube de fotones, una vez ha pasado por las dos rendijas, es decir, por el
patrón de interferencia). Esto significa que el electrón, la partícula
indetectable (pero transmisor de la energía), podría pasar sólo por una rendija
–o quizás no, realmente no nos importa- pero sus posibilidades de ser detectado
pasan realmente por ambas rendijas (en forma de una nube de fotones que
interfiere consigo misma).
Principio de incertidumbre de Heisenberg para la
energía-tiempo
https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg
Esta forma es la que se utiliza en mecánica cuántica para explorar las
consecuencias de la formación de partículas virtuales, utilizadas para estudiar
los estados intermedios de una interacción. Esta forma del principio de
indeterminación es también la utilizada para estudiar el concepto de energía
del vacío.
https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo
La dualidad
onda-corpúsculo, también llamada dualidad onda-partícula es
un fenómeno cuántico, bien comprobado empíricamente,
por el cual muchas partículas pueden exhibir comportamientos
típicos de ondas en unos experimentos mientras aparecen como partículas
compactas y localizadas en otros experimentos. Dado ese comportamiento dual, es
típico de los objetos mecanocúanticos, donde algunas partículas pueden
presentar interacciones muy localizadas y como ondas exhiben el fenómeno de
la interferencia.
De acuerdo con la física clásica existen diferencias claras
entre onda y partícula. Una partícula tiene una posición
definida en el espacio y tiene masa mientras que una onda se extiende en el
espacio caracterizándose por tener una velocidad definida y masa nula.
Actualmente se considera que
la dualidad onda-partícula es un “concepto de la mecánica cuántica
según el cual no hay diferencias fundamentales entre partículas y ondas: las
partículas pueden comportarse como ondas y viceversa”. (Stephen
Hawking, 2001)
Este es un hecho comprobado
experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de Broglie, físico francés de
principios del siglo xx. En 1924 en su tesis
doctoral, inspirada en experimentos sobre la difracción de electrones, propuso
la existencia de ondas de materia, es decir que toda materia tenía una onda
asociada a ella. Esta idea revolucionaria, fundada en la analogía con que la radiación tenía
una partícula asociada, propiedad ya demostrada entonces, no despertó gran
interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias
de producirse. Sin embargo, Einstein reconoció
su importancia y cinco años después, en 1929, De Broglie
recibió el Nobel en Física por su trabajo.
Su trabajo decía que la longitud
de onda de la onda asociada a la materia era:
Longitudes de onda del
electrón y de una pelota de beisbol:
http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html
Si se explora los valores de la longitud de onda de los objetos macroscópicos
ordinarios como pelotas de béisbol, se encontrará que sus longitudes de onda de
DeBroglie son ridículamente pequeñas. La comparación de la potencia de diez
para la longitud de onda, mostrará que las longitudes de onda de los objetos
ordinarios son mucho más pequeñas que un núcleo. La implicación es que para los
objetos ordinarios, nunca se verá ninguna evidencia de su naturaleza
ondulatoria, y para todos los fines prácticos pueden considerarse como
partículas.
Ecuación de onda de Schroedinger, aplicada al caso de un
túnel cuántico
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
Ecuación de onda de
Schroedinger:
Ecuación de onda de Schroedinger para cada una de las tres regiones:
Soluciones de las funciones de
onda en las regiones i y III:
Es una expresión oscilatoria:
son ondas
Solución en la región II:
No es una expresión
oscilatoria
https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/
La entropía de Shannon, un concepto fundamental en la teoría
de la información, cuantifica la incertidumbre o
aleatoriedad en un conjunto de resultados posibles. Desarrollada por Claude
Shannon en su innovador artículo de 1948, “Una teoría matemática de la
comunicación”, esta medida proporciona un marco matemático para comprender el
contenido de la información. En esencia, la entropía de Shannon ayuda a
determinar la cantidad promedio de información producida por una fuente
estocástica de datos. Cuanto mayor sea la entropía, mayor será la incertidumbre
y más información se necesitará para describir el estado del sistema.
Matemáticamente, la entropía de Shannon (H) se define
mediante la fórmula:
H(X) = -Σ p(x) log₂ p(x),
donde p(x) representa la probabilidad de ocurrencia de cada
resultado posible x en una variable aleatoria X. La suma se realiza sobre todos
los resultados posibles. Esta fórmula revela que la entropía se maximiza cuando
todos los resultados son igualmente probables, lo que indica una incertidumbre
máxima. Por el contrario, si un resultado es seguro, la entropía es cero, lo
que refleja que no hay incertidumbre. Esta representación matemática es crucial
para varias aplicaciones en análisis de los
datos, criptografía y aprendizaje automático.
En el contexto de la compresión de datos, la entropía de
Shannon juega un papel fundamental en la determinación de los límites teóricos
de la compresibilidad. La entropía de una fuente de datos indica el número
mínimo de bits necesarios para codificar la información sin perder ningún
contenido. Los algoritmos de compresión, como la codificación de Huffman y
la codificación aritmética, aprovechan los principios de Shannon para reducir
el tamaño de los archivos de datos y al mismo tiempo preservar la información
esencial. Comprender la entropía de un conjunto de datos permite a los
ingenieros de datos optimizar el almacenamiento y la transmisión, lo que lo
convierte en una consideración crítica en las aplicaciones de big data.
Evolución de las mutaciones
del virus del Covid para reducir su entropía, según un estudio de Vopson:
https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics
Hallazgo en el ADN revela que
la vida dio su ‘salto matemático’ hacia la complejidad similar a los
"cambios de fase" estudiados en física
En el contexto del artículo científico sobre el origen de la
célula eucariota, se propone que la evolución genética enfrentó una situación
similar: encontrar nuevas proteínas útiles se volvió tan complejo que
solo un cambio en el “algoritmo” de búsqueda —la incorporación de secuencias no
codificantes— permitió seguir avanzando.
Un nuevo estudio sobre el origen de la célula eucariota
sugiere que, en la evolución genética, los genes crecieron hasta un punto
crítico en el que ya no era viable seguir aumentando el tamaño de las proteínas que
producían. Esa tensión estructural marcó un límite que obligó a cambiar de
estrategia.
En lugar de colapsar, la evolución reorganizó el sistema.
Así como en física nuclear ciertos núcleos logran mantenerse estables
incorporando nuevos patrones de enlace o adoptando otras configuraciones, la
genética superó su propio límite incorporando secuencias no codificantes,
como los intrones, y creando nuevas formas de regulación. El resultado no fue
el caos, sino una transición hacia una mayor complejidad. Igual que un átomo
puede ganar estabilidad con una nueva arquitectura nuclear, el ADN encontró un
camino evolutivo más robusto mediante una reestructuración profunda. El
hallazgo conecta de manera elegante biología y física, mostrando que los
límites estructurales también impulsan la innovación en la naturaleza.
¿Y si
la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una
simulación
Un físico británico propone una idea tan provocadora como
fascinante: la gravedad no sería una fuerza física, sino una herramienta de
optimización de datos… como si el universo fuera una simulación
El universo como una especie de superordenador
Melvin Vopson, físico de la Universidad de Portsmouth, ha
presentado una nueva interpretación del funcionamiento del universo. Según su
estudio más reciente, la gravedad podría ser el resultado de un proceso
de compresión de información, no una atracción invisible entre cuerpos con
masa.
Es decir, el universo actuaría como una especie de
“ordenador cósmico” que busca la eficiencia al manejar la enorme cantidad de
datos que contiene. Si eso suena a ciencia ficción, es porque lo es… pero
también tiene bases científicas intrigantes.
Gravedad como función de eficiencia
Vopson sostiene que la gravedad no está “jalando” cosas
entre sí, como aprendimos en la escuela. En cambio, lo que hace es “empaquetar
información” para organizar la materia de la forma más eficiente posible.
Es como cuando comprimimos archivos en un .zip para que ocupen menos espacio en
el disco duro: reducimos el desorden y mantenemos todo más compacto.
En esta visión, la gravedad sería una especie de
algoritmo que minimiza el “peso informático” del universo,
simplificando la forma en que la materia se distribuye en el espacio. La razón
por la que los planetas, las estrellas y nosotros mismos estamos formados por
bloques cohesivos de materia no sería solo una consecuencia de la masa, sino
una decisión del sistema para optimizar el procesamiento de datos.
¿Pixeles en el espacio-tiempo?
Esta teoría se apoya en una idea aún más radical: que
el espacio-tiempo estaría compuesto por unidades discretas, como si
fueran píxeles en una pantalla. Cada una de estas unidades sería binaria:
estarían “encendidas” o “apagadas”, dependiendo de si contienen materia o no.
Tal como ocurre con los bits en un ordenador, que solo pueden tener dos
estados, estas unidades formarían la base fundamental de la realidad.
Así, cuando varios objetos o partículas ocupan el mismo
espacio, el “sistema” (el universo) opta por agruparlos como un solo bloque,
reduciendo la complejidad computacional. Es decir, si dos partículas están
demasiado cerca, la gravedad las “fusiona” en un objeto mayor, lo
que es más simple de procesar que muchas partículas sueltas. Un truco de
eficiencia digital.
De la entropía térmica a la “infodinámica”
Uno de los pilares de la física clásica es la segunda ley de
la termodinámica, que dice que la entropía siempre tiende a aumentar.
Es la razón por la que las cosas se desordenan con el tiempo, por la que el
hielo se derrite o una habitación se ensucia si no la limpias.
Vopson propone un giro: la segunda ley de la
infodinámica. En lugar de asumir que la información se desordena, sugiere
que puede tender al orden si eso beneficia al sistema. En otras palabras, el
universo buscaría reducir la entropía informativa, justo al revés
que con la energía.
Este comportamiento se parece más al de una simulación que
al de un sistema físico clásico. En los videojuegos, por ejemplo, los recursos
se cargan solo cuando son necesarios. No se representa cada hoja de cada árbol,
sino solo lo que el jugador ve, para reducir la carga de procesamiento. Esta
lógica parece similar a la que Vopson le atribuye a la gravedad.
La información tiene masa
En investigaciones anteriores, Vopson ya había planteado
otra idea audaz: la información tiene masa. Según sus cálculos, los
datos que componen el universo no son simplemente conceptos abstractos, sino
entidades físicas con peso propio. Un poco como ocurre con el ADN, que almacena
toda la información genética en una cadena molecular tangible.
Imagina que cada partícula del universo fuera una especie de
unidad de almacenamiento, como una memoria USB microscópica. Así, la
realidad física sería una gran base de datos en constante reorganización, y
las leyes de la física serían los algoritmos que la gestionan.
¿Estamos dentro de una simulación?
Esta teoría no prueba directamente que vivimos en una
simulación. Pero ofrece una nueva lente con la cual mirar fenómenos que
seguimos sin comprender del todo, como la propia gravedad. Por más que podamos
medirla y predecir sus efectos con enorme precisión, seguimos sin saber
por qué existe ni cómo surge.
El modelo de Vopson sugiere que la gravedad no es una causa,
sino una consecuencia. Un síntoma de que el universo opera bajo reglas de
procesamiento de información, igual que un videojuego necesita un motor gráfico
para mostrar los objetos.
Si esta visión resulta acertada, podría ser una de las
pistas más claras de que el universo no es una creación espontánea,
sino una construcción lógica, basada en código.
¿Qué implicaría esto para la ciencia?
Plantear que la gravedad es un algoritmo optimizador abre
puertas insospechadas. Para empezar, cambiaría radicalmente nuestra forma de
entender la física. Las teorías actuales buscan unificar la gravedad con la
mecánica cuántica, pero no lo han logrado aún. Esta perspectiva podría
ofrecer un puente entre lo físico y lo informático.
Además, cambiaría nuestra concepción de la materia y la
información. Si los datos son materia y la materia es información, entonces
todo el universo podría leerse como un gigantesco libro codificado.
O como un videojuego extremadamente avanzado, del que no somos más que
personajes conscientes dentro de un entorno virtual muy bien diseñado.
Un debate tan filosófico como científico
Las implicaciones de esta teoría no solo tocan la física,
sino también la filosofía. Si todo lo que percibimos es parte de una
simulación, ¿quién la creó? ¿Y por qué? ¿Podemos salir de ella o hackearla?
Aunque estas preguntas aún están lejos de tener respuesta,
lo cierto es que teorías como la de Vopson nos invitan a repensar lo que
creemos saber sobre el mundo. Y eso, en sí mismo, ya es una forma valiosa de
avance científico.
La información de los estados
de un sistema cuántico no se puede perder
https://gemini.google.com/app/2aef51477ffae076?hl=es-ES
La afirmación de que la información de los estados de un
sistema cuántico no se puede perder es un pilar fundamental de la mecánica
cuántica, arraigado en el principio de unitariedad. Esto significa que
la evolución de un sistema cuántico es siempre reversible y determinista
si se conocen todas las variables. Aquí te detallo las razones principales por
las que esto se considera cierto:
1. Evolución Unitaria de los Operadores Cuánticos
La evolución temporal de un estado cuántico está gobernada
por operadores unitarios. Matemáticamente, un operador unitario U
satisface la condición UU†=U†U=I, donde U† es la adjunta de U y I es la matriz
identidad. Esto implica varias cosas cruciales:
- Conservación
de la Norma: Los operadores unitarios conservan la
"longitud" o norma de un vector de estado cuántico. Esto es
esencial porque la norma de un estado cuántico representa la probabilidad
total de encontrar el sistema en alguno de sus posibles estados, y esta
probabilidad siempre debe ser 1 (o 100%). Si la norma cambiara, implicaría
que la información se está perdiendo o creando de la nada.
- Reversibilidad:
Dado que un operador unitario tiene una inversa (U−1=U†), cualquier
proceso cuántico descrito por un operador unitario es completamente
reversible. Si conoces el estado final, puedes aplicar la operación
inversa para recuperar el estado inicial sin ambigüedad. La pérdida de
información implicaría que no podrías reconstruir el pasado a partir del
presente.
- Conservación
del Producto Interno: Los operadores unitarios también conservan el
producto interno entre dos estados cuánticos. Esto significa que si dos
estados son distinguibles al principio, seguirán siendo distinguibles de
la misma manera después de la evolución unitaria. La información sobre sus
diferencias relativas se mantiene.
2. Teorema de No-Clonación
El teorema de no-clonación establece que es imposible
crear una copia idéntica arbitraria de un estado cuántico desconocido. Aunque
esto podría parecer contradictorio con la conservación de la información (uno
podría pensar que clonar preserva la información), en realidad lo refuerza. Si
se pudiera clonar un estado, se podría obtener información ilimitada sobre él,
lo que abriría la puerta a la extracción de información de formas que violarían
los principios cuánticos, como la incertidumbre de Heisenberg. El hecho de que
no se pueda copiar perfectamente un estado implica que la información contenida
en ese estado es intrínseca y no se puede duplicar sin alterar el original,
protegiendo así su unicidad.
3. Entrelazamiento y Decoherencia
Aunque a menudo se confunde, la decoherencia no es
una pérdida de información, sino una dispersión de la misma. Cuando un sistema
cuántico interactúa con su entorno (por ejemplo, con partículas de aire o
fotones), se entrelaza con ese entorno. La información sobre el estado
del sistema original no desaparece, sino que se distribuye y se
"esconde" en las correlaciones entre el sistema y su vasto entorno.
- Información
Distribuida: La información del estado cuántico original se vuelve
inaccesible localmente porque está dispersa a través de un enorme número
de grados de libertad del ambiente. Es como intentar encontrar una gota de
tinta en una piscina olímpica: la tinta no desaparece, pero ya no está
contenida en un solo lugar.
- Irreversibilidad
Aparente: La decoherencia hace que los estados cuánticos parezcan
"colapsar" o volverse clásicos, lo que sugiere una pérdida de
información. Sin embargo, esta irreversibilidad es solo aparente desde una
perspectiva práctica. En principio, si pudiéramos medir y controlar todos
los grados de libertad del entorno entrelazado, la información podría ser
recuperada. No es una pérdida fundamental, sino una dificultad práctica de
recuperación.
4. El Problema de la Información del Agujero Negro
El principio de conservación de la información es tan
fundamental que ha llevado a uno de los debates más profundos en la física
moderna: el problema de la información del agujero negro. Si la radiación
de Hawking causa que los agujeros negros se evaporen, ¿qué sucede con la
información de la materia que cayó en ellos?
- Paradoja:
Si la información se perdiera definitivamente dentro del agujero negro al
desaparecer este, la mecánica cuántica (que exige la conservación de la
información) estaría en conflicto directo con la relatividad general (que
describe la evaporación del agujero negro).
- Búsqueda
de Soluciones: Este conflicto ha impulsado décadas de investigación y
ha llevado a ideas como el "firewall" (pared de fuego) o la
teoría de cuerdas, que buscan resolver la paradoja garantizando que la
información, de alguna manera, escape o se preserve en la radiación
saliente o en el remanente del agujero negro. El hecho de que este sea un
problema tan grande subraya la importancia de la conservación de la
información en la mecánica cuántica.
En síntesis, la imposibilidad de perder información en los
estados cuánticos se deriva directamente de la naturaleza reversible y unitaria
de la evolución cuántica, el teorema de no-clonación, y la forma en que el
entrelazamiento dispersa la información en lugar de destruirla. Este principio
es tan central que cualquier aparente violación (como en el caso de los
agujeros negros) representa un desafío fundamental para nuestra comprensión del
universo.
Una formulación geométrica alternativa plantea que el
electromagnetismo podría entenderse sin partículas ni campos, solo como
curvaturas del espacio-tiempo
Durante décadas, Albert Einstein persiguió un sueño
que nunca llegó a cumplir: unificar todas las fuerzas fundamentales en un
único marco matemático. Su obsesión era la llamada teoría unificada del
campo, una formulación capaz de describir tanto la
gravitación como el electromagnetismo bajo una sola estructura. Esa
búsqueda quedó inconclusa a su muerte, en 1955. Ahora, un estudio firmado
por los físicos Jussi Lindgren y Andras Kovacs, publicado en Journal of Physics: Conference Series, reabre
ese camino con una propuesta que prescinde de partículas, campos y cargas, y lo
reduce todo a una cuestión de geometría.
El modelo que presentan parte de una idea
radical: que el electromagnetismo no requiere una entidad física
separada que actúe sobre las partículas, sino que puede interpretarse como
una manifestación local de la geometría del espacio-tiempo. Apoyándose en una
extensión matemática de la relatividad general conocida como geometría de
Weyl, los autores afirman que la carga eléctrica no es más que una
compresión geométrica, una alteración en la estructura del espacio-tiempo
que modifica las trayectorias de las partículas. Así, los electrones o protones
no “sienten” una fuerza: simplemente siguen geodésicas —caminos naturales en
ese entorno curvado— como si no existiera nada externo actuando sobre ellos.
Una reformulación del electromagnetismo desde la
geometría
La propuesta implica una reformulación completa de las
ecuaciones clásicas del electromagnetismo. En lugar de las conocidas ecuaciones
de Maxwell, el modelo parte de un principio variacional, similar
al que se usa para derivar las leyes del movimiento en física teórica. Este
enfoque lleva a una serie de ecuaciones no lineales, que describen
el comportamiento electromagnético como una propiedad del espacio, no como una
fuerza aplicada desde fuera. Lindgren las denomina “Ecuaciones Generalizadas de
Maxwell” y las considera un puente natural hacia la integración de la mecánica
cuántica.
Uno de los aspectos más llamativos del estudio es
su reinterpretación de la ecuación de Dirac, fundamental para
describir partículas con spin, como el electrón. Según los autores, esta
ecuación no necesita postular propiedades cuánticas a priori, sino
que puede deducirse como una consecuencia natural del tipo de geometría que
adopta el espacio-tiempo en determinadas regiones. La frecuencia asociada al
movimiento ondulatorio del electrón —el fenómeno conocido como Zitterbewegung,
una oscilación a la velocidad de la luz— sería, en esta visión, el
origen profundo de la función de onda cuántica.
Más allá de la física clásica: efectos cuánticos desde la
curvatura
El modelo también ofrece una explicación alternativa
al límite clásico entre la física cuántica y la clásica. Hasta ahora, se
asumía que este umbral dependía de la intensidad de los campos (el llamado
límite de Schwinger). Pero en esta nueva formulación, la clave estaría
en la curvatura local del universo, concretamente en la integral
del potencial vectorial, que determina cuándo emergen los efectos cuánticos.
Esta visión sitúa la transición entre lo clásico y lo cuántico no en una
propiedad del campo, sino en la forma del espacio en sí.
Más allá de la coherencia matemática, la propuesta
tiene implicaciones que podrían verificarse experimentalmente. Por ejemplo,
predice la posibilidad de que partículas cargadas experimenten desviaciones sin
necesidad de un campo electromagnético presente, lo que se relaciona
directamente con el efecto Aharonov-Bohm, un fenómeno cuántico en el
que el potencial modifica la fase de una partícula sin que haya fuerza alguna
actuando sobre ella. En este marco, el espacio-tiempo deja de ser un
escenario pasivo para convertirse en un medio activo, que puede alterar el
comportamiento de la materia sin intervención directa.
Una teoría del todo sin partículas nuevas ni dimensiones
ocultas
Los autores defienden que esta aproximación
geométrica podría ofrecer una alternativa viable a otras grandes teorías
unificadoras como la teoría de cuerdas, que requieren dimensiones
adicionales y entidades aún no observadas. “Nuestra propuesta no necesita
partículas nuevas, ni dimensiones ocultas —explica Lindgren—. Solo una forma
distinta de mirar la geometría del universo”. Aun así, reconocen que se
trata de un primer paso y que su modelo necesita desarrollos matemáticos más
amplios y una revisión detallada de su compatibilidad con las
predicciones experimentales ya conocidas.
El
algoritmo de Grover como parte fundamental de la propia naturaleza
Cualquier ser vivo de la Tierra usa el mismo código, en el
cual el ADN almacena información mediante cuatro bases de nucleótidos. Las
secuencias de nucleótidos codifican información para construir proteínas a
partir de un alfabeto de 20 aminoácidos.
Pero ¿por qué se trata de estos números, 4 y 20, y no otros?
En 2000, solo unos años después de que Grover publicara su trabajo, el
investigador del Instituto Indio de Ciencia de Bangalore, Apoorva Patel
demostró que el algoritmo de Grover podía explicar estos números.
La idea de Patel está relacionada con la forma en la que el
ADN se ensambla dentro de las células. En esta situación, la maquinaria
molecular de cada célula debe buscar el nucleótido correcto dentro de una sopa
molecular de bases. Si hay cuatro opciones, una búsqueda clásica necesitaría
una media de cuatro pasos. Por lo tanto, la maquinaria tendría que probar
cuatro bases diferentes durante cada paso de ensamblaje.
Pero la búsqueda cuántica mediante el algoritmo de Grover es
mucho más rápida: Patel demostró que cuando hay cuatro opciones, una búsqueda
cuántica puede distinguir entre cuatro alternativas en un solo paso. De hecho,
cuatro es el número óptimo.
Este planteamiento también explica por qué hay 20
aminoácidos. En el ADN, cada conjunto de tres nucleótidos define un solo
aminoácido. Entonces, la secuencia de tripletes genéticos es la que define la
secuencia de aminoácidos en una proteína.
Pero durante el ensamblaje de proteínas, cada aminoácido es
elegido entre 20 opciones diferentes. El algoritmo de Grover también explica
este número: una búsqueda cuántica de tres pasos puede encontrar un objeto en
una base de datos que contenga hasta 20 tipos de entrada. De nuevo, el 20 es el
número óptimo.
En otras palabras, si los procesos de búsqueda involucrados
en el ensamblaje de ADN y proteínas deben ser lo más eficientes posible, el
número de bases existentes debe ser cuatro y el número de aminoácidos debe ser
20, exactamente tal y como es en realidad. La única condición es que las
búsquedas sean de naturaleza cuántica.
Puede ser que la vida sea solo un ejemplo de la búsqueda
cuántica de Grover y que este algoritmo sea en sí mismo una propiedad
fundamental de la naturaleza. Si la idea se confirma, podría resultar
grandiosa.
La Endosimbiosis
como forma de cooperación entre bacterias para conseguir dos saltos clave en la
evolución
La gran bióloga Lynn Margulis propuso en 1967 que la
endosimbiosis está detrás del origen de las células eucariotas. Según ella, un
procariota ancestral se habría asociado con bacterias heterótrofas, es decir,
capaces de oxidar la materia orgánica. Esta asociación, ocurrida hace unos 2000
millones de años, se habría consolidado, de forma que las bacterias perdieron
su capacidad de vida libre y se convirtieron en las mitocondrias, los orgánulos
en los que se genera la energía que necesitan nuestras células. Un segundo
evento de endosimbiosis, hace 1500 millones de años, asoció a un eucariota con
cianobacterias fotosintéticas, capaces de producir materia orgánica utilizando
la energía de la luz. Esas bacterias terminaron por constituir orgánulos
celulares, los cloroplastos. De esta forma algas y plantas verdes llegaron a
ser capaces de utilizar la luz para sintetizar compuestos orgánicos.
Nueva teoría sobre materia
oscura apunta a un "mundo espejo"
El mundo espejo: quarks y gluones oscuros en el universo
primitivo
Su primera
propuesta plantea una pregunta fascinante: ¿y si existiera una
especie de "mundo espejo" dentro de
nuestro propio universo? No se trata de ciencia ficción ni de un
mundo espejo visual, sino de una teoría basada en la cromodinámica
cuántica (QCD), la misma física bien establecida que explica cómo se mantienen
unidos los protones y neutrones en los átomos.
En este sector hipotético, habría versiones
"oscuras" de las partículas fundamentales: quarks oscuros y gluones
oscuros que se combinan para formar partículas más pesadas. Durante los
primeros segundos del universo, cuando las condiciones eran extremas, estas
partículas podrían haberse vuelto tan densas que colapsaron bajo su propio
peso, formando objetos minúsculos similares a agujeros negros.
Estos objetos serían perfectamente invisibles para nuestros
detectores, interactuando con la materia normal únicamente a través de la
gravedad. Pero si existieran en suficiente cantidad, podrían explicar
perfectamente todos los efectos gravitacionales que atribuimos a la materia
oscura.
El artículo plantea que estos objetos serían apenas unas
pocas veces más masivos que la llamada masa de Planck, un umbral fundamental en
física. Su atractivo radica en que no requieren física nueva, sino una
prolongación especular de la que ya conocemos.
"Residuo" cuántico: materia oscura desde el
horizonte cósmico
El segundo estudio de
Profumo toma una ruta aún más abstracta. Esta vez, el origen de la materia
oscura no sería un reflejo, sino una especie de "residuo" cuántico
del propio universo en expansión.
La idea se inspira en la
radiación de Hawking, que predice que los agujeros negros pueden
emitir partículas en su horizonte de sucesos debido a
efectos cuánticos. Profumo plantea un escenario similar para el
horizonte cósmico, el límite del universo observable. Durante una breve, pero
intensa fase de expansión acelerada justo después del big bang (no
tan violenta como la inflación, pero sí significativa), el universo podría
haber generado partículas de materia oscura a partir de fluctuaciones
cuánticas.
Estas partículas no necesitarían interactuar con nada más,
excepto con la gravedad. Lo único imprescindible sería que fueran estables y lo
bastante numerosas. Como explica Profumo en el comunicado, ambos mecanismos –el
espejo oscuro y el horizonte cósmico– son "muy especulativos", pero
tienen una gran virtud: no dependen de los modelos tradicionales de materia
oscura de partículas, cada vez más presionados por la falta de evidencias.
¿Y si el Universo está
flotando en un extraño océano de masa negativa?
Pero, ¿qué es la gravedad? ¿Como actúa a distancia, de dónde
obtiene la energía para tirar al suelo una simple fruta? ¿Por qué unas cosas
pesan más que otras? La respuesta aceptada es que existe un campo, el
llamado campo de Higgs, que permea el espacio-tiempo y que, al
interaccionar con la materia, le proporciona a las partículas su masa. Es
decir, algo totalmente cotidiano y evidente, la propia existencia de la
gravedad, depende de algo invisible, difícil de comprender y muy lejos de ser
evidente. Tan es así que la existencia del bosón de Higgs , la partícula que
genera el campo del mismo nombre, solo se pudo constatar hace seis años.
Y esto es solo una ínfima parte del enorme desafío que es
comprender el funcionamiento de lo que nos rodea. De hecho, en la
actualidad se desconoce la naturaleza del 95 por ciento del
Universo . La materia visible, que forma estrellas, planetas y nubes
de polvo y gas, no explica cómo las galaxias giran tan rápido como lo hacen sin
deshacerse. Debe de existir algo invisible que las mantiene unidas, gracias a
la gravedad: quizás la llamada materia oscura. Por otro lado, la materia
visible tampoco explica por qué existe una misteriosa fuerza repulsiva que
separa el espacio-tiempo y expande el Universo, con más aceleración cuanto más
disperso está. Debe de existir algo que lo separa todo: podría ser la llamada
energía oscura. Pero, ¿de dónde surgen estos fenómenos? Si algo tan natural
como la gravedad que sentimos tiene una base tan extraña, ¿qué podemos esperar
de estos fenómenos oscuros que no tenemos ni idea de cómo son?
Hasta el momento, no ha habido forma de detectar ni una
traza de la fracción oscura del Universo, y no es de extrañar que haya cientos
de investigadores devanándose los sesos por ello. Ahora, un grupo de
científicos de la universidad de Oxford (Reino Unido) acaba de publicar un
artículo en la revista Astronomy and Astrophysics donde
propone una explicación, basada en modelos matemáticos que son capaces de
reproducir parcialmente nuestro Universo, y que unifican tanto la
materia como la energía oscuras . Su propuesta consiste en sugerir
la existencia de la masa negativa , una exótica forma de materia que
se caracteriza por alejar a la masa de su alrededor. Si las masas se atraen
entre sí gracias a la gravedad, ¿por qué no puede ocurrir lo contrario? ¿Podría
ser que el Universo fuera simétrico y hubiera masas positivas y negativas?
«Parece que un simple signo negativo podría
solucionar dos de los mayores problemas de la Física », ha explicado a
ABC Jamie Farnes , primer autor del estudio.
«Nuestra teoría parece no solo explicar la materia oscura, sino que también
obtenemos una posible solución para la energía oscura».
En primer lugar, ¿cómo sería esta masa negativa? Según el
autor, sería «extraña y peculiar para nosotros, porque vivimos en una región
del espacio dominada por la materia positiva». De hecho, aventura que tendría
una exótica propiedad: «Si empujaras una masa negativa, ¡esta iría hacia ti!».
La repulsión que une galaxias
El investigador ha recordado que el callejón sin salida de
la materia y la energía oscuras, que es resultado de no poder explicar lo que
vemos en el Universo con nuestras teorías, ha llevado a algunos científicos a
coger el camino de en medio. Algunos trabajan en una «gravedad modificada» que
se comporta de una forma distinta en las grandes escalas y otros han creado el
concepto del «fluido oscuro», una exótica forma de materia que combinan algunas
de las propiedades de la energía y la materia oscuras. ¿Es por esto por lo que
el Universo se expande tan rápido? ¿O el motivo por el que se mantienen unidas
las galaxias? ¿Que no lo veamos indica que no existe?
Responder a estas preguntas puede ser una tarea demasiado
ambiciosa, o no. De momento, Jamie Farnes ha elaborado un modelo matemático
basado en la masa negativa que es capaz de explicar la formación de
halos de materia oscura alrededor de galaxias de masa positiva.
«Mi modelo muestra que la fuerza repulsiva de los
alrededores, proveniente de la masa negativa, puede mantener unida a una
galaxia», ha explicado Farnes. «La gravedad de la masa positiva de la galaxia
atrae la masa negativa en todas las direcciones y, a medida que esta masa
negativa se acerca, ejerce una fuerza repulsiva cada vez con más fuerza que
permite a la galaxia girar a gran velocidad sin salir disparada».
La fuerza que expande el espacio-tiempo
Si la masa negativa puede explicar la materia oscura, ¿puede
explicar también la energía oscura y la expansión del Universo? Hasta ahora,
siempre se ha rechazado esta posibilidad, porque no parece compatible con lo
observado.
«Sabemos que la materia, incluyendo las partículas de masa
negativa, se dispersarían más a medida que el Universo se expande. Sin embargo,
las observaciones de energía oscura muestran que esta sustancia no se hace más
fina con el tiempo, de hecho permanece constante durante la expansión del
Universo», ha resumido Jamie Farnes.
Sin embargo, este científico ha ideado una posibilidad que
acabaría con esta incompatibilidad. ¿Y si la masa negativa se genera
espontáneamente? «En nuestra teoría, las partículas de masa negativa
son creadas continuamente por un "tensor de creación ", de
modo que se regeneran a medida que el Universo se expande. Con esta propuesta,
estas masas negativas creadas continuamente parecen ser idénticas a la energía
oscura». Por tanto, serían compatibles con lo observado.
El «tensor de creación»
Este científico ha detallado que este «tensor de creación»
no es más que una construcción matemática, «que permite a la materia aparecer
espontáneamente en la existencia, como una especie de palomita microscópica».
En su opinión, sería interesante observar si esta idea puede
ser compatible con la Mecánica Cuántica, para estudiar si podría haber
partículas que aparecieran espontáneamente en el vacío, o incluso para ayudar a
la unificación de las incompatibles Relatividad y Mecánica Cuántica. Puede
parecer inverosímil, pero, ¿no lo es también la base de una realidad tan
cotidiana como la gravedad? ¿O la de los fenómenos que permiten el
funcionamiento de satélites o televisiones?
Aceptando el marco propuesto por esta investigación,
resultaría que la energía y la materia oscuras pueden ser unificadas en una
sola sustancia, cuya naturaleza se explica sencillamente como resultado de que
« la masa positiva –del Universo– surfea en un mar de
masas negativas », según Farnes.
Los pasos para confirmarlo
¿Qué harán a continuación para tratar de validar esta
hipótesis? El investigador ha explicado que este modelo predice que la
distribución de las galaxias debería variar de una forma muy concreta en
función el tiempo. Pues bien, están desarrollando herramientas para procesar
los datos que obtendrá el Square Kilometre
Array (SKA), un inmenso radiotelescopio con un área
colectora de un millón de metros cuadrados y capaz de generar 5
millones de petabytes de información cada año, para estudiar la distribución de
las galaxias, según ha dicho Farnes, «más atrás en el tiempo que ninguna otra
máquina ha podido mirar».
Esto les permitirá comparar la teoría propuesta con el
modelo cosmológico convencional, que no puede explicar la energía o la materia
oscuras, y quizás incluso contraponera con otras teorías cosmológicas.
Todo esto no ocurrirá hasta al menos 2030, según Jamie
Farnes. Sin embargo, es posible que antes de eso los experimentos Alpha-G y
ATLAS, del CERN, encuentren indicios de la antimateria de masa
negativa , lo que serían un importante impulso en la búsqueda de
partículas de masa negativa.
Webs relacionadas
¿Y si el Universo está flotando en un extraño océano de
masa negativa?
Masa negativa: Explicando el universo que no vemos
https://www.astrobitacora.com/masa-negativa-explicando-el-universo/
Crean un objeto con "masa negativa": va para el
lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton
https://www.bbc.com/mundo/noticias-39642708
Nuevo modelo para unificar la materia oscura y la energía
oscura en gravedad negativa
Nuevos indicios de que el espacio-tiempo estaría hecho de
recuerdos
La física cuántica ha llegado al rescate de los
neurocientíficos. Aspira a explicar la consciencia humana
Una investigación asegura que cada célula de nuestro
cuerpo podría ser consciente
El cerebro estaría conectado con el cosmos a escala
cuántica
https://www.tendencias21.es/El-cerebro-estaria-conectado-con-el-cosmos-a-escala-cuantica_a44304.html
Nueva teoría: demuestran que la gravedad puede existir
sin masa
Crean un objeto con "masa negativa": va para el
lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton
https://www.bbc.com/mundo/noticias-39642708
El Big Bang pudo crear un 'Universo espejo', en el que
el tiempo va hacia atrás
«¿Por qué las cosas se caen?», una explicación de
Susskind a través de «Relatividad General = Mecánica Cuántica»
Maldacena y Milekhin explican el agujero de gusano de
la película Interstellar (2014) usando la teoría de Randall-Sundrum
Qué es la 5ª dimensión y dónde está escondida
https://www.bbc.com/mundo/noticias-44725096
Mecánica cuántica y cerebro: una revisión crítica
https://neurorgs.net/investigacion/mecanica-cuantica-y-cerebro-una-revision-critica/
¿Es relevante la mecánica cuántica para la comprensión
científica del problema mente-cerebro?
El efecto túnel a detalle
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
El principio holográfico: el más bello avance hacia la
gravedad cuántica
Una nueva teoría sugiere que la gravedad surge de la
entropía, lo que podría unir la relatividad y la mecánica cuántica
https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/
https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html
Is
gravity evidence of a computational universe?
Las dos caras del espacio-tiempo
https://culturacientifica.com/2025/07/15/las-dos-caras-del-espaciotiempo/
Einstein y la teoría unificada: una nueva propuesta
reabre su idea más ambiciosa
Una nueva teoría sugiere que la gravedad surge de la
entropía, lo que podría unir la relatividad y la mecánica cuántica
https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/
Un famoso algoritmo cuántico podría ser parte de la
propia naturaleza
https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/
Hallazgo en el ADN revela que la vida dio su ‘salto
matemático’ hacia la complejidad similar a los "cambios de fase"
estudiados en física
Qué es: la entropía de Shannon
https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/
¿Y si la gravedad fuera un algoritmo? Una sorprendente
teoría sobre vivir en una simulación
¿Cuáles son los dos pasos principales del algoritmo de
Grover y cómo contribuyen al proceso de búsqueda?
El principio holográfico: el más bello avance hacia la
gravedad cuántica.
EUREKA La conjetura de Maldacena. De la mecanica cuántica
al universo holográfico
New
theories on dark matter’s origins point to ‘mirror world’ and universe’s edge
https://news.ucsc.edu/2025/08/dark-matter-origin-theories/