Nuestro espacio-tiempo tiene asociado un Agujero Negro gemelo,
hecho de partículas S supersimétricas de masas negativas, que está hecho de
pixeles cuánticos y en cuyo Horizonte de Sucesos queda grabado todo, para que
no se pierda la información de los estados cuánticos, según exige la Mecánica
Cuántica
Estos pixeles cuánticos de espacio-tiempo tienen existencia propia,
guardan información de los estados cuánticos evolutivos de cada función de
onda, de forma similar a como el ADN guarda la información de los estados
evolutivos de los estados biológicos
Un buen objetivo
sería descubrir la molécula similar al ADN para almacenar la información de los
estados de la evolución de cada función de onda
Si la
molécula del ADN tiene masa, es de esperar que la molécula que almacena los estados
cuánticos de cada función de onda pueda también tener masa
La evolución
de esa molécula que almacena los estados cuánticos, que tiene masa, queda definida
por la segunda ley de la infodinámica de Vopson
Esa evolución de masas explica los grandes
saltos evolutivos, por ejemplo, la colaboración entre cianobacterias para
originar la fotosíntesis, la mutación del virus del Covid…y la atracción sexual
para conseguir la continuación de las especies
Álvaro
Ballesteros
03. Agosto.
2025
RESUMEN
Todos los estados de nuestro pasado quedan grabados, porque
según la Mecánica Cuántica, no se puede perder la información de la evolución
de una función de onda
La evolución de la función de onda de un determinado sistema
queda determinada por la ecuación de onda de Schroedinger de ese sistema
La
Supersimetría, predicción de la Teoría de Cuerdas, dice que todas las
partículas subatómicas que conocemos, como electrones y fotones deben tener un
equivalente mucho más pesado, que se denominan “partículas S”
Las
partículas S predichas son increíblemente pesadas
Lo
que postula SUSY (Supersimetría) es que a cada partícula del Modelo Estándar le
corresponde una compañera supersimétrica que tiene el spin contrario
Es
decir, por cada fermión (leptones y quarks), que tienen spin semientero, le
corresponde un bosón (que tiene spin entero) y por cada bosón (que tienen spin
entero) le corresponde un fermión (que tiene spin semientero)
Por
tanto, el número de partículas predicho por SUSY sería el doble que en el
Modelo Estándar
Las
partículas de masa positiva y sus partículas S correspondientes fueron creadas
en fluctuaciones cuánticas
Las
partículas S son increíblemente pesadas y serían las causantes de la materia
oscura, un Universo de masas negativas
Jamie
Farnes sugiere que la Materia Oscura es un Universo de masas negativas que
rodea nuestro Universo de masas positivas
Julian
Barbour propone que hay dos Universos, uno en el que el tiempo se mueve hacia
adelante, en el que el caos aumenta, y otro hacia atrás, en el que el caos disminuye
y la complejidad aumenta
Ese
Universo de masas negativas, lleno de partículas S superpesadas, tiene todas
las características de los agujeros negros
Ambos
Universos están entrelazados, dado que tuvieron un origen común, para respetar
la simetría masas positivas = masas negativas
Ambos
Universos nacieron a partir de una fluctuación cuántica
De
acuerdo con la conjetura EPR = ER, donde hay entrelazamiento hay agujeros de
gusano
Ambos
Universos están conectados a través de agujeros de gusano
La información queda grabada en el Horizonte de Sucesos del
agujero negro, conforme a lo que predice el Principio Holográfico y la
Conjetura de Maldacena
Ese Universo de masas negativas es la brana gravitatoria del
Modelo Randall-Sundrum
Esa brana gravitatoria está en la 5º dimensión definida por
ese Modelo
Ese otro Universo distorsiona el espacio-tiempo de nuestro
Universo
Esa distorsión de nuestro espacio-tiempo es lo que aparece
ante nuestros ojos como la fuerza de la gravedad
Ese agujero de gusano se abre gracias a las masas negativas del
agujero negro, según la solución de la Relatividad General descubierta por Kip
Thorne
Más sencillamente, hablando en términos de energía, el otro
Universo nos proporciona energía…. se comunica con nosotros, nos envía energía
oscura
¿Hay alguna manera de “conseguir llamar “a esa energía?: en
todos los casos de entrelazamiento nos valemos de esa energía, que es capaz de
distorsionar el espacio-tiempo para conseguir esa comunicación instantánea
¿Cuál sería la función del observador, según mi visión
del Modelo Randall-Sundrum?
La función del observador es capaz de activar la
comunicación instantánea entre branas, activar la gravedad, activar la energía
oscura, activar el agujero de gusano (hacerlo transitable, según el concepto de
agujero de gusano transitable de Kip
Thorne)
Conclusión: si la mente del observador es capaz de activar
la comunicación entre ambas branas / gravedad / energía oscura / agujero de
gusano, entonces la conclusión lógica es que la mente / conciencia está en un
Universo superior de 5 dimensiones (4 espaciales y 1 temporal), o sea en la brana
gravitatoria
La mente / conciencia no es solo humana: en la fotosíntesis
la mente / conciencia está en los cloroplastos y/o las bacterias que fueron
capaces de diseñar el proceso fotosintético
La conciencia de las bacterias también trabaja en un
espacio-tiempo de 5 dimensiones
La mente activa, como la base de un transistor, que la
energía oscura aparezca en nuestro Universo…. La energía oscura es la que iría “del
emisor al colector de ese transistor”
Por terminar con esta similitud, el cuello de los agujeros
de gusano sería el emisor / colector de ese transistor y la energía oscura activaría
la base de ese transistor / agujero de gusano
¿Qué es lo que hace la mente para activar esos transistores?:
fijar su atención en el experimento…centrar la atención sobre la fotosíntesis /
superconductividad / actividad neuronal
La mente / conciencia, al estar trabajando en un
espacio-tiempo de 5 dimensiones, es capaz de manejar el espacio (comunicación
instantánea) y hacer que el tiempo vaya hacia adelante o atrás
En Interstellar, la visión de Kip Thorne hace que Cooper,
desde el Teseracto, sea capaz de hablar con su hija / consigo mismo yendo al
pasado
Para que la mente atraiga la energía oscura, tiene que concentrarse
en el experimento, vaciándose de otros pensamientos que la distraigan
La energía oscura estaría contenida en la brana gravitatoria
¿Cuál sería la función del observador, según mi visión
del Modelo Randall-Sundrum?
La función del observador es capaz de activar la
comunicación instantánea entre branas, activar la gravedad, activar la energía
oscura, activar el agujero de gusano (hacerlo transitable, según el concepto de
agujero de gusano transitable de Kip
Thorne)
Conclusión: si la mente del observador es capaz de activar
la comunicación entre ambas branas / gravedad / energía oscura / agujero de
gusano, entonces la conclusión lógica es que la mente / conciencia está en un
Universo superior de 5 dimensiones (4 espaciales y 1 temporal), o sea en la brana
gravitatoria
La mente / conciencia no es solo humana: en la fotosíntesis
la mente / conciencia está en los cloroplastos y/o las bacterias que fueron
capaces de diseñar el proceso fotosintético
La conciencia de las bacterias también trabaja en un
espacio-tiempo de 5 dimensiones
La mente activa, como la base de un transistor, que la
energía oscura aparezca en nuestro Universo…. La energía oscura es la que iría “del
emisor al colector de ese transistor”
Por terminar con esta similitud, el cuello de los agujeros
de gusano sería el emisor / colector de ese transistor y la energía oscura activaría
la base de ese transistor / agujero de gusano
¿Qué es lo que hace la mente para activar esos transistores?:
fijar su atención en el experimento…centrar la atención sobre la fotosíntesis /
superconductividad / actividad neuronal
La mente / conciencia, al estar trabajando en un
espacio-tiempo de 5 dimensiones, es capaz de manejar el espacio (comunicación
instantánea) y hacer que el tiempo vaya hacia adelante o atrás
En Interstellar, la visión de Kip Thorne hace que Cooper,
desde el Teseracto, sea capaz de hablar con su hija / consigo mismo yendo al
pasado
Para que la mente atraiga la energía oscura, tiene que concentrarse
en el experimento, vaciándose de otros pensamientos que la distraigan
La energía oscura estaría contenida en la brana gravitatoria
El espacio-tiempo de ese Horizonte de Sucesos no es
continuo, es discreto, como una pixelación
"La segunda ley de infodinámica describe la
evolución temporal de la entropía de los estados de información en un sistema
aislado hacia el equilibrio", explica Vopson en su artículo. Según esta
idea, la materia en el espacio estaría obligada a
reorganizarse para reducir su huella informativa, no para maximizarla.
Esta perspectiva lleva a pensar que el espacio-tiempo no
sería continuo, sino "discreto, similar a una pixelación o al
mallado en análisis de elementos finitos". Cada "píxel" del espacio almacenaría
información sobre los objetos que contiene, como una especie de gigantesca
memoria cósmica.
https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html
Según Vopson, el propio proceso de agrupación está impulsado
por una fuerza entrópica: "La fuerza atractiva generada por el
requerimiento de reducir la entropía de la información tiene todas las
características de una fuerza gravitacional". Así, la gravedad no sería más que el esfuerzo del
universo por mantener su información comprimida y organizada.
Aplicando esta idea, el autor consigue derivar la ley de la
gravitación universal de Newton: "Recuperamos una expresión de la
fuerza entrópica que es idéntica a la ley de la gravedad de Newton". Esto implica que lo que
percibimos como gravedad podría ser un efecto secundario de la tendencia
fundamental del cosmos a optimizar su almacenamiento de datos.
Cada pixel tiene la longitud de Planck: 1,6 x 10 exp -35
metros
Por debajo de la longitud de Planck aparecen los efectos de
la gravedad cuántica
Cada pixel es único y está definido por información exclusiva
de él
Por visualizar, cada pixel tiene propiedades que lo definen,
como una celda de un Excel
Los pixeles son la base para demostrar la segunda ley de la
infodinámica de Vopson
Los pixeles pueden ser la base para el cálculo integral de posibles
ecuaciones de leyes básicas del Universo, como es el caso de la ley de Gauss del
campo eléctrico, una de las ecuaciones de Maxwell del electromagnetismo:
https://www2.montes.upm.es/dptos/digfa/cfisica/electro/gauss.html
Realmente, la integral del flujo eléctrico se puede pensar
como integral de los campos eléctricos que hay en cada pixel de Planck
Cada pixel de Planck tiene números cuánticos propios, como
los tienen los electrones o los fotones
El número cuántico de cada pixel incluye información sobre los
objetos que contiene, por ejemplo, la posición y velocidad de la masa que
alberga
También cada pixel contiene información sobre los campos
eléctrico y/o magnéticos que hay en él
Cada pixel de nuestro Universo tiene un pixel gemelo en el
Universo gemelo hecho de partículas S, superpesadas
Siguiendo este ejemplo, en ese pixel del Universo S quedan grabados
todos los estados del campo eléctrico que ha tenido el pixel de nuestro
Universo a lo largo del tiempo
O sea, cada pixel del Universo S guarda trazabilidad de todo
lo que le ha ocurrido a todas las partículas de nuestro Universo de Materia
Ordinaria
Así, tenemos en los pixeles de nuestro Universo S almacenada
una gigantesca memoria cósmica
El Universo gemelo, donde radica toda la información de todo
lo que ha pasado en nuestro Universo, trata de optimizar su “espacio en disco” por
medio de lo que le impone la segunda ley de la infodinámica de Vopson
Si en el Horizonte de Sucesos del Universo S queda grabado
todo lo que ha sucedido en nuestro Universo, ahí es donde radica toda la
sabiduría
Asimismo, todo lo que le ocurre ahora a una persona se está
grabando en ese Horizonte de Sucesos
Eso quiere decir que mis recuerdos y los de todo el resto de
los seres de este mundo están grabados en ese Horizonte de Sucesos
Así pues, el espacio-tiempo no es un simple escenario pasivo
sino que es un participante activo con capacidad ilimitada para almacenar y
recordar información
Cada celda cuántica de espacio-tiempo funciona como una
unidad de memoria elemental
Así pues, el espacio-tiempo no solo permite que las cosas
sucedan en él, sino que también las recuerda activamente
Las propiedades cuánticas de cualquier materia o campo que
haya en el espacio-tiempo de nuestro Universo de materia ordinaria se "imprimen"
en las celdas del horizonte de sucesos del Universo de partículas S
Bajo determinadas circunstancias, se puede recuperar la
información previamente codificada
De esta manera, queda preservado la ley fundamental de la
Mecánica Cuántica que prohíbe que dice que la información de los estados
cuánticos de las partículas definidas en el Modelo Estándar NO se puede perder
Conjetura de Maldacena /
Correspondencia AdS/CTF: Equivalencia entre una teoría de cuerdas o
una supergravedad definida
en una cierta clase de espacio anti-de
Sitter y una teoría conforme
de campos definida en su frontera con dimensión menor por
uno.
Correspondencia AdS/CFT:
https://www.wikiwand.com/es/Correspondencia_AdS/CFT
En física teórica, la correspondencia AdS/CFT (espacio anti-de Sitter/teoría conforme de campos) también
llamada conjetura de Maldacena, dualidad Maldacena o
dualidad gauge/gravedad, es una relación conjeturada entre dos tipos de teorías
físicas. Por un lado están los espacios anti-de Sitter (AdS) que se
utilizan en las teorías de la gravedad cuántica, formulados en términos de
la teoría de cuerdas o la teoría M.
En el otro lado de la correspondencia están las teorías de campos conformes (CFT)
que son teorías de campos cuánticos, que incluyen
teorías similares a las teorías de Yang-Mills que describen
partículas elementales.
La dualidad representa un gran avance en nuestra comprensión
de la teoría de cuerdas y la gravedad cuántica. Esto se debe a que
proporciona una formulación no
perturbativa de la teoría de cuerdas con ciertas condiciones de
frontera y porque es la realización más exitosa del principio holográfico, una idea en gravedad
cuántica propuesta originalmente por Gerard
't Hooft y promovida por Leonard
Susskind.
En física, la correspondencia AdS/CFT es la
equivalencia entre una teoría de cuerdas o una supergravedad definida
en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida
en su frontera con dimensión menor por uno.
El espacio anti-de Sitter (AdS) corresponde a una solución a
las ecuaciones de Einstein con constante cosmológica negativa, y es una teoría
clásica de la gravedad; mientras que la teoría conforme de campos
(CFT:Conformal Field Theory) es una teoría cuántica. Esta correspondencia entre
una teoría clásica de la gravedad y una cuántica, puede ser el camino hacia la
gravedad cuántica.
La correspondencia AdS/CFT fue propuesta originalmente por
el físico argentino Juan Maldacena a finales de 1997, y algunas de sus
propiedades técnicas pronto fueron clarificadas en un artículo de Edward
Witten y otro artículo de Gubser, Klebanov y Polyakov.
Para 2015, el artículo de Maldacena tenía más de 10.000 citas, convirtiéndose
en el artículo más citado en el campo de la física de partículas.
Agujeros negros primordiales,
MACHOs y WIMMP´s
Los agujeros negros primordiales podrían explicar la materia
oscura, el crecimiento de las galaxias y mucho más
https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales
Un día, hace poco más de cinco años, Ely Kovetz almorzaba
con sus colegas de la Universidad Johns Hopkins de Baltimore y discutía un
rumor tentador. Al igual que muchos en la comunidad de físicos, Kovetz había
escuchado el rumor sobre una posible señal de un observatorio de física
estadounidense recientemente puesto en operación. El observatorio estaba
diseñado para captar perturbaciones en el tejido del espacio-tiempo,
ondulaciones creadas, entre otras cosas, por agujeros negros que chocan entre
sí. Lo más intrigante es que la señal parecía haber sido creada por objetos
masivos, mucho más pesados de lo que se esperaba. Eso apuntaba a algunas
posibilidades sorprendentes.
“Lo primero que pensó todo el mundo fue ‘¿Qué? Esto no puede
ser. Esto es imposible’”, recuerda Kovetz, físico de la Universidad Ben-Gurión
de Israel y profesor visitante en Johns Hopkins. Pero entonces empezó a surgir
una sospecha más emocionante. Tal vez, pensaron, esto podría ser una señal de
agujeros negros primordiales.
¡Agujeros negros desde el inicio de los tiempos! Parece el
título de una película de ciencia ficción de bajo presupuesto, pero fracciones
de segundo después de que naciera nuestro universo, un enjambre de voraces
agujeros negros podría haberse formado espontáneamente a partir de la ardiente
energía que impregnaba el cosmos. Apoyados por las matemáticas y la teoría,
pero nunca observados definitivamente, estos agujeros negros primordiales son
una posibilidad que ha fascinado a los físicos durante casi medio siglo,
ganando o perdiendo popularidad a medida que nuevas observaciones parecían
apoyar o excluir su existencia.
Las desconcertantes señales de 2015 del Observatorio de
Ondas Gravitatorias por Interferometría Láser estadounidense (LIGO, por sus
siglas en inglés), y otras docenas de detecciones realizadas por el
observatorio y su homólogo europeo, Virgo, han alimentado un renovado interés
por la idea, con cientos de artículos publicados sobre ellos en tan solo los
últimos cinco años.
Los agujeros negros primordiales, de existir, serían
entidades masivas que no emiten luz, por lo que serían invisibles. Dado que
estarían dispersos por todo el universo, podrían ayudar a dar sentido a una
amplia variedad de observaciones extrañas que hasta ahora han desafiado la
explicación. Una de las principales razones por las que los investigadores se
sienten atraídos por estos extraños agujeros negros es que podrían resolver uno
de los mayores y más enigmáticos misterios de la astrofísica: la identidad de
la materia oscura.
Aunque no puedan detectarla, los físicos saben que la
materia oscura existe porque sus efectos gravitatorios se ven por todo el
cosmos. Pero nadie sabe de qué está hecha. Los agujeros negros masivos
primordiales podrían ser la respuesta que se busca desde hace tiempo. Estos
grandes y pesados objetos podrían haber servido también como anclas alrededor
de las cuales se unieron las primeras galaxias, otro enigma que se ha resistido
durante mucho tiempo a la explicación.
Aunque sigue habiendo escepticismo, los verdaderos creyentes
esperan con impaciencia los nuevos proyectos de telescopios y estudios del
cielo que podrían llevar finalmente a estas bestias cautivadoras de la esfera
de la especulación al reino de la realidad.
Varias galaxias chocan entre sí en el famoso Cúmulo de la
Bala, dejando cúmulos de gas caliente (mostrados en rosa) y una cantidad aún
mayor de materia oscura (mostrada en azul). Algunos físicos creen que los
agujeros negros primordiales podrían constituir una fracción significativa de
la materia oscura del universo.
CRÉDITO: NASA HST / CXC / MAGELLAN
De MACHOs y WIMPs
Los agujeros negros ordinarios surgen de la muerte. Cuando
una gran estrella llega al final de su vida, explota en una espectacular
supernova. El pesado núcleo de la estrella, que puede pesar al menos varias
veces la masa del Sol, se colapsa hasta formar un objeto compacto tan denso que
ni siquiera la luz puede escapar a su atracción gravitatoria. Ha nacido un
agujero negro.
En los años setenta, el brillante físico Stephen Hawking y
su estudiante de doctorado Bernard Carr propusieron
otra posible vía de creación para los agujeros negros. Se sabía que,
poco después del big bang, el universo estaba lleno de una espesa
sopa de radiación y partículas fundamentales como los quarks y los gluones, los
componentes básicos de los protones y los neutrones. Las variaciones naturales
de densidad en la sopa habrían dejado algunas regiones con más material y otras
con menos. Las ecuaciones de Hawking y Carr demostraron que las zonas con
suficiente radiación y partículas empaquetadas en ellas podrían haber colapsado
sobre sí mismas y formado agujeros negros con una amplia gama de tamaños posibles.
Esta idea se archivó, pero se desempolvó en los años
noventa, cuando el debate sobre lo que podría constituir la materia oscura
empezó a calentarse. La enigmática sustancia se ha visto tirando
gravitatoriamente de las estrellas y galaxias y haciéndolas girar mucho más
rápido de lo esperado. Las observaciones sugieren que esta materia oscura
invisible es tan omnipresente que supera en más de cinco a uno a la materia que
podemos ver en el cosmos.
Un bando se inclinó por la explicación de que la materia
oscura estaba formada por objetos compactos, incluidos los agujeros negros —con
una gran cantidad de agujeros negros primordiales desde el principio de los
tiempos para ayudar a explicar la extensa cantidad de materia oscura— a los que
se les dio el acrónimo de Objetos Compactos de Halo Astrofísico Masivo (MACHO,
por sus siglas en inglés). Los científicos rivales preferían la perspectiva
conocida como Partículas Masivas Débilmente Interactivas (WIMP, por sus siglas
en inglés), partículas subatómicas hasta ahora no detectadas que podrían
ejercer una atracción gravitatoria permaneciendo invisibles.
La gravedad de una galaxia roja masiva amplía y distorsiona
la luz de una galaxia lejana y antigua situada detrás de ella, formando un
objeto azul en forma de anillo conocido como la Herradura Cósmica. Estas
alineaciones fortuitas crean un efecto de lente que podría permitir a los
astrónomos detectar pruebas de agujeros negros primordiales a la deriva en el
espacio.
CRÉDITO: ESA / HUBBLE Y NASA
Según las leyes de la física, los MACHOs deformarían el
espacio-tiempo a su alrededor, formando regiones parecidas a lentes que
crearían distorsiones observables. Cuando la luz de las estrellas lejanas
atraviesa estos lentes, los telescopios terrestres deberían ver cómo las
estrellas se iluminan brevemente. Sin embargo, cuando los astrónomos buscaron
esos destellos, encontraron pocos casos que pudieran atribuirse a los MACHOs,
lo que llevó a la mayoría de los físicos a centrarse en la idea de que la materia
oscura está formada por las WIMPs.
Pero algunos investigadores nunca perdieron del todo la
esperanza de que los agujeros negros tuvieran algún papel en la materia oscura.
Entre ellos se encuentra Carr, ahora en la Universidad Queen Mary de Londres,
en el Reino Unido, coautor de un reciente artículo sobre los agujeros negros
primordiales en la revista Annual
Review of Nuclear and Particle Science. “Los agujeros negros
primordiales son los candidatos ideales”, afirma. “Sí sabemos que los agujeros
negros existen. No estamos invocando alguna partícula de la que actualmente no
tenemos pruebas”.
Ruidos misteriosos en la noche
Durante las décadas transcurridas, la búsqueda de las WIMPs
hasta ahora no ha dado resultados, aunque no por falta de intentos. Enormes
detectores dedicados a descubrir su existencia no han visto nada. Y el potente
acelerador de partículas Gran Colisionador de Hadrones, cerca de Ginebra, no ha
encontrado ningún indicio de nuevas entidades subatómicas inesperadas. En
consecuencia, algunos investigadores ya se habían alejado de la idea de las
WIMPs cuando se detectaron las nuevas señales de LIGO, lo que desató los
rumores y volvió a centrar la atención en los agujeros negros MACHOs.
Se confirmó que las señales detectadas por LIGO en 2015 eran
chirridos procedentes de una enorme colisión entre dos agujeros negros, cada
uno de los cuales pesaba unas 30 masas solares. Los objetos eran extrañamente
voluminosos —tan grandes que si se hubieran creado por el colapso de estrellas,
estas habrían tenido masas de hasta 100 veces la de nuestro Sol—. Estas bestias
deberían ser bastante raras en el universo, dice Kovetz, por lo que, o
bien LIGO tuvo suerte con su primera detección y detectó un evento muy inusual,
o bien hay más agujeros negros gigantes de los que los físicos esperarían si el
colapso de estrellas fuera su único origen. Tras el anuncio del hallazgo al año
siguiente, tres equipos diferentes propusieron que estos objetos no habían nacido
de las estrellas, sino en los albores del tiempo, antes de que estas
existieran.
“Cuando escribí este artículo... esperaba que alguien diera
alguna razón por la que definitivamente no podía ser cierto”, dice Simeon Bird,
cosmólogo de la Universidad de California en Riverside, cuyo artículo, escrito
en coautoría con Kovetz y otros, fue el primero en salir a la luz. En cambio,
LIGO siguió captando señales adicionales de otros agujeros negros en este rango
de masas inmensas, lo que desencadenó una excitante actividad entre los físicos
teóricos que aún no ha disminuido.
Si los agujeros negros primordiales existen, algunos
investigadores piensan que podrían agruparse en conjuntos con unas pocas
entidades pesadas rodeadas de muchas más ligeras, como se ilustra aquí. Los
nuevos telescopios están a la caza de las señales de tales conjuntos de
agujeros negros putativos.
CRÉDITO: INGRID BOURGAULT / WIKIMEDIA COMMONS
Las nuevas señales llegan en un momento en el que nuestra
comprensión de las condiciones abrasadoras inmediatamente después del big
bang —cuando se habrían formado los agujeros negros primordiales— ha
mejorado enormemente gracias a los nuevos modelos teóricos. Un estudio reciente
de Carr y otros sugiere que, aproximadamente una millonésima de segundo después
del big bang, la expansión del espacio-tiempo habría provocado un
descenso de la temperatura y la presión que podría haberse alineado de forma
adecuada para producir agujeros negros relativamente pequeños con masas
similares a la del Sol. Poco después, las condiciones cambiaron para favorecer
la aparición de agujeros negros de gran tamaño, con unas 30 masas
solares.
Los modelos también sugieren que, a lo largo de la historia
cósmica, estos diversos agujeros negros primordiales podrían haberse encontrado
entre sí. Atraídos por la gravedad, los agujeros negros podrían haber formado
cúmulos, con múltiples objetos más pequeños girando alrededor de un agujero
negro gigante central, de forma parecida a como los electrones suelen orbitar
alrededor de un núcleo atómico.
Esto podría explicar por qué los cazadores de MACHOs de los
años noventa nunca vieron suficientes objetos para dar cuenta de la materia
oscura: solo buscaban lentes gravitacionales creados por los tipos de agujeros
negros más pequeños. Los lentes de los objetos más pequeños serían más
compactos y, al flotar por la galaxia, tardarían menos de un año en pasar por
delante de las estrellas, lo que haría que su luz se iluminara y luego se
atenuara con relativa rapidez. Si los agujeros negros se encontraran en cúmulos,
la deformación gravitatoria del espacio-tiempo, mucho mayor, tardaría más
tiempo en pasar por delante de una estrella lejana —varios años o incluso
décadas —.
Búsqueda de galaxias
Alrededor de 15 segundos después del big bang,
podría haber surgido otro tipo de agujero negro. Según los cálculos actuales,
estos agujeros negros pesarían un millón de veces la masa del Sol, lo
suficientemente grandes como para explicar potencialmente el origen
de las galaxias.
Los telescopios han detectado galaxias
bastante desarrolladas a grandes distancias, lo que significa que se
formaron bastante pronto en la historia cósmica. Resulta desconcertante, ya que
las galaxias son estructuras enormes y, al menos en las simulaciones
computacionales, tardan mucho tiempo en formarse a partir de los lentos y
pesados remolinos de gas y polvo que se encuentran en todo el cosmos. Pero esta
es la mejor explicación de su formación que los astrónomos han encontrado hasta
ahora.
Los agujeros negros primordiales pueden proporcionar una
ruta más fácil. Dado que casi todas las galaxias contienen un enorme agujero
negro en el centro, parece posible que estos goliats gravitacionales
actuaran como puntos de partida, ayudando a atraer material hacia las primeras
protogalaxias en una etapa bastante temprana de la historia cósmica. A medida
que el universo avanzaba, estas pequeñas galaxias se habrían atraído
gravitatoriamente unas a otras, para luego chocar y fusionarse en las galaxias
mucho más grandes que se ven hoy en día.
Carr y sus colegas han empezado a considerar la posibilidad
de que los agujeros negros primordiales estén mucho más extendidos de lo que se
sospecha. En teoría, las condiciones que se dieron poco después del big
bang podrían haber producido agujeros negros aún más pequeños, a
escala planetaria, con masas aproximadamente 10 veces superiores a la de la
Tierra. De hecho, los estudios han detectado diminutos lentes gravitacionales
flotando por toda la galaxia, que pasan por delante de las estrellas y hacen
que su luz parpadee rápidamente. La mayoría de los astrofísicos han atribuido
estos lentes a grandes planetas errantes que fueron expulsados de sus sistemas
estelares. Pero no todos están de acuerdo.
Entre ellos se encuentra el físico teórico Juan
García-Bellido, de la Universidad Autónoma de Madrid, que afirma que los lentes
están causados por agujeros negros primordiales. García-Bellido, coautor del
reciente artículo de Carr, sigue entusiasmado con la idea de los agujeros
negros primordiales.
El nuevo observatorio Vera C. Rubin, que se ve en
construcción en Chile y que comenzará a funcionar a finales de 2023, se
utilizará para escanear el cielo nocturno en busca de pruebas de agujeros
negros primordiales.
CRÉDITO: RUBIN OBS / NSF /AURA
Pero otros no están seguros de que los agujeros negros sean
tan frecuentes como deberían serlo para explicar la materia oscura. “Creo que
es poco probable”, afirma la cosmóloga Anne Green, de la Universidad de
Nottingham, en el Reino Unido. Uno de los problemas de la teoría es que la
existencia de un gran número de agujeros negros de masa multisolar en todo el
cosmos tendría todo tipo de efectos visibles que nunca se han visto. Como estos
objetos consumen gas y polvo, deberían emitir grandes cantidades de ondas de
radio y rayos X que podrían delatar su presencia, añade.
En cuanto a la materia oscura, los modelos teóricos del
universo primitivo también requieren muchos ajustes para que arrojen el número
correcto de agujeros negros que coincidan con la cantidad de materia oscura que
sabemos que existe. “Resulta bastante difícil elaborar modelos que produzcan la
cantidad correcta de agujeros negros”, afirma Green.
Incluso algunos de los mayores fanáticos de los agujeros
negros primordiales ya no son tan optimistas sobre la posibilidad de que los
tipos de agujeros negros detectados por LIGO puedan dar cuenta de toda la
materia oscura del universo. Si muchos de esos agujeros negros estuvieran al
acecho en el espacio, los astrónomos ya habrían visto más de sus efectos, dice
Kovetz. Él sigue pensando que pueden contribuir algo y, en general, que incluir
más tamaños de agujeros negros primordiales más allá de lo que LIGO ha
detectado podría sumar lo suficiente para explicar la materia oscura. Y, sin
embargo, “personalmente, he perdido parte de mi motivación”.
La buena noticia es que los nuevos instrumentos podrían
ayudar a los físicos a llegar al fondo de la cuestión muy pronto. LIGO y Virgo
están siendo actualizados y ahora se les ha unido un detector de ondas
gravitacionales japonés llamado KAGRA. En los próximos años también se pondrá
en marcha un instrumento indio.
Las observaciones de estas instalaciones podrían finalmente
inclinar la balanza hacia un lado u otro. Si los observatorios detectan un
pequeño agujero negro de una masa solar o menos —algo imposible de crear a
partir de la evolución estelar—, proporcionaría una prueba emocionante y
definitiva de al menos un tipo de agujero negro primordial, lo que los
convertiría en una explicación mucho más atractiva para la materia oscura y la
formación de galaxias.
Además de buscar agujeros negros muy pequeños, los
científicos también podrían sellar el acuerdo encontrando agujeros negros que
se formaron incluso antes de que existieran las estrellas. Esto puede estar más
allá de la capacidad de los observatorios existentes, pero la Agencia Espacial
Europea está planeando lanzar en la próxima década una nueva sonda espacial
altamente sensible llamada Antena Espacial de Interferometría Láser (LISA, por
sus siglas en inglés), que podría estar a la altura.
García-Bellido y otros están planeando utilizar otro nuevo
instrumento que está previsto que comience a funcionar en 2023, el Observatorio
Vera C. Rubin de Chile, para buscar estrellas que brillen en escalas de tiempo
de varios años, lo que podría ser una prueba de la existencia de cúmulos de
agujeros negros a la deriva en los cielos. Al menos unos pocos investigadores
esperan que, dentro de tres o cuatro años, puedan tener por fin una respuesta
real y definitiva sobre si los agujeros negros primordiales existen o no.
Hasta entonces, los científicos estarán al borde de sus
asientos, tratando de mantener la mente abierta sobre la materia oscura. Quizás
la misteriosa sustancia resulte estar hecha de muchas cosas, incluyendo tanto
partículas exóticas como agujeros negros. “El universo es desordenado y tiene
un montón de cosas”, dice Bird. “Creo que al universo le gusta ponerle las
cosas difíciles a los físicos”.
El tiempo corre en dos
sentidos, según Julian Barbour
https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/
Desde que la física cuántica hizo su aparición no ha dejado
de sorprendernos. Julian Barbour es un digno representante de este enfoque y
desde hace varias décadas estudia uno de los conceptos más enigmáticos del
universo: el tiempo. Su teoría es fascinante.
Según Julian Barbour, el tiempo corre en dos sentidos a la vez.
Imaginemos que cada sentido es una flecha cuyo origen es el cero. Mientras la
flecha de la derecha aumenta paulatinamente hasta el infinito, la de la
izquierda apuntaría hacia un infinito negativo.
Dicho de una forma más simple, lo que Julian Barbour propone
es que hay un universo en el que el tiempo corre desde lo que llamamos el
pasado hacia lo que llamamos el futuro. Mientras tanto, en otro
universo ocurre lo contrario: el tiempo avanza desde el futuro hacia el pasado. ¿Ciencia ficción? No, es
una teoría científica seria.
El universo y la gran explosión
La teoría más aceptada sobre el comienzo del universo
postula que se originó hace poco menos de 14 mil millones de años a partir de
un elemento más minúsculo que un átomo. Así se formaría toda la materia que
compone el universo.
Esa materia comenzó a expandirse, una tendencia que hoy se
mantiene. La explosión también habría dado origen al tiempo, que desde
entonces habría comenzado a contar. Las partículas de materia, disparadas
en múltiples direcciones, fueron agrupándose y formaron las estrellas, los
planetas y las galaxias.
Según esta teoría, el tiempo se mueve en una sola dirección:
hacia adelante. Al respecto, Julian Barbour y otros físicos se han
preguntado: ¿por qué si el universo se expande hacia todas partes,
el tiempo solo avanza en una dirección? Las posibles respuestas a esta
pregunta dieron origen a la tesis de que el tiempo corre en dos sentidos.
Julian Barbour y el tiempo
Julian Barbour es un físico veterano, profesor de la
Universidad de Oxford y autor de varios libros de divulgación. Su prestigio es
incuestionable. Ha estudiado a fondo el tema del tiempo y a partir de esto ha
planteado su interesante teoría. El postulado básico que propone dice
que el tiempo corre en dos direcciones a la vez.
Barbour dice que la gran explosión original hizo que
comenzara a avanzar en sentidos opuestos, ya que eso es lo propio de una
explosión semejante. Su idea se basa en dos principios de la física: la
entropía y la segunda ley de la termodinámica.
La entropía es un concepto equivalente al caos. La física
señala que la realidad, o más bien los sistemas que la componen, avanzan hacia
el caos. A su vez, el caos es irreversible. Un ejemplo de esto sería una casa
que es abandonada y se cae. El proceso va hasta que se derrumba y es imposible
volver atrás. El derrumbe es el estado más caótico posible.
Ahora bien, la segunda ley de la termodinámica dice
que la entropía solo puede aumentar, pero nunca disminuir. A
su vez, el tiempo avanza en el mismo sentido en el que aumenta la entropía.
Así, en el ejemplo anterior, una vez la casa es abandonada y comienza a
deteriorarse, cada vez es más probable que se derrumbe.
El incremento de la complejidad
Julian Barbour dice que todo lo anterior se ha establecido
así porque se ha observado en un contexto, podríamos decir, “normal”. El de
nuestro planeta, nuestra materia, nuestras dimensiones, etc. Si se mira
en términos del universo como un todo, aparece un nuevo enfoque.
Supongamos que la casa derruida de la que hablamos está en
el marco de un espacio infinito. Al derrumbarse, las partículas que la componen
viajarían en diferentes direcciones, se juntarían con otras partículas y
formarían nuevas estructuras. Estas serían más complejas.
Barbour trabaja con dos ideas básicas. El Big-Bang produjo
que la materia y el tiempo se desplazaran en dos direcciones opuestas. Por lo
tanto, existiría una especie de “universo espejo”. Lo que se espera en ese
universo es el pasado, porque todo ocurre al revés de nuestro universo. De
una forma simple, lo que hay en ese horizonte es un avance hacia el año cero.
Integral de caminos de
Feynman
Cómo nuestra realidad puede ser la suma de todas las
realidades posibles:
https://culturacientifica.com/2023/04/04/integral-de-caminos/
La ecuación, aunque adorna las páginas de miles de
publicaciones de física, es más una filosofía que una receta rigurosa. Sugiere
que nuestra realidad es una especie de mezcla, una suma, de todas las
posibilidades imaginables. Pero no les dice a los investigadores exactamente
cómo llevar a cabo la suma. Así que la comunidad científica ha pasado décadas
desarrollando un arsenal de estrategias de aproximación para construir y
calcular la integral para diferentes sistemas cuánticos.
Las aproximaciones funcionan lo suficientemente bien como
para que físicas intrépidas como Loll busquen ahora la integral de caminos
definitiva: una que combina todas las formas concebibles de espacio y tiempo y
produce un universo con la forma del nuestro como resultado neto. Pero en esta
búsqueda por demostrar que la realidad es de hecho la suma de todas las
realidades posibles, se enfrentan a una profunda confusión sobre qué
posibilidades deberían entrar en la suma.
Gravedad cuántica de bucles
¿Qué es la Gravedad Cuántica de Bucles?:
https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles
Para la Teoría Cuántica de bucles, formulada por científicos
como John Baez, Carlo Rovelli y Lee Smolin, el espacio no es continuo, es
decir, no se puede dividir infinitamente: hay una unidad mínima de distancia.
El espacio-tiempo está “granulado”. Piensa en la pantalla de tu televisión o tu
teléfono móvil. Puedes ver cómo un punto de luz se mueve de un lado a otro de
manera aparentemente continua. Si te acercas lo suficiente puedes notar que la
pantalla está dividida en decenas de miles de cuadritos que forman la imagen.
Estos cuadritos se llaman “pixeles”: son la unidad mínima de la imagen: no se
pueden subdividir más. Y un punto de luz que se mueve puede estar en este
pixel, o en el pixel contiguo, pero no se puede mover “medio pixel”.
La propuesta de la Gravedad Cuántica de bucles es que el
espacio también está así: pixelizado. O más propiamente “cuantizado”, de la
misma manera que la energía sólo se puede transferir en paquetes llamados
“cuantos”. No sólo la materia y la energía, sino el espacio mismo tiene una
estructura atómica. La distancia mínima se llama “distancia de plank”, es
millones de veces más pequeña que un electrón, y nada se puede
mover en distancias menores.
¿Cómo se estructura?
La idea es que el espacio-tiempo está estructurado en redes
de pequeñísimos rizos o bucles conectados entre sí. Estas redes se llaman
“redes de spin”, y son estudiadas mediante una rama de las matemáticas llamada
“teoría de grafos”, que se ocupa de calcular los modos posibles en los que se
relacionan los vértices y las aristas de la red. Una red de spin representa el
estado cuántico de un campo gravitacional. Y no es fijo: está en constante
flujo.
Una hipótesis meramente especulativa dice que las partículas
subatómicas podrían ser “nudos” o “trenzas” dentro de la red de spin. Esta por
ejemplo podría ser un electrón, mientras que ésta podría ser un positrón. Acá
tenemos un electrón neutrino y éste, un anti-neutrino. Y la deformación del
espacio-tiempo que se manifiesta como gravedad a escalas planetarias o
galácticas, empieza aquí, en la escala más pequeña posible. El universo sería
una impresionantemente complicada red de spin.
La antigua idea del espacio y el tiempo como un escenario
donde ocurren las cosas ya no aplica. Una red de spin no está en el tiempo y el
espacio: sino que es el espacio-tiempo mismo.
Energía del vacío. La mayor
discordancia de la historia de la ciencia
¿Crear el vacío?:
http://www.javierdelucas.es/vaciomedir.htm
Las medidas astronómicas basadas en el movimiento del
sistema solar y sobre todo de galaxias lejanas se han traducido en un valor
máximo para la constante cosmológica:
|V|<10-56 cm-2
Este valor máximo implica que la densidad de energía
del vacío tiene que ser menor que 10-9 erg/cm3. A
continuación veamos qué nos dicen las estimaciones teóricas. Si intentamos
expresar la energía del vacío en unidades de Planck que constituyen el sistema
de unidades fundamental en mecánica cuántica obtenemos:
Eplanck=(hc5/G)1/2=1019 GeV
Entonces tenemos que la densidad de energía del vacío
sería:
Pvac=(1019GeV)4=1076 GeV=10114 erg/cm3
¡Esto es una cantidad inmensa de energía! La
discrepancia es por tanto de 123 órdenes de magnitud. Este
valor es de una magnitud inconcebible para el cerebro humano. Por eso se dice
que esta estimación teórica constituye la discordancia entre teoría y
experimento más grande de la historia de la ciencia.
El cálculo de la energía del vacío de la QED
La QED (Quantum Electrodinamics) constituye la más
simple pero a la vez más exitosa teoría que nos permite aplicar los principios
de la mecánica cuántica y la relatividad especial al electromagnetismo. Para
calcular la energía del vacío en QED debemos cuantizar el campo
electromagnético. Al cuantizar obtenemos la expresión:
Pvac=E/V=1/VSum(1/2hWk)=h/(2pi2c3)§0Wmax(w3)
dW=h/(8pi2c3)w4max
Esta expresión nos conduce a la famosa analogía entre el
campo electromagnético y un oscilador armónico cuántico. De esta forma la
energía del punto cero será la suma de la energía del punto cero de cada
oscilador armónico.
Wmax es un parámetro denominado frecuencia de corte que
hablando “a grosso modo” es el valor a partir del cual la contribución de los
armónicos de alta frecuencia se considera despreciable. El valor a introducir
en Wmax es objeto de discusión y la estimación de Pvac depende del valor
elegido. Un valor razonable para Wmax sería aquel en el que el
electromagnetismo deja de existir como tal y se unifica con la fuerza débil, es
decir, la energía a la que se restablece la simetría electrodébil que es del
orden de 100GeV. Con este valor obtenemos:
Pvac=(100GeV)4=1046 erg/cm3 (55
órdenes mayor que el valor experimental).
El cálculo de la energía del vacío electrodébil
En la teoría electrodébil, la energía que adquieren
las partículas y los campos cuánticos al romperse la simetría es proporcional
al vacío del campo de Higgs. El potencial del Higgs es:
V(Ø)=Vo-µ2Ø2+gØ4.
Donde g es la constante de autoacoplamiento del Higgs.
Este potencial es mínimo para
Ø2= µ2/2g por tanto V(Ø)=Vo-µ4/4g
Considerando que V(Ø) se anula para Ø=0 tenemos:
Pvac=-µ4/4g=-gv4=-(105GeV)4= -1043 erg/cm3 (52
órdenes de mayor que el valor experimental)
El cálculo de la energía del vacío de la QCD
La QCD (Quantum Chromodynamics) es la teoría cuántica
que se utiliza cuando tenemos en cuenta la fuerza nuclear fuerte, es decir,
cuando estudiamos el interior del núcleo atómico. En QCD existe una escala de
energía característica denominada Lqcd que es la escala a la cual se restablece
la simetría quiral y desaparece el condensado quark-gluon del vacío cuántico;
por esto la energía del vacío en QCD se suele considerar un prefactor de Lqcd.
El cálculo estimativo nos dice entonces que
Pvac=(10-3 o 10-2)4= 1035 o
1036 erg/cm3 (44 o 45 órdenes mayor que el
valor experimental)
El cálculo de la constante cosmológica según la
Relatividad General
Si consideramos la gravedad el problema se vuelve aún
más difícil, algunos dirían que casi imposible de resolver. El campo
gravitatorio "crea" partículas de forma equivalente a un marco de
referencia acelerado. El efecto Unruh se basa en este fenómeno, de forma que un
detector acelerando en un espacio vacío detectará partículas continuamente. Sin
embargo, existe una buena noticia: los experimentos nos indican que cuando la
gravedad es débil, por ejemplo en la Tierra, los cálculos de nuestras teorías
cuánticas son correctos y por lo tanto podemos despreciar las contribuciones de
la gravedad a la energía del vacío.
Posibles soluciones al problema
Como hemos visto, las contribuciones de los campos
conocidos a la energía del vacío son enormes, muchos órdenes de magnitud por
encima del valor observado experimentalmente. A continuación se enumeran 4
posibles soluciones al que es considerado por muchos como el mayor problema de
la Física:
1º) La existencia de nuevos campos y
partículas que cancelen el enorme exceso de energía estimado
Muchos físicos piensan que tienen que existir nuevas
partículas y nuevos campos cuánticos por encima del rango de energías explorado
que contribuirían a la energía del vacío con signo contrario y que podrían
cancelar la inmensa densidad de energía que predicen nuestras teorías. La
supersimetría es uno de los candidatos favoritos, sin embargo, debido a que la
supersimetría está rota a bajas energías esta cancelación no sería ni mucho
menos exacta, por lo que el problema persiste. El problema es que es muy difícil
que un modelo teórico pueda producir un ajuste tan inmensamente preciso como el
requerido. ¡El ajuste tendría que cancelar el exceso con una exactitud de al
menos 56 cifras decimales!
2º) Realizar una modificación de nuestras
teorías cuánticas
Nadie sabe cómo realizar esto, además éstas han tenido
un éxito experimental sin precedentes.
3º) Realizar una modificación de la relatividad
general
Esto tiene el mismo inconveniente que la anterior.
4º) Considerar que el vacío no posee ninguna
densidad de energía
Esta solución parece imposible, sin embargo, merece tenerse
en consideración: no existe ningún experimento cuántico que pueda medir esta
energía puesto que siempre medimos diferencias de energía.
Además todos los experimentos considerados como debidos a la energía del vacío
(efecto Cassimir, desplazamiento Lamb del átomo de hidrógeno, etc) pueden
explicarse como fluctuaciones de los objetos materiales del experimento (ver
por ejemplo Schwinger Source Theory). Considerar que el vacío
es el estado con 0 energía y 0 momento resolvería de un plumazo el problema de
la constante cosmológica cuyo valor es casi nulo. Por supuesto habría que
estudiar las posibles implicaciones de imponer tal condición en las teorías
actuales.
Si esto resultara correcto el vacío sería la primera
entidad física conocida que no posee energía ni momento y por tanto se podría
"crear" en infinita cantidad sin un aporte neto de energía ¿Como
sucedió en la inflación cósmica?
Ecuación de la Relatividad
General de Einstein
En términos técnicos, las ecuaciones de campo de Einstein
son un conjunto de ecuaciones (concretamente, ecuaciones diferenciales
parciales no lineales) que pueden expresarse de forma sintetizada como una
única ecuación:
donde el primer subíndice μ (mu en griego) representa las coordenadas del
espaciotiempo y el segundo subíndice ν (nu en griego) representa las
coordenadas del momento (es decir, el cambio de las coordenadas del
espacio-tiempo -en términos simples, la posición- con respecto al
tiempo). G es la constante gravitacional, c es
la velocidad de la luz, Rμν se llama tensor de
curvatura de Ricci, gμν se llama tensor métrico, es
la curvatura escalar y Tμν se llama tensor de
tensión-energía. Esta ecuación incluye la constante Λ, conocida como la
constante cosmológica, para dar cuenta de una fuente adicional de energía. Λ
representa una fuerza adicional de expansión (energía oscura). La figura
un poco más abajo muestra los términos de la ecuación anterior y su
significado.
La existencia de la energía y la materia oscuras se
dedujeron para que las ecuaciones de campo de Einstein pudieran predecir
correctamente la expansión del universo y la velocidad de rotación de las
galaxias. Según este punto de vista, la energía oscura es la fuente de una
fuerza de expansión en el universo (es lo que explica la constante de Hubble en
las principales teorías), mientras que la materia oscura proporciona una fuente
de gravedad adicional necesaria para estabilizar las galaxias y los cúmulos de
galaxias, ya que no hay suficiente masa ordinaria para mantenerlos unidos dada
la expansión acelerada del Universo. Esta gravedad adicional también explicaría
la velocidad rotacional
de las galaxias.
A grandes rasgos, el lado izquierdo de la ecuación de la figura anterior
expresa la deformación geométrica del espacio-tiempo producida por la
contribución de energía-masa en el lado derecho de la misma ecuación. Esta
deformación del espacio también explica las ondas gravitacionales detectadas
recientemente por LIGO en 2015 y que emanan de la fusión de dos agujeros
negros.
Como afirma el físico John Wheeler, "el espacio-tiempo
le dice a la materia cómo moverse; la materia le dice al espacio-tiempo cómo
curvarse".
Ecuación de Dirac
https://significado.com/ecuacion-de-dirac/
Aplicar reglas de cuantización sobre una función
vectorial de cuatro dimensiones
Las reglas de cuantización conducen a operaciones con
derivadas que normalmente actúan sobre una función de onda escalar, pero como
las constantes α y β son matrices de 4X4, los operadores diferenciales actuarán
sobre un vector de cuatro dimensiones Ψ, al que luego se le llamó el espinor.
Si se elige un sistema de medida en el que la velocidad de
la luz sea 1, la ecuación de Dirac se escribe así:
En la ecuación anterior se expresa una sumatoria sobre los índices μ,
comenzando desde 0 hasta 3, y por supuesto, “i” es la unidad imaginaria, ya que
se trata de una ecuación en variable compleja.
Esta ecuación se suele compactar más mediante el uso del
símbolo ∂ atravesado por una barra inclinada / para simbolizar la sumatoria de
derivadas, así queda:
Esa expresión es la que ha quedado como “ecuación del amor”.
Las soluciones de la ecuación de Dirac y el espín del
electrón
La ecuación de Dirac es una ecuación de autovalores que
corresponden a las energías posibles. Hay dos soluciones con energía positiva,
una para cada estado de espín, y dos soluciones con energía negativa, también
para cada uno de los dos estados posibles de espín.
Es de resaltar que el espín, en la ecuación de Dirac,
aparece naturalmente, como un resultado de sus posibles soluciones y a
consecuencia directa de tomar en cuenta la energía relativista.
Es así que, por primera vez en la Física, se cae en cuenta
que el espín, una propiedad intrínseca del electrón y de otras partículas
elementales, es una consecuencia de la relatividad. Por cierto, esta propiedad
del electrón había sido comprobada antes que Dirac formulara su ecuación,
gracias al famoso experimento de Stern y Gerlach en 1922.
La ecuación de Dirac predice la existencia de la
antimateria
Dirac fue increíblemente brillante al haber obtenido su
ecuación, aplicando ingeniosamente las matemáticas, y también es notable la
forma en que interpretó sus soluciones.
Al principio, a Dirac no le quedaba claro si había
electrones con energía cinética negativa. Entonces teorizó lo siguiente:
El vacío (la ausencia de electrones) no es tal, sino que
está lleno de electrones con energía negativa en sus dos estados de espín.
Lo que sucede es que los científicos no tienen la
posibilidad de ver esos electrones, de la misma forma que normalmente no se ven
los peces del mar, de allí sale la denominación mar de Dirac.
Ahora bien, si un fotón es capaz de entregar energía
suficiente a uno de los electrones de ese mar, entonces sí será visible,
apareciendo de la nada.
Pero el espacio vacante en el mar de Dirac es un hueco de
carga positiva, es decir una partícula de la misma masa y carga que el
electrón, pero positiva, llamada positrón.
Poco tiempo después de la interpretación de Dirac, en 1932,
Carl D. Anderson detectó experimentalmente el positrón.
Métrica de Alcubierre
Métrica de Alcubierre:
https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre
Gráfico de la impulsión de Alcubierre, mostrando las regiones opuestas,
contraída y extendida, del espacio-tiempo respecto al sector central en el cual
se ubica la burbuja plana de deformación.
La Métrica de Alcubierre es una idea
especulativa basada en un modelo matemático que supondría posibles los
viajes a velocidades mayores que c (velocidad de la luz), es decir, superlumínicos.
Con base en algunas de las instancias teóricas pero probables estudiadas
del espacio-tiempo, Alcubierre plantea la métrica que
lleva su nombre como una solución a las ecuaciones de Einstein en el marco de
la Teoría General de la Relatividad.
Fue publicada en la
revista científica Classical and
Quantum Gravity1en 1994 por el físico mexicano Miguel
Alcubierre.
Idea general (el
Impulso por deformación)
La métrica de Alcubierre tiene, como una de sus conclusiones
más llamativas, la posibilidad de un viaje a mayor velocidad que la luz al
crearse una burbuja de deformación plana dentro de la cual se
situaría estacionariamente la cosmonave; detrás de la cosmonave el espacio-tiempo sería
deformado extendiéndolo mientras que por contraparte delante de la cosmonave el
espacio-tiempo sería contraído o contractado poniendo así el punto de destino
mucho más cerca, mientras que "detrás" de la nave el espacio-tiempo
quedaría expandido "empujado" hacia atrás gran cantidad de años luz,
todo esto sin que el espacio y el tiempo dentro de la burbuja de deformación
plana en que se hallaría la cosmonave se modificara notoriamente.
En tal caso la nave (para hacer una analogía)
"surfearía" sobre una especie de ola espaciotemporal dentro de la
"burbuja de deformación plana" que es plana por permanecer estable
entre las dos distorsiones (la anterior y la posterior) provocadas en el
espacio-tiempo (se crearía una distorsión local del espacio-tiempo).
Existirían enormes fuerzas
de marea en la región periférica de la supuesta burbuja debidas a las
curvaturas provocadas en el espacio-tiempo; sin embargo, tales fuerzas serían
despreciables en el interior de la burbuja dado el carácter plano que allí
tendría el espacio-tiempo (véase gráfico).
No se violaría ninguna ley física de las previstas por la
teoría de la relatividad ya que dentro de la "burbuja de deformación"
nada superaría la velocidad de la luz; la nave no se desplazaría dentro de tal
burbuja sino que sería llevada por la misma, la nave dentro de la burbuja nunca
viajaría más rápido que un haz de luz.
La nave y sus presuntos tripulantes estarían exentos de
sufrir los efectos devastadores provocados por las aceleraciones con
sus correspondientes enormes fuerzas g, desaceleraciones o los
efectos relativistas como la contracción de Lorentz y la dilatación del tiempo a altas
velocidades. Alcubierre ha podido demostrar que incluso cuando la nave está
acelerando viaja en una caída
libre geodésica.
Sin embargo, el que la burbuja de deformación permita
viajes superlumínicos se debe a la posibilidad de que el
propio espacio-tiempo en el cual viaja la luz tenga la capacidad de superar la
velocidad de la luz.
La Teoría de la Relatividad considera imposible que los objetos viajen a una
velocidad mayor que la de la luz en el espacio-tiempo, pero se
desconoce a qué velocidad máxima puede moverse el espacio-tiempo; se
hipotetiza que en casi en el instante inicial del Big Bang nuestro
universo poseía velocidades exponenciales superlumínicas (véase Universo inflacionario), se supone asimismo
que algunos quásares muy lejanos pueden alcanzar velocidades de
recesión translumínicas.
Aquí se introduce otra analogía: existe una velocidad máxima
a la cual un objeto puede marchar sobre el suelo ¿pero qué ocurriría si es un
suelo móvil —como puede ser una cinta trasportadora— que supera la velocidad de
la marcha? Esto supone un cambio en el sistema de coordenadas utilizado como
referencia para medir la velocidad. Si el sistema de coordenadas se mueve en la
misma dirección del desplazamiento respecto a un segundo sistema de referencia
(que debería ser externo al propio espacio-tiempo), el objeto debiera poder
incrementar su velocidad indefinidamente respecto del segundo sistema de
referencia. Lo que esta analogía plantea es si ¿sería posible "cabalgar
sobre un rayo de luz"?
Para crear un dispositivo como la burbuja de
deformación que permita el impulso de deformación —
explica Alcubierre— se requeriría operar con materia de densidad negativa
o materia exótica,
creando así con tal materia una burbuja de energía negativa que englobaría a la nave
(véase Dirac, Energía negativa). Según Alcubierre, la
cantidad de energía negativa sería proporcional a la velocidad de propagación
de la burbuja de deformación, verificándose que la distribución de la energía
negativa estaría concentrada en una región toroidal perpendicular a la dirección en que
se movería la burbuja plana (véase ilustración).
De este modo, dado que la densidad de energía sería
negativa se podría viajar a una velocidad mayor que la de la luz merced al
efecto suscitado por la materia exótica. La existencia de la materia exótica no
está descartada, antes bien el efecto
Casimir parece confirmar la existencia de tal materia; sin embargo
producir bastante materia exótica y conservarla para realizar una proeza como
el viaje superlumínico plantea los mismos actualmente
irresolubles problemas que para mantener estable a un agujero
de gusano.
Por otra parte en la Relatividad General primero se específica una distribución
factible de la materia y de la energía para luego encontrar una geometría del
espacio-tiempo asociada; si bien es posible operar con las ecuaciones de
Einstein primero especificando una métrica y luego encontrando el tensor de
energía e impulso asociado a tal métrica (que es lo realizado por Alcubierre),
esta práctica significa que la solución podría violar varias condiciones de energía y requerir la
materia exótica.
Robert J. Low, en 19992ha probado que dentro del
contexto de la relatividad general y aún en ausencia de la materia exótica es
posible construir una burbuja de deformación (los textos en francés utilizan
como equivalente de burbuja de deformación las palabras «commande de chaîne»/
pedido de cadena). Una teoría coherente de la gravedad cuántica quizás sirva para resolver
estas cuestiones.
Además, Alexey Bobrick y Gianni Martire afirman que, en
principio, se puede construir una clase de espaciotiempos sublumínicos y
esféricamente simétricos de impulso factorial basados en principios físicos
actualmente conocidos por la humanidad, como la energía positiva.3
La métrica de Alcubierre puede ser escrita:
La densidad de energía necesaria para causar ese tensor métrico es:
Así la densidad de energía es negativa y se
requiere por esto de la materia exótica para provocar las
deformaciones del espacio-tiempo.4
Otras denominaciones
El sistema supuesto por
Alcubierre para los viajes cósmicos es denominado en inglés "Warp
Drive" (el mismo nombre dado en la serie Star Trek —
o "Viaje a las estrellas"—), la traducción es: Impulso por
deformación o Impulso de Deformación o Distorsión Impulsada, también se
encuentran las siguientes traducciones: Impulso de torsión, Impulso Warp,
Impulso curvado, Impulso deformativo, Viaje curvado, Viaje combado, Motor de
curvatura e incluso Motor de Impulso Factorial. Todas estas denominaciones dan
la noción del principio básico de este hipotético método de viaje "superluminal":
en lugar de acelerar un objeto (supongase la cosmonave) a velocidad c o
próxima a c se combaría o curvaría el "tejido" del
espacio-tiempo de modo que los objetos a donde se viaja se acerquen sin un
movimiento de la nave en el sentido usual del término movimiento: más que
moverse la nave -en estas hipótesis-, es movido (curvado) el espaciotiempo.
Pasos
clave de la evolución
Los 10 pasos evolutivos más
relevantes:
https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/
La evolución de las especies a
lo largo de su historia ha permitido la aparición de cualidades impresionantes
a los seres vivos. En este post me gustaría repasar los que creo son los 10
cambios más relevantes que han ocurrido en la historia de la vida en la Tierra
desde que aparecieron los primeros seres vivos. Evidentemente estos pasos
fueron todos muy graduales y es difícil acotarlos en «un paso». La lista está
ordenada por orden cronológico de aparición partiendo de los primeros seres
replicantes cuyas características concretas sólo podemos especular actualmente:
1-La fidelidad en la copia
del DNA
Una bacteria actual
comete un
error en la copia del DNA cada 10E10 generaciones aproximadamente. Este
ratio entre mutaciones y fidelidad permite adaptaciones pero limitando
acumular grandes errores rápidamente que acabarían con la especie. La
principal artífice de esta maravilla evolutiva se llama DNA polimerasa que por
si sola es capaz de copiar fielmente varios miles de bases de DNA antes
de cometer un error. Las versiones más avanzadas y que aparecieron más tarde en
la evolución de los eucariotas tienen además mecanismos de revisión para
minimizar los errores cometidos. Su necesidad para la vida es tal que no
existen seres vivos que carezcan de este mecanismo. Sólo
algunos virus como el HIV que a cambio utilizan la perfecta maquinaria
celular.
2-El flagelo
Flagelo bacteriano
De esperar a que la comida
llegue, a ir a p0r ella. Este uno de los cambios principales cambios que supuso
el flagelo. Aunque anteriormente las bacterias desarrollaron pequeños
filamentos (cilios) que permitían cierto movimiento lo cierto es que estás estaban
totalmente sometidas a las fuerzas que gobiernan el movimiento browniano:
Imaginad que estáis dentro de una piscina llena de canicas que se
propulsan a toda velocidad en todas direcciones. El flagelo suponía además
una mejora en la capacidad de colonizar nuevos y lejanos ambientes o de escapar
de circunstancias adversas. Puedes ver un vídeo sobre la evolución del
flagelo aquí donde se postula su aparición a partir de un organulo
destinado a la sujeción.
2-El fotorreceptor
Y se hizo la luz. La capacidad
de reconocer la luz suponía inicialmente acceso a alimento (la síntesis de
muchos compuestos orgánicos es catalizada por la luz) y una guía para el
movimiento (define arriba y abajo). Sin embargo, este pequeño avance sembraría
la semilla para dos futuros mecanismos de gran relevancia: la fotosíntesis y la
visión. Los fotorreceptores se basan en pigmentos capaces de excitarse con la
luz y de transmitir dicho estado excitado a alguna proteína.
3-La fotosíntesis
¿Quién necesita comida cuando
puedes fabricarla? Este es quizás el salto evolutivo más impresionante: la
capacidad de producir compuestos orgánicos a partir de inorgánicos, mucho más
abundantes. Estas reacciones requieren de gran energía que los seres vivos
obtienen del calor, degradación de otros compuestos orgánicos/ inorgánicos o de
la luz. Podéis leer algo más sobre la fotosíntesis en
este otro post que escribí. La fotosíntesis no podría ser posible sin los
fotoreceptores que además probablemente coevolucionaron con la mejora del
flagelo. Ninguno de estos «castillos de naipes» habria aguantado sin la
fidelidad en la copia del DNA.
4-El ciclo de Krebs y la
respiración oxidativa
La fotosíntesis trajo
consigo una nueva época de problemas u oportunidades según se mire. El
principal deshecho de la fotosíntesis es el oxígeno. Una molécula que ahora nos
parece inocua pero que cuando apareció era como vivir en un mar de arsénico. El
oxígeno tiene la capacidad de oxidar el DNA y las proteínas e interfería en
muchas de las reacciones necesarias para las bacterias de la época. La
aparición del oxígeno atmosférico probablemente fue un proceso rápido que acabo
de un plumazo con la mayoría de las especies. Algunas especies (entre ellas las
productoras de oxígeno) desarrollaron mecanismos para inactivar el oxígeno,
entre estos mecanismos encontramos la utilización de electrones y protones que
reaccionan con el oxígeno produciendo agua. Curiosamente se pueden obtener
electrones como productos de deshecho del metabolismo de compuestos orgánicos.
La sofisticación del metabolismo de los azucares en el denominado ciclo de
Krebs junto a un complejo sistema de transporte de electrones permitió
aprovechar al máximo la energía de los compuestos orgánicos.
5-La célula eucariota
La complejidad de la aparición
de la vida es el único hecho comparable a la aparición de la célula eucariota.
Se ha especulado que los eucariotas
provienen de la simbiosis de varios tipos bacterianos, hipótesis que
cobra fuerza con los análisis genéticos. En cualquier caso la aparición de
células con núcleo definido y orgánulos es una gran caja negra. Uno de los
procesos evolutivos más interesantes que nos quedan por descifrar. El gran
avance de la célula eucariota puede describirse con algo tan simple como la
compartimentalización. Cada cosa en su rincón. Muchas de las
reacciones químicas celulares requieren un ambiente muy específico incompatible
con otras reacciones.
6-La especialización
celular
El hijo favorito. Una célula
se divide en dos pero no deja lo mismo en cada célula hija: una contiene más
deshechos que otra, diferente concentración de proteínas o le falta algún
componente. Estos podrían haber sido los antecedentes de la especialización
celular. Ocurre actualmente en bacterias, levaduras o algunas algas
unicelulares y que en algunos casos viven en colonias, donde
algunos individuos se especializan en ciertas funciones en función de
su localización dentro de la colonia. La especialización supone una mayor
eficiencia. De allí hasta células como las neuronas o los glóbulos blancos
quedaría aun un buen trecho.
7-La reproducción sexual
¡Qué sería de nosotros sin el
sexo! Se ha sugerido que la reproducción sexual permite una rápida adaptación
de las especies al eliminar rápidamente las mutaciones perniciosas y esparcir
las beneficiosas. Su aparición podría estar relacionada con virus y otros
parasitos o bien como un resultado colateral de la estrategia de duplicar el
genoma para reducir los efectos de las mutaciones. En cualquier caso, los seres
vivos con reproducción sexual se han diversificado y adquirido una complejidad
que ningún ser asexual puede superar.
8-El desarrollo embrionario
«Nada
de lo que te ocurra en la vida te marcará tanto como la gastrulación«. Las
instrucciones para formar un cuerpo de forma progresiva y ordenada supusieron
el salto entre un mundo de medusas y gusanos al actual. Instrucciones que se
encuentran agrupadas en bloques o paquetes genéticos que permiten gran
adaptabilidad. Un paso a destacar en el desarrollo embrionario es la gastrulación, que
consiste en la invaginación de una capa de células del embrión. Así, a primera
vista no parece tan importante pero su aparición supuso la
especialización en 3D, como ocurre en la mayoría de los animales como
nosotros frente a la especialización en 2D que ocurre en los gusanos.
Etapas del desarrollo embrionario humano
9-El sistema nervioso y el
cerebro
Mucho antes de la aparición
del sistema nervioso las células se comunicaban solamente mediante contactos
con su célula vecina y la emisión de señales, como hormonas. En mi opinión el
salto no está tanto en la formación de una red para hacer llegar las señales
más rápido sino en una centralización de las señales, que a largo plazo
supondría la aparición del cerebro. El estudio de las redes neuronales ha
avanzado considerablemente en los últimos años gracias a los estudios en varios
animales modelo, especialmente en el gusano C. elegans, del
que conocemos la red que forman sus 302 neuronas.
10-La percepción del
individuo
Hasta hace unos pocos años se
creía que sólo los primates superiores teníamos esta capacidad. Sin embargo
varios estudios demuestran que otros mamíferos como
el elefante o el delfín, e incluso aves como la urraca poseen dicha
habilidad. Se ha especulado que esta capacidad es la precursora de la aparición
de lo que llamamos el yo y del pensamiento racional. Si bien
este último merecería una escala entera por si mismo.
La
mecánica cuántica en procesos biológicos
La Mecánica Cuántica de la
fotosíntesis:
http://neofronteras.com/?p=3012
Descubren unos mecanismos
mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la
fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones
de años antes que los humanos.
|
Si alguien nos dice que
durante la fotosíntesis se utiliza la Mecánica Cuántica no nos debería extrañar
lo más mínimo. Al fin y al cabo, la célula fotoeléctrica del ascensor o las
placas solares del tejado (si es que se tienen) funcionan bajo los mismos principios.
La explicación al efecto fotoeléctrico tiene ya 105 años, fue dada por Albert
Einstein y por ello recibió el Nóbel de Física. Todo el mundo sabe, por tanto,
que la Mecánica Cuántica debe jugar un papel esencial en la fotosíntesis, pero
los detalles del proceso se desconocían.
Cuando uno estudia Mecánica Cuántica (MC) por primera vez se decepciona un
poco, pues su introducción suele ser fenomenológica. Uno espera ver gatos de
Schrödinger y en su lugar ve, como máximo, cuantos de energía y niveles en el
átomo de hidrógeno o en el pozo cuadrado. Es decir, a lo más que se suele
llegar es a la ecuación de Schrödinger.
Lo más fantástico y sorprendente viene normalmente después y para ello se
necesita un buen andamiaje matemático basado en los espacios de Hilbert. Es
entonces cuando se ven las bases de la MC, sus postulados, la preparación de
estados, la superposición de los mismos, el colapso de la función de ondas, la
paradoja EPR y, ¿cómo no?, el gato de Schrödinger.
Hacer experimentos para estudiar estos detalles de la MC es muy difícil,
normalmente todo se va al traste con la menor perturbación, por eso a veces hay
que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto,
momento en que cesa toda vibración. De ahí que sea tan difícil conseguir el
famoso computador cuántico. Tener una partícula en una superposición de un par
de estados es todo un logro. Pues bien, al parecer las plantas llevan haciendo
esto mismo desde hace miles de millones de años.
Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo
de la Biología Cuántica al observar estados cuánticos muy especiales durante la
fotosíntesis de algas marinas. Otro equipo australiano ha llegado a resultados
similares.
Según Greg Scholes, líder del proyecto canadiense, sus experimentos muestran
que los sistemas biológicos tienen la capacidad de usar la MC para así
optimizar procesos esenciales como el de la fotosíntesis.
La fotosíntesis usa diferentes sistemas bioquímicos. En un primer paso están
las “antenas” o los complejos que captan la luz y la llevan a los centros de
reacción en donde se suceden otros procesos que finalmente dan lugar a energía
química utilizable por la planta. Cuando un fotón alcanza una de estas antenas
transfieren su energía a los electrones de la misma, pero esta energía se puede
perder si no es transferida rápidamente a otra molécula.
En el alga Chroomonas CCMP270, por ejemplo, estas antenas tienen 8 moléculas de
pigmentos tejidas en una estructura proteica más grande, y cada pigmento
absorbe luz de una diferente gama de frecuencias (color) del espectro
electromagnético. La ruta a lo largo de estas moléculas es importante porque
cuanto más largo sea el viaje más pérdidas de energía se pueden producir. Desde
un punto de vista clásico la energía debería viajar por un camino aleatorio por
ellas. Por tanto, los investigadores esperaban que la energía de un pulso láser
no se transfiriera desde la antena a los centros de reacción de manera
eficiente y parte se perdiera.
Este equipo de investigadores aisló estas antenas o complejos de captación de
luz de dos especies distintas de alga marina y estudió su funcionamiento a
temperatura ambiente (a 21 grados centígrados) gracias a la espectroscopía
electrónica bidimensional. Para ello se valieron de un láser de femtosegundo
con el que iluminaron esos complejos y así remedar el proceso natural de
absorción de luz.
El pulso de este tipo de láser es tan corto que se pueden vigilar más
fácilmente los procesos que se suceden después de la iluminación sin la
interferencia del haz que iluminó, aunque esos procesos sean muy rápidos. Entre
los fenómenos que se pueden observar está el movimiento de la energía por las
moléculas especiales que están unidas a una proteína.
Al excitar con el pulso láser se consigue que los electrones de las moléculas
de pigmentos salten a un estado excitado. Al volver a sus estados fundamentales
se emiten fotones con longitudes de onda ligeramente diferentes que se combinan
para formar un patrón de interferencia determinado. Estudiando este patrón los
científicos pudieron estudiar el estado de superposición que se creaba.
Los investigadores se vieron sorprendidos al observar claramente la
supervivencia a largo plazo (cuatro veces más prolongados de lo esperado) de
estados mecanico-cuánticos relacionados con ese movimiento de energía. Este
tiempo (400 femtosegundos o 4 × 10-13 s) es lo suficientemente
largo como para que la energía del fotón absorbida ensaye todos los posibles
caminos (¿recuerda esto a la integral de caminos de Feyman?) a lo largo de la
antena, permitiendo que viaje sin pérdidas. Durante un tiempo la energía de la
luz absorbida reside en varios lugares a la vez. Es decir que hay una
superposición coherente de estados cuánticos. En esencia la antena realiza una
computación cuántica para determinar la mejor manera de transferir la energía.
El descubrimiento va en contra de la idea supuesta que sostiene que la
coherencia cuántica sólo puede ocurrir a temperaturas muy bajas cerca del cero
absoluto, porque le calor ambiental la puede destruir. Se desconoce cómo se las
arregla este sistema fotosintético para realizar esta proeza, pero se especula
que quizás se deba a la propia estructura de la proteína.
Según Scholes, este resultado podría significar que las leyes de probabilidad
mecánico-cuánticas prevalecen sobre las leyes clásicas en los sistemas
biológicos complejos, incluso a temperatura normal. La energía puede entonces
fluir eficientemente bajo la perspectiva clásica de una manera contraintuitiva
y atravesar de manera simultánea varios caminos alternativos a través de las
proteínas. En otras palabras, los complejos de captación convierten la luz en
una onda que viaja desde la antena a los centros de reacción sin pérdida de
energía.
Scholes se plantea si los organismos desarrollaron esta estrategia
mecánico-cuántica de captación de energía solar como una ventaja adaptativa.
Según él es como si el alga “conociera” la Mecánica Cuántica 2000 millones de
años antes que los humanos. La pregunta que queda por resolver es obvia: ¿se
dan este tipo de fenómenos mecánico-cuánticos en otros procesos biológicos?
Paul Davies, director del BEYOND Center for Fundamental Concepts in Science con
sede en Arizona, cree que la Naturaleza ha tenido miles de millones de años
para evolucionar aprovechándose de las ventajas cuánticas, y que probablemente
las explota de manera eficiente cuando puede. Sospecha que el funcionamiento de
muchas estructuras biológicas nanométricas sólo se podrán entender
completamente con referencias a la coherencia, efecto túnel, entrelazamiento y
otros procesos cuánticos no triviales. El desafío será identificar dichos
procesos en el ambiente ruidoso de la célula.
Tunelaje
cuántico para conseguir la fusión nuclear en el Sol
Química del Sol
https://triplenlace.com/2014/01/16/la-quimica-del-sol/
A 8 minutos y 19 segundos-luz
se encuentra nuestro sol. Cuando observamos a nuestra estrella aparecer en el
horizonte entre brumas añil y rojos suaves, hace ya 8 minutos y 19 segundos que
el sol estuvo en esa posición. Se encuentra nada menos que a 150 millones de
Kilómetros de la Tierra. Y menos mal porque se trata de un potente reactor
químico.
Del sol sabemos que su
diámetro es 109 veces el de la Tierra, concretamente 1.400.000 Km; tres cuartas
partes está compuesto de hidrógeno, una cuarta parte es helio y menos del 2%
está formado por oxígeno, carbono, nitrógeno, silicio, neón, hierro y azufre.
La temperatura en su superficie es de 5.000 grados centígrados mientras que en
su núcleo alcanza la astronómica cifra (nunca mejor dicho) de 15 millones de
grados centígrados. Pero ¿qué reacción química consigue tan exuberantes
resultados? La fusión nuclear.
La fusión nuclear en el sol
consiste en la transformación de dos átomos ligeros en un átomo más pesado.
Esos átomos ligeros son el combustible de la reacción y resultan ser isótopos
del hidrógeno. El hidrógeno es el más sencillo de los elementos químicos, tiene
un protón en su núcleo y un electrón girando alrededor. Sin embargo, en la
naturaleza también se presentan isótopos; de vez en cuando el protón del núcleo
del átomo de hidrógeno aparece acompañado de partículas neutras: los neutrones.
Cuando un neutrón acompaña al protón de hidrógeno en el núcleo tenemos un átomo
de deuterio, 2H ó D; cuando
se suman dos neutrones al protón de hidrógeno tenemos otro isótopo, el
tritio, 3H.
Estos dos isótopos de hidrógeno son los átomos clave de la reacción de fusión
nuclear. Cuando un átomo de deuterio se encuentra con un átomo de tritio y se
fusionan en un superchoque dejan tras de sí un nuevo
átomo que contiene en su núcleo dos protones y dos neutrones: un átomo de helio, He.
Pero si han hecho las cuentas de cabeza se habrán dado cuenta de que en este
balance de materia nos sobra un neutrón.
12H
+ 13H → 24He + 01n
Efectivamente, ese neutrón
sobrante sale despedido después del choque con la velocidad de la luz
transformando su masa en energía según la famosa ecuación de Einstein:
E = mc2
Donde E es
energía, m es la masa de la partícula y c es
la velocidad de la luz. ¡Por cada mol de hidrógeno que reacciona se liberan 180
GJ (gigajulios)!
Ahora bien, visto así no parece que esta reacción tenga mucha complicación y
poder controlarla nos liberaría de nuestra dependencia de combustibles fósiles
como las gasolinas o el gas natural y en eso se afanan los científicos que
investigan en la fusión fría. ¿Pero por qué “fría”?
Volvamos al sol. Las condiciones en las que esta reacción tiene lugar no se
producen con facilidad. En primer lugar, el sol es una masa de plasma. El
plasma es un estado de la materia a muy altas temperaturas en el que la masa de
su superficie es menos densa y mucho más densa en su núcleo. Las altas
temperaturas a las que están sometidos los átomos en el plasma hacen que
pierdan sus electrones convirtiéndolo en una especie de gas ionizado.
Por lo tanto en esas
condiciones tenemos una bola de núcleos que se mueven y chocan entre sí y que
cuanto más cerca están del núcleo de plasma alcanzan más temperatura y más
densidad. Es decir, se mueven más (tienen más energía cinética) y están más
cerca los unos de los otros a presiones extremas. En el mayor punto de
temperatura y densidad, los núcleos, alcanzan una velocidad próxima a la de la
luz. Sin embargo, aunque todo esto suena favorable para un choque de fusión
nuclear, existe también otra potente fuerza que resulta desfavorable: la fuerza
de repulsión entre los protones, ya que éstos tienen cargas positivas
y se repelen entre sí. A veces estas fuerzas de repulsión pueden ser infinitas.
La cuestión es resolver en qué momento la energía cinética y la densidad son
suficientes como para vencer esa repulsión, para lo cual debemos recurrir a lo
que se conoce en Física como túnel cuántico o barrera
de penetración.
Este efecto de la mecánica cuántica se aprovecha de la dualidad onda-partícula
de la materia a niveles subatómicos y predice que para una partícula que esté
confinada en una habitación de paredes infinitamente altas, y que por lo tanto
nunca las pueda superar con su función de onda asociada, pueda sin embargo
atravesar la pared como si de un fantasma se tratara. La ecuación de Schrödinger puede
hacer una predicción sobre la probabilidad que tiene esa partícula de salir de
su confinamiento “atravesando” la pared gracias a que tenga una función de onda
que varíe suavemente dentro de la región cercana a la pared y recupere el
aspecto de onda oscilante cuando sale de ella. Esto es posible para partículas
ligeras que atraviesan barreras o “paredes” de pequeño grosor, tales como los
isótopos de hidrógeno venciendo la barrera energética de su propia repulsión.
Las intensas investigaciones
en el campo de la fusión fría están orientadas a conseguir esa reacción
termonuclear a temperatura ambiente. El combustible en forma de partículas
ligeras como los isótopos de hidrógeno son fáciles de conseguir y se convertiría
en una fuente inagotable de energía. La fusión nuclear en frío de forma
controlada es, sin duda alguna, uno de los mayores retos energéticos que se
plantea la ciencia moderna. En realidad, es: el reto estrella.
¿Es
nuestra consciencia cuántica?
Confirmación de la Resonancia
Cuántica en los Microtúbulos del Cerebro
Las biomoléculas presentan un comportamiento mecánico cuántico
Un equipo de investigación
dirigido por Anirban Bandyopadhyay -investigador preeminente en la ciencia de
la biología cuántica-, ha demostrado la existencia de vibraciones mecánicas
cuánticas a alta temperatura en las neuronas del cerebro. La investigación,
llevada a cabo en el Instituto Nacional de Ciencias de los Materiales de
Tsukuba (Japón), descubrió cómo la oscilación de alta frecuencia de los
microtúbulos -medida en este caso a un millón de ciclos por segundo (un
megahercio - 1MHz de oscilación de los momentos dipolares eléctricos de los
electrones libres y de cambio conformacional), provocan una interferencia de
ondas que puede dar lugar a la forma característica de las oscilaciones
eléctricas del cerebro que se correlacionan con la conciencia, concretamente un
nuevo tipo de señal electroencefalográfica (EEG) de 40 Hz / 4 Hz de gestalts
anidados (oscilaciones gamma y delta, respectivamente), denominadas
"frecuencias de latido".
Las frecuencias gamma se han
correlacionado con la conciencia, aparentemente a través de la acción de la
sincronización neuronal, y la estructura de onda periódica de las
"frecuencias de latido" gamma-delta recuerdan mucho a las bandas de
interferencia alternas de los cuantos que se producen en los experimentos de
doble rendija. Así, parece que se vincula la sincronización cerebral de la
conciencia con los comportamientos mecánicos cuánticos subyacentes de los
microtúbulos. Con estas vibraciones cuánticas, los microtúbulos pueden
entrelazarse en las redes neuronales a través de canales de interconexión,
llamados gap junctions (uniones en hendidura), que unen físicamente a las
neuronas. Esta es la teoría de la conciencia desarrollada y defendida por el
biólogo cuántico y anestesista jefe de la Universidad de Arizona, Stuart
Hameroff, y el profesor emérito de matemáticas de la Universidad de Oxford, el
físico Roger Penrose.
Los últimos descubrimientos
apoyan firmemente su modelo de que la mecánica cuántica dentro del cerebro
engendra la conciencia, el que ha recibido apasionadas críticas por parte de
los académicos desde su creación en la década de 1980, como es típico de cualquier
paradigma revolucionario.
El papel del agua en el
cerebro
Cabe destacar que Anirban
Bandyopadhyay y su equipo de investigación, han realizado experimentos que
indican la importancia central del agua en las operaciones de procesamiento de
la información dentro del cerebro y el cuerpo. En su artículo: el canal de agua atómico
que controla las propiedades notables de un solo microtúbulo cerebral, el
equipo de investigación informó sobre la experimentación con el agua altamente
ordenada dentro de la cavidad cilíndrica del lumen del microtúbulo.
Descubrieron que cuando se evacuaba el agua de la cámara central, el
microtúbulo dejaba de mostrar una fuerte correlación en el conjunto
macromolecular de las subunidades de tubulina.
Esto sugiere que el agua
desempeña un papel central en la coordinación del comportamiento de las
múltiples subunidades del microtúbulo y que, en efecto, lo hace funcionar como
una sola molécula, un efecto altamente cuántico. El agua, como han sugerido
el físico Nassim Haramein y el equipo de investigación de RSF, forma parte de
la coherencia de largo alcance y de la orquestación de los procesos de
información celular correlacionados con la conciencia [1].
[1] Véase
la sección "El papel del agua ordenada en la coherencia y la
transmisión de información dentro del sistema biológico" en Unified
Spacememory Network; Haramein et al., 2017.
Observaciones de la
anestesia
Además, las investigaciones
realizadas en la Universidad de Pensilvania, dirigidas por Roderick G.
Eckenhoff, sugieren que los compuestos anestésicos actúan en parte
interrumpiendo la función normal de los microtúbulos, aparentemente dispersando
los dipolos eléctricos necesarios para la conciencia. Fueron los estudios
anestesiológicos de Stuart Hameroff en los años 70 los que le llevaron a
sugerir un papel de los microtúbulos en la generación de la conciencia, tras
observar cambios en la dinámica de los microtúbulos cuando se exponen a
compuestos anestésicos. Si existe una molécula que detenga la conciencia,
entonces ver qué cambios específicos se producen en el entorno celular cuando
se expone a dicho compuesto, será una pista importante para saber qué estructuras
están implicadas en la generación de la conciencia.
La revolucionaria idea de
Hameroff era llevar los mecanismos teóricos de la conciencia desde el nivel
celular-sináptico hasta la escala nanométrica de las grandes redes
biomoleculares, donde podrían producirse comportamientos mecánicos cuánticos
(siguiendo la estela de Herbert Fröhlich, que había propuesto que las
biomoléculas poliméricas largas podían lograr ondas de solución coherentes
cuánticas mediante el bombeo de energía metabólica, lo que daba lugar a un
entrelazamiento no local -que más tarde se denominó condensados de Fröhlich).
Un nuevo tipo de física
Una de las características
clave de la teoría de Hameroff y Penrose se denomina Reducción Objetiva
Orquestada (Orch-OR), en la que se teoriza que el vector de estado (la función
de onda que describe una partícula) de los electrones libres deslocalizados dentro
de la tubulina, sufre una reducción independiente del observador (un colapso
objetivo frente al subjetivo de la función de onda). A medida que el
electrón muestra más y más atributos no locales, lo que se conoce como
superposición, la geometría del espaciotiempo subyacente se bifurca, y el grado
de separación entre las "burbujas" del espaciotiempo -medido en
longitudes de Planck- alcanza una distancia crítica, momento en el que la
geometría del espaciotiempo se vuelve inestable y colapsa.
Este mecanismo se conoce como
el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad. Cada
una de estas bifurcaciones y colapsos representa un cómputo cuántico
indeterminable, y la coordinación de una multitud de estos eventos a través del
entrelazamiento cuántico (la parte orquestada de OR) permite realizar cómputos
cuánticos masivamente paralelos dentro del cerebro. Como sugieren Hameroff y
Penrose, esto es lo que produce la conciencia. Dado que la reducción del vector
de estado se debe enteramente a este mecanismo estocástico, y por tanto es
indeterminado, confiere a la conciencia una característica de imprevisibilidad.
La ley de escalamiento de
USN y Haramein
Al igual que el criterio
Diósi-Penrose de colapso cuántico inducido por la gravedad está mediado por una
geometría cuántica del espaciotiempo subyacente, Haramein et alii describen una
geometría del espaciotiempo subyacente en el artículo The Unified
Spacemory Network. A diferencia del mecanismo Diósi-Penrose, la geometría
cuántica del espaciotiempo de la red del espaciotiempo unificada no implica
superposiciones, sino un fuerte entrelazamiento a través de la red de
microagujeros del espaciotiempo Planckiano subyacente. Además de los
microtúbulos, los autores destacan la importancia de estructuras como el agua
atómicamente ordenada y las membranas del sistema celular.
Los microtúbulos son
estructuras macromoleculares realmente notables del sistema biológico, por lo
que no es de extrañar que varios investigadores se hayan interesado por ellos.
En el artículo Scale Unification, Haramein y Rauscher, junto con el
biólogo Michael Hyson, presentan sus descubrimientos sobre una ley de escala
universal para la materia organizada. Hay una serie de sistemas
organizados de materia que obedecen a la condición de Schwarzschild de un
agujero negro, y cuando se trazan en un gráfico de frecuencia frente al radio,
surge una línea de tendencia, en la que las estructuras desde el tamaño
cosmológico hasta el subatómico muestran una relación de escala definida. Lo
sorprendente es que los microtúbulos se sitúan en el centro de la línea de
tendencia, ocupando la posición entre lo ultra grande y lo ultra pequeño, el
macrocosmos y el microcosmos.
"Resulta interesante
que los microtúbulos de las células eucariotas, que tienen una longitud típica
de 2 X 10-8cm y una frecuencia de vibración estimada de 109 a
1014 Hz se sitúan bastante cerca de la línea especificada por
la ley de escalamiento e intermedia entre las escalas estelar y atómica" -
Haramein et al, Scale Unification, 2008
El colector fractal
Según este hallazgo, los
microtúbulos pueden tener una relación armónica con las estructuras
polarizables del vacío cuántico (¡que muestran que está en una relación Ф
(phi)! Una relación de escala de tipo fractal). John Wheeler describió por
primera vez estas estructuras fluctuantes del vacío como mini agujeros negros
de Planck. Del mismo modo, Haramein muestra cómo los osciladores del vacío
pueden ser, de hecho, sistemas de agujeros blancos/agujeros negros. Así,
mientras que el criterio Diósi-Penrose utiliza una geometría de
"burbuja" bifurcada del espaciotiempo, la solución de Haramein
muestra cómo puede ser la acción de estructuras de espaciotiempo de agujero
blanco/agujero negro polarizadas, cuya oscilación funciona como elemento
computacional en analogía con el colapso inducido por la gravedad del mecanismo
Hameroff-Penrose.
"La universalidad de
esta ley de escala sugiere un vacío estructurado polarizable subyacente de mini
agujeros blancos/agujeros negros". - ibidem
Además, Haramein describe una
estructura múltiple fractal del espaciotiempo, lejos de la arquitectura del
espaciotiempo liso y plano previsto por el Modelo Estándar. Esto es muy
pertinente para la naturaleza de la conciencia, porque los sistemas fractales
son producidos por / y subyacen a la dinámica del caos.
Una de las características
clave de los sistemas caóticos es que pueden ser extremadamente sensibles
incluso a pequeños cambios, debido a las interacciones no lineales que resultan
de las operaciones de retroalimentación y la alta coherencia global dentro del
sistema. Como tal, hay una naturaleza indeterminada en los sistemas
fractales/caóticos, como cuando se intenta predecir el tiempo. De modo que, a
diferencia del mecanismo de reducción objetiva propuesto por Hameroff y
Penrose, la dinámica caótica de las fluctuaciones de la espuma del vacío
cuántico podría ser la fuente de la aparente imprevisibilidad y autovoluntad
tan características de nuestra conciencia (téngase en cuenta que en la
semántica técnica, caos no significa desorden, sino todo lo contrario, sólo
implica ciertas características clave, como un grado de imprevisibilidad).
¿Entre la espada y la
pared? Encuentre el camino del medio
A medida que se descubren más
y más fenómenos mecánicos cuánticos no locales dentro del sistema biológico, la
teoría de Hameroff y Penrose (así como la de otros investigadores que
investigan esta nueva frontera de la ciencia) va acumulando pruebas empíricas
tangibles, de modo que los modelos de conciencia cuántica están pasando de ser
bellas construcciones teóricas a convertirse en hechos demostrables. Lo
notable del modelo de conciencia de Hameroff, así como de Haramein, es que
encuentran el punto medio entre dos extremos: la perspectiva
espiritual/metafísica por un lado, en la que la conciencia es primaria y no
puede ser explicada científicamente; y por otro lado la perspectiva
científica/materialista, en la que la conciencia es un estado ilusorio epifenomenológico
que emerge de la complejidad de las neuronas y no juega ningún papel en la
dinámica del Universo en general. En cambio, lo que llamamos conciencia no sólo
puede surgir de la dinámica de los eventos físicos discretos del colector
cuántico del espaciotiempo, sino que también juega un papel intrínseco en el
ordenamiento y la dinámica del Universo.
Teoría
de cuerdas y supersimetría
Teoría de cuerdas
http://www.nocierreslosojos.com/teoria-cuerdas/
- Figura
Clave: Leonard Susskind (n. en 1940)
- Antes:
- 1914
Se propone la idea de una quinta dimensión para explicar cómo funciona la
gravedad junto con el electromagnetismo.
- 1926
El físico sueco Oscar Klein desarrolla ideas acerca de dimensiones
adicionales inobservables.
- 1961
Se diseña una teoría para unificar el electromagnetismo y la fuerza
nuclear débil.
- Después:
- 1975
Abraham Pais y Sam Treiman acuñan el término «modelo estándar».
- 1995
Edward Witten, físico estadounidense, desarrolla la teoría M, que
incluye 11 dimensiones.
- 2012
El Gran Colisionador de Hadrones detecta el bosón de Higgs
Leonard Susskind
Nacido en Nueva York (EE UU)
en 1940, Leonard Susskind ocupa la cátedra Felix Bloch de Física en la
Universidad de Stanford en California. Se doctoró en la Universidad Cornell
(Nueva York) en 1965, y se unió a la de Stanford en 1979.
En 1969 publicó la teoría por
la cual es conocido: la teoría de cuerdas. Su trabajo matemático demostró que
la física de partículas podía explicarse mediante cuerdas vibrantes al más
pequeño nivel. En la década de 1970 desarrolló más esa idea, y en 2003 acuñó el
término «paisaje de la teoría de cuerdas». Esa radical noción pretendía
destacar el gran número de universos posibles que conformarían un increíble
«megaverso» con, quizá, otros universos con las condiciones necesarias para la
vida. Susskind es hoy una figura muy respetada en su ámbito.
- Obras
principales:
- 2005
El paisaje cósmico.
- 2008
La guerra de los agujeros negros.
- 2013
El mínimo teórico.
Física de partículas
Los físicos de partículas usan
la teoría llamada «modelo estándar» para explicar el universo.
Desarrollado en las décadas de 1960 y 1970, ese modelo describe las partículas
y las fuerzas fundamentales de la naturaleza que componen el universo y lo
mantienen unido. Un problema del modelo estándar es que no encaja con la teoría
de la relatividad general de Einstein, que relaciona la gravedad (una de
las cuatro fuerzas) y la estructura del espacio y el tiempo y los trata como
una entidad tetradimensional («espacio-tiempo»). El modelo estándar no encaja
con la curvatura del espacio-tiempo propugnada por la relatividad general.
La mecánica cuántica, en
cambio, explica cómo interactúan las partículas en los niveles más pequeños (a
escala atómica), pero no da cuenta de la gravedad. Se ha intentado en vano unir
las dos teorías; por ahora el modelo estándar solo puede explicar tres de las
cuatro fuerzas fundamentales.
Partículas y fuerzas
En física de partículas, los
átomos están formados por un núcleo de protones y neutrones, rodeado por
electrones. El electrón y los quarks que forman los protones y
los neutrones se encuentran entre los 12 fermiones (partículas de
materia): las partículas elementales o fundamentales que son los componentes
básicos conocidos más pequeños del universo. Los fermiones se subdividen en
quarks y leptones. Junto a esos fermiones, están los bosones (partículas
portadoras de fuerza) y las cuatro fuerzas de la naturaleza: electromagnetismo,
gravedad, fuerza fuerte y fuerza débil. Los diferentes bosones son responsables
de llevar las diferentes fuerzas entre los fermiones.
El modelo estándar permite
describir lo que se conoce como campo de Higgs, un campo de energía
que, según se cree, impregna todo el universo. La interacción de las partículas
en el campo de Higgs les otorga su masa; y un bosón medible llamado bosón de
Higgs es el portador de fuerza para el campo de Higgs. Ahora bien, ninguno de
los bosones conocidos es el portador de a fuerza de gravedad; ello ha
llevado a postular una partícula hipotética, aún no detectada, llamada
gravitón.
Teoría de cuerdas
En 1969, en un intento de
explicar la fuerza nuclear fuerte, que une protones y neutrones dentro del
núcleo atómico, el estadounidense Leonard Susskind desarrolló la idea de la
teoría de cuerdas. El estadounidense-japonés Yoichiro Nambu y el danés Holger
Nielsen concibieron la misma idea al mismo tiempo. Según la teoría de
cuerdas, las partículas (los componentes básicos del universo) no son como
puntos, sino más bien algo así como diminutos y unidimensionales hilos de
energía vibrantes, o cuerdas, que dan lugar a todas las fuerzas y la materia.
Cuando las cuerdas chocan, se combinan y vibran juntas brevemente antes de
separarse de nuevo.
Los primeros modelos de la
teoría de cuerdas fueron problemáticos. Explicaban los bosones pero no los
fermiones, y necesitaban que ciertas partículas hipotéticas, llamadas
taquiones, viajaran más deprisa que la luz. También necesitaban muchas más
dimensiones que las cuatro conocidas del espacio y el tiempo.
Según la teoría de cuerdas,
las partículas elementales (como los electrones y los quarks, que forman los
protones y neutrones) son cuerdas o filamentos de energía. Cada cuerda vibra
con una frecuencia diferente, y esas vibraciones se corresponden con la
velocidad, el espín y la carga de las partículas.
Supersimetría
Para sortear algunos de esos
primeros problemas se ideó el principio de la supersimetría, que propone que el
universo es simétrico y proporciona a cada una de las partículas conocidas del
modelo estándar una compañera, o «supercompañera», no detectada; así, por
ejemplo, cada fermión se empareja con un bosón, y viceversa.
Según la supersimetría, todo bosón (partícula portadora de fuerza) tiene como
«supercompañero» masivo un fermión (partícula de materia), y todo fermión tiene
un bosón. La teoría de las supercuerdas describe las partículas supercompañeras
como cuerdas que vibran en octavas más altas. Según algunos teóricos, las
supercompañeras quizá tengan masas hasta mil veces superiores a las de sus
partículas correspondientes, pero aún no se han hallado partículas
supersimétricas.
Cuando el bosón de Higgs,
predicho en 1964 por el británico Peter Higgs, fue detectado en 2012 por el
Gran Colisionador de Hadrones del CERN, resultó ser más ligero de lo
esperado. Los físicos de partículas creían que sería más pesado debido a sus interacciones
en el campo de Higgs con las partículas del modelo estándar, a las que daba
masa. Pero no era así. La idea de las supercompañeras, unas partículas capaces
de anular potencialmente algunos de los efectos del campo de Higgs y
producir un bosón de Higgs más ligero, permitió a los científicos abordar ese
problema. También les permitió descubrir que puede que tres de las cuatro
fuerzas de la naturaleza (es decir, el electromagnetismo, la fuerza fuerte y la
débil) existieran con las mismas energías en el Big Bang, un paso crucial
hacia la unificación de esas fuerzas en una Gran Teoría Unificada.
Teoría de las
supercuerdas
Juntas, la teoría de cuerdas y
la supersimetría dieron lugar a la teoría de las supercuerdas, en la que todos
los fermiones y bosones y sus partículas supercompañeras son resultado de
cuerdas vibrantes de energía. En la década de 1980, el estadounidense John
Schwarz y el británico Michael Green desarrollaron la idea de que las
partículas elementales como electrones y quarks son las manifestaciones
exteriores de «cuerdas» vibrando en la escala de la gravedad cuántica.
Así como las diferentes
vibraciones de la cuerda de un violín producen diferentes notas, propiedades
como la masa son el resultado de diferentes vibraciones del mismo tipo de
cuerda. Un electrón es un segmento de cuerda que vibra de cierta manera, mientras
que un quark es un segmento idéntico de cuerda que vibra de una manera
diferente Schwarz y Green observaron que la teoría de cuerdas predecía una
partícula sin masa similar al hipotético gravitón. La existencia de semejante
partícula podría explicar por qué la gravedad es tan débil en comparación con
las otras tres fuerzas, pues los gravitones entrarían y saldrían de la
decena aproximada de dimensiones requeridas por la teoría de cuerdas. Así,
apareció por fin algo que Einstein buscó mucho tiempo, una teoría capaz de
describirlo todo en el universo, una «teoría del todo».
Una teoría unificadora
Los físicos en busca de una
teoría que lo englobe todo encuentran problemas cuando se enfrentan a los
agujeros negros, donde la teoría de la relatividad general se une a la mecánica
cuántica tratando de explicar lo que pasa cuando una cantidad inmensa de
materia se ve comprimida en un espacio muy reducido. Según la relatividad
general, cabría decir que el núcleo de un agujero negro (su singularidad) tiene
esencialmente un tamaño cero. Sin embargo, según la mecánica cuántica, eso es
imposible porque nada puede ser infinitamente pequeño. De acuerdo con el
principio de incertidumbre concebido por el alemán Werner Heisenberg en 1927,
no es posible llegar a niveles infinitamente pequeños porque una partícula
siempre puede existir en múltiples estados. Teorías cuánticas fundamentales
como la superposición y el entrelazamiento también determinan que las
partículas pueden estar en dos estados a la vez. Tienen que producir un campo
gravitatorio, lo cual sería coherente con la relatividad general, pero no parece
ser así según la teoría cuántica.
Si la teoría de las
supercuerdas pudiera resolver algunos de esos problemas, se convertiría en la
teoría unificadora que buscan los físicos. Sería posible demostrarla haciendo
colisionar partículas. Algunos científicos creen que, a energías más elevadas,
quizá se vean gravitones disolviéndose en otras dimensiones, lo cual supondría
una prueba fundamental en favor de la teoría.
Desenredar la idea
Las paredes del observatorio de neutrinos Super-Kamiokande están cubiertas de
fotomultiplicadores para detectar la luz emitida por los neutrinos que
interactúen con el agua del tanque.
Algunos científicos, como el
estadounidense Sheldon Glashow, creen que la investigación en teoría de cuerdas
es inútil porque nadie podrá demostrar nunca si las cuerdas que describe
existen. Tratan de energías tan elevadas (más allá de la medida llamada energía
de Planck) que nos resulta imposible detectarlas, y puede que siga resultando
imposible en el futuro inmediato. Nuestra incapacidad de diseñar un experimento
que ponga a prueba la teoría de cuerdas llevó a algunos científicos como
Glashow a preguntarse si es en realidad una teoría científica. Hay quienes
disienten y señalan que hay en marcha experimentos que intentan encontrar
algunos de esos efectos y proporcionar una respuesta. El experimento
Super-Kamiokande, en Japón, por ejemplo, podría demostrar aspectos de la teoría
de cuerdas estudiando la desintegración del protón (la teorizada desintegración
de un protón a lo largo de escalas temporales extremadamente largas), un
fenómeno predicho por la supersimetría.
La teoría de las supercuerdas
puede explicar gran parte del universo desconocido –por ejemplo, por qué el
bosón de Higgs es tan ligero y por qué la gravedad es tan débil–, y
quizá pueda explicar la naturaleza de la energía oscura y la materia oscura.
Algunos científicos creen incluso que la teoría de cuerdas podría proporcionar
información sobre el destino del universo, y si seguirá o no expandiéndose de
modo indefinido.
Un
fotón ha retrocedido en el tiempo
Cómo en física cuántica están
logrando lo que hasta ahora parecía imposible: revertir el tiempo
La frontera entre la ciencia y
la ciencia ficción es en ocasiones casi imperceptible. Y se lo debemos, cómo
no, a nuestra cada vez más precisa comprensión del mundo en el que vivimos. Ese
mundo macroscópico que podemos ver con nuestros ojos y en el que los procesos
parecen discurrir en un único sentido en el tiempo: del presente hacia
el futuro.
Estamos tan íntimamente
acostumbrados a observar este fenómeno que nos resulta muy difícil aceptar la
posibilidad de revertir
un proceso en el tiempo. De recuperarlo tal y como era antes de haber
sufrido algún cambio que podríamos considerar permanente. Pero no es imposible.
La física
cuántica acaba de demostrarnos que es factible tanto en el ámbito
teórico como en el práctico.
La física cuántica y
nuestra intuición están, una vez más, a punto de chocar
Nuestra intuición nos invita a
concluir que la irreversibilidad de los procesos es una ley fundamental. Y el
segundo principio de la termodinámica nos da la razón. Se puede formular de
muchas maneras diferentes, pero todas ellas, si son correctas, nos invitan a
concluir que los fenómenos físicos son irreversibles.
Si colocamos un recipiente con
agua muy caliente en la encimera de nuestra cocina y no hacemos nada con él, el
agua se enfriará. Y si se nos cae un vaso y estalla al golpearse con el suelo,
no volverá a recomponerse por sí solo. Precisamente el intercambio de calor y
la entropía son dos propiedades íntimamente ligadas al segundo principio de la
termodinámica.
La entropía suele definirse
como la magnitud que mide el grado de desorden de un sistema físico. Es una
simplificación quizá excesiva, pero puede ayudarnos a entender de qué estamos
hablando sin que nos veamos obligados a recurrir a conceptos complejos. En
cualquier caso, este principio termodinámico es de naturaleza estadística, y,
además, la física clásica es determinista.
Esto significa que es posible
predecir la evolución de un sistema físico a lo largo del tiempo si conocemos
su estado inicial y las ecuaciones diferenciales que describen su
comportamiento. Sin embargo, en el dominio de la física
cuántica, en el mundo de lo muy pequeño, de las partículas, la
reversibilidad de los procesos físicos es posible. Lo es desde un punto de
vista teórico desde hace mucho tiempo, y ahora lo es también en la práctica.
La física cuántica lo
permite: un fotón ha retrocedido en el tiempo
Los físicos coquetean con la
posibilidad de revertir procesos en el tiempo desde hace muchos años. De hecho,
algunos teóricos trabajan en unas herramientas muy peculiares que la mecánica
cuántica ha colocado en sus manos: los protocolos de reversión o
rebobinado universal. No necesitamos conocer con detalle cómo funcionan
estos mecanismos, pero nos viene de perlas saber que sirven para revertir los
cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado
inicial. Y sin saber tampoco en qué consistieron esos cambios.
Los protocolos de reversión
universal sirven para revertir los cambios que ha sufrido un sistema cuántico
sin conocer cuál era su estado inicial
Casi parece magia, pero no lo
es. Es ciencia. Y, precisamente, el físico teórico español Miguel
Navascués lidera un equipo de investigación en el Instituto de Óptica
Cuántica e Información Cuántica de la Academia de las Ciencias de Austria
experto en esta disciplina. Miguel y sus colaboradores han diseñado un
innovador protocolo teórico de reversión que propone, a grandes rasgos, qué
procedimiento es posible utilizar para conseguir que un sistema cuántico
recupere su estado inicial sin conocer qué cambios ha sufrido.
Llevar algo así a la práctica
no es nada sencillo, lo que ha provocado que los físicos experimentales que
trabajan en esta área no hayan tenido demasiado éxito. Afortunadamente, el
panorama ha cambiado. Y es que el equipo de físicos experimentales de la
Universidad de Viena dirigido por Philip Walther ha
conseguido implementar con éxito el protocolo de reversión universal diseñado
por Miguel Navascués y su equipo.
El corazón de su experimento
es un sofisticado equipo óptico constituido por varios interferómetros y
enlaces de fibra óptica que se comportan de forma conjunta como un interruptor
cuántico. Conocer con detalle cómo funciona este ingenio queda fuera del propósito
de este artículo porque, como podemos intuir, su complejidad es extraordinaria.
Aun así, quien no se deje intimidar fácilmente y tenga curiosidad puede
consultar el artículo que han publicado Navascués, Walther y sus equipos en la
revista Optica.
Merece mucho la pena.
El corazón de su experimento
es un sofisticado equipo óptico constituido por varios interferómetros y
enlaces de fibra óptica que se comportan de forma conjunta como un interruptor
cuántico
Un apunte antes de seguir
adelante: un interferómetro es un dispositivo óptico que emplea una fuente de
luz (habitualmente un láser) para medir con muchísima precisión los
cambios introducidos en un sistema físico. Descrito de esta forma parece algo
muy complicado, y sí, es complicado, pero podemos recurrir a un ejemplo cercano
en el tiempo para ilustrar de qué estamos hablando.
Los experimentos LIGO, en
Estados Unidos, y Virgo, en Italia, utilizados para identificar
y analizar ondas gravitacionales son interferómetros. Y, como acabamos
de ver, ambos incorporan un sofisticado equipo óptico y un láser que les
permite medir las perturbaciones gravitatorias generadas por los objetos
masivos del cosmos que están sometidos a una cierta aceleración. Estas
perturbaciones se propagan por el continuo espacio-tiempo a la velocidad de la
luz bajo la forma de ondas, y los interferómetros las recogen.
De alguna forma el interruptor
cuántico que han construido los equipos de Navascués y Walther es parecido a
LIGO o Virgo, pero a una escala infinitamente menor debido a que su propósito
es identificar y medir los cambios introducidos en un sistema cuántico. Lo que
han conseguido es asombroso: han revertido con éxito la evolución en el
tiempo de un fotón sin conocer previamente ni su estado inicial ni qué
cambios había experimentado. En la práctica es lo mismo que viajar hacia atrás
en el tiempo.
Este esquema describe el ingenioso equipo óptico diseñado por los
investigadores de la Universidad de Viena y el Instituto de Óptica Cuántica e
Información Cuántica de la Academia de las Ciencias de Austria.
Parece razonable pensar que
conseguir esto con una sola partícula, con un fotón, no es demasiado
interesante, pero nada más lejos de la realidad. El resultado que han obtenido
estos investigadores, que ya ha sido revisado por pares, es extraordinario porque
abre de par en par las puertas que probablemente van a permitirnos entender
mucho mejor las reglas que subyacen en el mundo en el que vivimos. Las reglas,
en definitiva, de la mecánica cuántica.
Lo que permite a este
experimento desmarcarse de otros anteriores que también pretendían demostrar la
posibilidad de revertir el estado de un sistema cuántico es que el protocolo de
reversión universal de Navascués y Walther ha conseguido hacerlo sin tener ningún
tipo de información previa acerca del estado del sistema cuántico.
Podemos verlo como si hubiesen conseguido recomponer a la perfección un jarrón
de porcelana sin conocer el número de fragmentos que tenían inicialmente, su
forma, y mucho menos que pertenecían a un jarrón y eran de porcelana.
En las conclusiones de su
artículo estos investigadores insisten en algo muy importante: los resultados
que han obtenido no son válidos únicamente en los sistemas cuánticos de
naturaleza fotónica, que son los que trabajan con luz; son coherentes con otros
sistemas cuánticos. Por esta razón, las aplicaciones de esta tecnología pueden
ser muy numerosas, especialmente en el ámbito de la
computación cuántica.
Y es que los protocolos de
reversión universal pueden en teoría ser utilizados para resolver uno de los
mayores desafíos que plantean actualmente los ordenadores cuánticos: la
corrección de errores. De hecho, este es probablemente el muro más alto
que los
investigadores en computación cuántica tendrán que derribar para
conseguir que los ordenadores cuánticos sean capaces de resolver los tipos de
problemas complejos en los que en teoría son muy superiores a los
superordenadores clásicos.
Modelo
Cosmológico Lambda-CDM (Cold Dark Matter)
Modelo Lambda-CDM:
https://es.wikipedia.org/wiki/Modelo_Lambda-CDM
En cosmología,
el modelo Lambda-CDM o ΛCDM (del inglés: Lambda-Cold
Dark Matter) representa el modelo de concordancia del Big Bang que explica las observaciones
cósmicas de la radiación de fondo de microondas,
así como la estructura a gran escala del
universo y las observaciones realizadas de supernovas,
arrojando luz sobre la explicación de la aceleración de la expansión
del Universo. Es el modelo conocido más simple que está de acuerdo con
todas las observaciones.
- Λ (lambda)
indica la constante cosmológica como parte de
un término de la energía oscura que permite conocer el
valor actual de la expansión acelerada del Universo que se inició hace
unos 6 mil millones de años.1La constante cosmológica se
describe en términos de , la fracción de densidad de energía de un
universo plano. En la actualidad, 0.70, lo que implica que
equivale al 70% de la densidad de energía del presente universo.
- La materia oscura fría es el modelo
de materia oscura en el que la velocidad de
sus partículas es muy inferior a la velocidad de la luz, de ahí el adjetivo
"fría". La materia oscura fría es no-bariónica,
a diferencia de la materia bariónica normal con la que no interacciona
excepto mediante la gravedad. Este componente constituye el 26% de la
densidad de la energía del actual universo. El 4% restante es toda la
materia y energía (materia bariónica), que componen los átomos y
los fotones que
son los bloques que construyen los planetas,
las estrellas y
las nubes de gas en el universo.
- El
modelo supone un espectro de casi invariancia de escala de perturbaciones primordiales y
un universo sin curvatura espacial. También asume que no
tiene ninguna topología observable, de modo que el universo es mucho más
grande que el horizonte observable de
la partícula. Se dan predicciones de inflación cósmica.
El modelo asume que la Relatividad General es la teoría correcta
de la gravedad a escalas cosmológicas. Es frecuentemente nombrado como el
modelo estándar de la cosmología del Big Bang, porque es el modelo más simple
que proporciona una explicación razonablemente buena de las siguientes propiedades
del cosmos:
- La
existencia y estructura del fondo cósmico de microondas
- La
estructura a gran escala de la distribución de galaxias
- Las
abundancias de hidrógeno (incluyendo deuterio), helio y litio
- La
expansión acelerada del universo observado en distantes galaxias y
supernovas
El modelo ΛCDM se ha simulado
con éxito en superordenadores: partiendo de la composición que tenía el
Universo (átomos de hidrógeno, helio, litio, etc, fotones, neutrinos,…
transcurridos 11.5 millones de años después del Big-Bang, la simulación forma
estrellas, galaxias y estructuras de cúmulos y supercúmulos de galaxias muy
similares a los objetos reales que observamos en el firmamento2El modelo ΛCDM se puede ampliar
añadiendo la inflación cosmológica, la quintaesencia y otros elementos que son
áreas actuales de estudio e investigación en Cosmología.
Enlaces externos:
https://naukas.com/2018/06/13/ultimo-articulo-hawking-la-naukas-iii-propuesta-ausencia-frontera/
http://hyperphysics.phy-astr.gsu.edu/hbasees/quantum/barr.html
http://hyperphysics.phy-astr.gsu.edu/hbasees/Particles/expar.html
https://www.konradlorenz.edu.co/blog/que-son-los-agujeros-de-gusano/
https://es.wikipedia.org/wiki/Universos_paralelos
http://www.nocierreslosojos.com/teoria-cuerdas/
https://www.epe.es/es/tendencias-21/20220907/universo-tendria-companero-antimateria-lado-75131498
https://www.abc.es/ciencia/abci-bang-pudo-fabricar-futuros-diferentes-202103070858_noticia.html
https://es.wikipedia.org/wiki/Efecto_Meissner
https://www.bbc.com/mundo/noticias-64065872
https://ecoosfera.com/sci-innovacion/energia-oscura-fuente-agujeros-negros/?utm_content=cmp-true
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo
http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html
https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg
https://culturacientifica.com/2023/04/04/integral-de-caminos/
https://es.resonancescience.org/blog/la-catastrofe-del-vacio-2
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles
http://www.javierdelucas.es/vaciomedir.htm
https://es.resonancescience.org/blog/la-catastrofe-del-vacio-2
https://significado.com/ecuacion-de-dirac/
https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre
https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/
http://neofronteras.com/?p=3012
https://triplenlace.com/2014/01/16/la-quimica-del-sol/
http://www.nocierreslosojos.com/teoria-cuerdas/
https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales
https://www.wikiwand.com/es/Correspondencia_AdS/CFT
https://es.wikipedia.org/wiki/Modelo_Lambda-CDM
Tipos
de partículas virtuales
Ver entrada: “Partícula
virtual”
https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual
Bosones virtuales
En el modelo estándar, las
fuerzas fundamentales están transmitidas por los bosones
de gauge. Cuando estos bosones transmiten las fuerzas son partículas
virtuales, y son creados en el vacío. Incluso
en el vacío más perfecto, ya sea el que se cree en un laboratorio,
el espacio intergaláctico, o el vacío
interatómico, son creados continuamente bosones de gauge con una existencia
extremadamente breve. La mecánica cuántica predice que la energía del
vacío nunca puede llegar a ser cero. La energía menor posible del vacío se
llama energía del punto cero, y es precisamente esta
poca (aunque no nula) energía la de las partículas virtuales. Este modelo del
vacío se llama vacío cuántico.
La transmisión de las fuerzas
entre las distintas cargas de cada interacción está descrita por la teoría cuántica de campos, que describe
cómo los bosones de gauge virtuales se transmiten a través del vacío polarizado
entre las cargas reales.3Algunos de estos bosones también
se presentan como partículas reales en distintos fenómenos:
- Los fotones son
partículas reales cuando los observamos en cualquier tipo de radiación electromagnética, como
la luz o
los rayos
X. En cambio, cuando transmiten la interacción electromagnética entre
partículas con carga eléctrica los fotones son
virtuales.
- Los gluones reales
forman los llamados mesones y bariones híbridos, así como las glubolas o bolas gluónicas (la
existencia de ambos aún no está comprobada). Los gluones que transmiten
la interacción fuerte entre
partículas con carga de color son virtuales.
Pero una cuestión aún a
resolver es saber si todos los bosones de gauge sin masa que existen, incluidos
los que arriba se exponen como reales, son al fin y al cabo virtuales. Estas
partículas se mueven a la velocidad de la luz, y por tanto, atendiendo a
la teoría de la relatividad de Albert
Einstein, el tiempo que tardan en propagarse entre dos puntos cualesquiera
del universo es instantáneo desde el punto de vista de las partículas.
Entonces, al ser el tiempo de emisión y absorción instantáneo, ¿serían
virtuales?
Pares virtuales de
partícula-antipartícula
No solo surgen bosones de
gauge en el vacío cuántico, sino también pares partícula-antipartícula;
como por ejemplo pares electrón-positrón,
o pares quark arriba-antiquark arriba,
etc.
Siempre debe crearse una
partícula con su antipartícula, conservándose así el número leptónico o bariónico (dos números cuánticos) del universo. Las
partículas que surgen de este modo son virtuales porque en cuanto aparecen,
tienen tan poca energía que al instante se aniquilan entre sí.
Estos pares virtuales se usan
como un esquema explicativo para justificar que la energía del punto cero del vacío no es
estrictamente nula. Además la radiación de Hawking puede recibir una
explicación intuitiva en términos de la creación de estos pares virtuales de
partícula-antipartícula.
Experimento
de la doble rendija
Ver PDF: Sanchez-Jesus Double slit experiment
interpretation:
Interpretación del experimento
de la doble rendija
Para esta interpretación,
consideraremos las partículas como los vehículos (los transmisores) de la
energía pero siendo estas partículas indetectables de por sí (no pueden
interactuar directamente con nada). Las interacciones no son provocadas por la
partícula en sí sino por los portadores de fuerza que emite (generalmente los
fotones virtuales). Cuando un detector detecta un electrón, realmente no lo
“toca”, ni siquiera lo “ve”, sino que interactúa con su campo electromagnético
(con sus fotones virtuales). El electrón está emitiendo continuamente una nube
de fotones virtuales que le rodea. La distribución de estos fotones está
definida por una función de onda. El detector no interactúa con el electrón
mismo, sino con su nube de fotones virtuales. Cuando el electrón pasa por una
rendija, toda su nube de fotones pasa por las dos rendijas así que interfiere
consigo misma y se distribuye según el patrón de interferencia. Para que uno de
estos fotones interactúe con la pantalla, la energía del electrón debe ser usada
en ese punto –si no se usa esa energía sencillamente no habría interacción-. Si
una vez hecha una interacción por un fotón con la pantalla, otro fotón
intentara interactuar con la pantalla otra vez, no habría interacción ya que no
habría más energía que permitiera que esa interacción ocurriera. Así que, cada
vez que enviamos un electrón, la pantalla mostrará sólo un punto, pero el
patrón total se definirá por la posibilidad de interacción (esto es, por la
distribución de la nube de fotones, una vez ha pasado por las dos rendijas, es
decir, por el patrón de interferencia). Esto significa que el electrón, la
partícula indetectable (pero transmisor de la energía), podría pasar sólo por
una rendija –o quizás no, realmente no nos importa- pero sus posibilidades de
ser detectado pasan realmente por ambas rendijas (en forma de una nube de
fotones que interfiere consigo misma).
Principio
de incertidumbre de Heisenberg para la energía-tiempo
Ver post: “Relación de
indeterminación de Heisenberg”:
https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg
Esta forma es la que se utiliza en mecánica cuántica para explorar las
consecuencias de la formación de partículas virtuales, utilizadas para estudiar
los estados intermedios de una interacción. Esta forma del principio de
indeterminación es también la utilizada para estudiar el concepto de energía
del vacío.
Dualidad
onda-partícula, Postulado de Louis de Broglie y longitudes de onda de un
electrón y de una pelota de beisbol
Ver post “Dualidad
onda-corpúsculo”
https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo
La dualidad
onda-corpúsculo, también llamada dualidad onda-partícula es
un fenómeno cuántico, bien comprobado empíricamente,
por el cual muchas partículas pueden exhibir comportamientos
típicos de ondas en unos experimentos mientras aparecen como partículas
compactas y localizadas en otros experimentos. Dado ese comportamiento dual, es
típico de los objetos mecanocúanticos, donde algunas partículas pueden
presentar interacciones muy localizadas y como ondas exhiben el fenómeno de
la interferencia.
De acuerdo con la física clásica existen diferencias claras
entre onda y partícula. Una partícula tiene una posición
definida en el espacio y tiene masa mientras que una onda se extiende en el
espacio caracterizándose por tener una velocidad definida y masa nula.
Actualmente se considera que
la dualidad onda-partícula es un “concepto de la mecánica cuántica
según el cual no hay diferencias fundamentales entre partículas y ondas: las
partículas pueden comportarse como ondas y viceversa”. (Stephen
Hawking, 2001)
Este es un hecho comprobado
experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de Broglie, físico francés de
principios del siglo xx. En 1924 en su tesis
doctoral, inspirada en experimentos sobre la difracción de electrones, propuso
la existencia de ondas de materia, es decir que toda materia tenía una onda
asociada a ella. Esta idea revolucionaria, fundada en la analogía con que la radiación tenía
una partícula asociada, propiedad ya demostrada entonces, no despertó gran
interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias
de producirse. Sin embargo, Einstein reconoció
su importancia y cinco años después, en 1929, De Broglie
recibió el Nobel en Física por su trabajo.
Su trabajo decía que la longitud
de onda de la onda asociada a la materia era:
Longitudes de onda del
electrón y de una pelota de beisbol:
http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html
Si se explora los valores de la longitud de onda de los objetos macroscópicos
ordinarios como pelotas de béisbol, se encontrará que sus longitudes de onda de
DeBroglie son ridículamente pequeñas. La comparación de la potencia de diez
para la longitud de onda, mostrará que las longitudes de onda de los objetos
ordinarios son mucho más pequeñas que un núcleo. La implicación es que para los
objetos ordinarios, nunca se verá ninguna evidencia de su naturaleza
ondulatoria, y para todos los fines prácticos pueden considerarse como
partículas.
Ecuación
de onda de Schroedinger, aplicada al caso de un túnel cuántico
Blog: “El efecto túnel a
detalle”
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
Ecuación de onda de
Schroedinger:
Ecuación de onda de Schroedinger para cada una de las tres regiones:
Soluciones de las funciones de
onda en las regiones i y III:
Es una expresión oscilatoria:
son ondas
Solución en la región II:
No es una expresión
oscilatoria
https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/
La entropía de Shannon, un concepto fundamental en la teoría
de la información, cuantifica la incertidumbre o
aleatoriedad en un conjunto de resultados posibles. Desarrollada por Claude
Shannon en su innovador artículo de 1948, “Una teoría matemática de la
comunicación”, esta medida proporciona un marco matemático para comprender el
contenido de la información. En esencia, la entropía de Shannon ayuda a
determinar la cantidad promedio de información producida por una fuente
estocástica de datos. Cuanto mayor sea la entropía, mayor será la incertidumbre
y más información se necesitará para describir el estado del sistema.
Matemáticamente, la entropía de Shannon (H) se define
mediante la fórmula:
H(X) = -Σ p(x) log₂ p(x),
donde p(x) representa la probabilidad de ocurrencia de cada
resultado posible x en una variable aleatoria X. La suma se realiza sobre todos
los resultados posibles. Esta fórmula revela que la entropía se maximiza cuando
todos los resultados son igualmente probables, lo que indica una incertidumbre
máxima. Por el contrario, si un resultado es seguro, la entropía es cero, lo
que refleja que no hay incertidumbre. Esta representación matemática es crucial
para varias aplicaciones en análisis de los
datos, criptografía y aprendizaje automático.
En el contexto de la compresión de datos, la entropía de
Shannon juega un papel fundamental en la determinación de los límites teóricos
de la compresibilidad. La entropía de una fuente de datos indica el número
mínimo de bits necesarios para codificar la información sin perder ningún
contenido. Los algoritmos de compresión, como la codificación de Huffman y
la codificación aritmética, aprovechan los principios de Shannon para reducir
el tamaño de los archivos de datos y al mismo tiempo preservar la información
esencial. Comprender la entropía de un conjunto de datos permite a los
ingenieros de datos optimizar el almacenamiento y la transmisión, lo que lo
convierte en una consideración crítica en las aplicaciones de big data.
Evolución de las mutaciones
del virus del Covid para reducir su entropía, según un estudio de Vopson:
https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics
Hallazgo en el ADN revela que
la vida dio su ‘salto matemático’ hacia la complejidad similar a los
"cambios de fase" estudiados en física
En el contexto del artículo científico sobre el origen de la
célula eucariota, se propone que la evolución genética enfrentó una situación
similar: encontrar nuevas proteínas útiles se volvió tan complejo que
solo un cambio en el “algoritmo” de búsqueda —la incorporación de secuencias no
codificantes— permitió seguir avanzando.
Un nuevo estudio sobre el origen de la célula eucariota
sugiere que, en la evolución genética, los genes crecieron hasta un punto
crítico en el que ya no era viable seguir aumentando el tamaño de las proteínas que
producían. Esa tensión estructural marcó un límite que obligó a cambiar de
estrategia.
En lugar de colapsar, la evolución reorganizó el sistema.
Así como en física nuclear ciertos núcleos logran mantenerse estables
incorporando nuevos patrones de enlace o adoptando otras configuraciones, la
genética superó su propio límite incorporando secuencias no codificantes,
como los intrones, y creando nuevas formas de regulación. El resultado no fue
el caos, sino una transición hacia una mayor complejidad. Igual que un átomo
puede ganar estabilidad con una nueva arquitectura nuclear, el ADN encontró un
camino evolutivo más robusto mediante una reestructuración profunda. El
hallazgo conecta de manera elegante biología y física, mostrando que los
límites estructurales también impulsan la innovación en la naturaleza.
¿Y si la gravedad fuera un
algoritmo? Una sorprendente teoría sobre vivir en una simulación
Un físico británico propone una idea tan provocadora como
fascinante: la gravedad no sería una fuerza física, sino una herramienta de
optimización de datos… como si el universo fuera una simulación
El universo como una especie de superordenador
Melvin Vopson, físico de la Universidad de Portsmouth, ha
presentado una nueva interpretación del funcionamiento del universo. Según su
estudio más reciente, la gravedad podría ser el resultado de un proceso
de compresión de información, no una atracción invisible entre cuerpos con
masa.
Es decir, el universo actuaría como una especie de
“ordenador cósmico” que busca la eficiencia al manejar la enorme cantidad de
datos que contiene. Si eso suena a ciencia ficción, es porque lo es… pero
también tiene bases científicas intrigantes.
Gravedad como función de eficiencia
Vopson sostiene que la gravedad no está “jalando” cosas
entre sí, como aprendimos en la escuela. En cambio, lo que hace es “empaquetar
información” para organizar la materia de la forma más eficiente posible.
Es como cuando comprimimos archivos en un .zip para que ocupen menos espacio en
el disco duro: reducimos el desorden y mantenemos todo más compacto.
En esta visión, la gravedad sería una especie de
algoritmo que minimiza el “peso informático” del universo,
simplificando la forma en que la materia se distribuye en el espacio. La razón
por la que los planetas, las estrellas y nosotros mismos estamos formados por
bloques cohesivos de materia no sería solo una consecuencia de la masa, sino
una decisión del sistema para optimizar el procesamiento de datos.
¿Pixeles en el espacio-tiempo?
Esta teoría se apoya en una idea aún más radical: que
el espacio-tiempo estaría compuesto por unidades discretas, como si
fueran píxeles en una pantalla. Cada una de estas unidades sería binaria:
estarían “encendidas” o “apagadas”, dependiendo de si contienen materia o no.
Tal como ocurre con los bits en un ordenador, que solo pueden tener dos
estados, estas unidades formarían la base fundamental de la realidad.
Así, cuando varios objetos o partículas ocupan el mismo
espacio, el “sistema” (el universo) opta por agruparlos como un solo bloque,
reduciendo la complejidad computacional. Es decir, si dos partículas están
demasiado cerca, la gravedad las “fusiona” en un objeto mayor, lo
que es más simple de procesar que muchas partículas sueltas. Un truco de
eficiencia digital.
De la entropía térmica a la “infodinámica”
Uno de los pilares de la física clásica es la segunda ley de
la termodinámica, que dice que la entropía siempre tiende a aumentar.
Es la razón por la que las cosas se desordenan con el tiempo, por la que el
hielo se derrite o una habitación se ensucia si no la limpias.
Vopson propone un giro: la segunda ley de la
infodinámica. En lugar de asumir que la información se desordena, sugiere
que puede tender al orden si eso beneficia al sistema. En otras palabras, el
universo buscaría reducir la entropía informativa, justo al revés
que con la energía.
Este comportamiento se parece más al de una simulación que
al de un sistema físico clásico. En los videojuegos, por ejemplo, los recursos
se cargan solo cuando son necesarios. No se representa cada hoja de cada árbol,
sino solo lo que el jugador ve, para reducir la carga de procesamiento. Esta
lógica parece similar a la que Vopson le atribuye a la gravedad.
La información tiene masa
En investigaciones anteriores, Vopson ya había planteado
otra idea audaz: la información tiene masa. Según sus cálculos, los
datos que componen el universo no son simplemente conceptos abstractos, sino
entidades físicas con peso propio. Un poco como ocurre con el ADN, que almacena
toda la información genética en una cadena molecular tangible.
Imagina que cada partícula del universo fuera una especie de
unidad de almacenamiento, como una memoria USB microscópica. Así, la
realidad física sería una gran base de datos en constante reorganización, y
las leyes de la física serían los algoritmos que la gestionan.
¿Estamos dentro de una simulación?
Esta teoría no prueba directamente que vivimos en una
simulación. Pero ofrece una nueva lente con la cual mirar fenómenos que
seguimos sin comprender del todo, como la propia gravedad. Por más que podamos
medirla y predecir sus efectos con enorme precisión, seguimos sin saber
por qué existe ni cómo surge.
El modelo de Vopson sugiere que la gravedad no es una causa,
sino una consecuencia. Un síntoma de que el universo opera bajo reglas de
procesamiento de información, igual que un videojuego necesita un motor gráfico
para mostrar los objetos.
Si esta visión resulta acertada, podría ser una de las
pistas más claras de que el universo no es una creación espontánea,
sino una construcción lógica, basada en código.
¿Qué implicaría esto para la ciencia?
Plantear que la gravedad es un algoritmo optimizador abre
puertas insospechadas. Para empezar, cambiaría radicalmente nuestra forma de
entender la física. Las teorías actuales buscan unificar la gravedad con la
mecánica cuántica, pero no lo han logrado aún. Esta perspectiva podría
ofrecer un puente entre lo físico y lo informático.
Además, cambiaría nuestra concepción de la materia y la
información. Si los datos son materia y la materia es información, entonces
todo el universo podría leerse como un gigantesco libro codificado.
O como un videojuego extremadamente avanzado, del que no somos más que
personajes conscientes dentro de un entorno virtual muy bien diseñado.
Un debate tan filosófico como científico
Las implicaciones de esta teoría no solo tocan la física,
sino también la filosofía. Si todo lo que percibimos es parte de una
simulación, ¿quién la creó? ¿Y por qué? ¿Podemos salir de ella o hackearla?
Aunque estas preguntas aún están lejos de tener respuesta,
lo cierto es que teorías como la de Vopson nos invitan a repensar lo que
creemos saber sobre el mundo. Y eso, en sí mismo, ya es una forma valiosa de
avance científico.
La información de los estados
de un sistema cuántico no se puede perder
https://gemini.google.com/app/2aef51477ffae076?hl=es-ES
La afirmación de que la información de los estados de un
sistema cuántico no se puede perder es un pilar fundamental de la mecánica
cuántica, arraigado en el principio de unitariedad. Esto significa que
la evolución de un sistema cuántico es siempre reversible y determinista
si se conocen todas las variables. Aquí te detallo las razones principales por
las que esto se considera cierto:
1. Evolución Unitaria de los Operadores Cuánticos
La evolución temporal de un estado cuántico está gobernada
por operadores unitarios. Matemáticamente, un operador unitario U
satisface la condición UU†=U†U=I, donde U† es la adjunta de U y I es la matriz
identidad. Esto implica varias cosas cruciales:
- Conservación
de la Norma: Los operadores unitarios conservan la
"longitud" o norma de un vector de estado cuántico. Esto es
esencial porque la norma de un estado cuántico representa la probabilidad
total de encontrar el sistema en alguno de sus posibles estados, y esta
probabilidad siempre debe ser 1 (o 100%). Si la norma cambiara, implicaría
que la información se está perdiendo o creando de la nada.
- Reversibilidad:
Dado que un operador unitario tiene una inversa (U−1=U†), cualquier
proceso cuántico descrito por un operador unitario es completamente
reversible. Si conoces el estado final, puedes aplicar la operación
inversa para recuperar el estado inicial sin ambigüedad. La pérdida de
información implicaría que no podrías reconstruir el pasado a partir del
presente.
- Conservación
del Producto Interno: Los operadores unitarios también conservan el
producto interno entre dos estados cuánticos. Esto significa que si dos
estados son distinguibles al principio, seguirán siendo distinguibles de
la misma manera después de la evolución unitaria. La información sobre sus
diferencias relativas se mantiene.
2. Teorema de No-Clonación
El teorema de no-clonación establece que es imposible
crear una copia idéntica arbitraria de un estado cuántico desconocido. Aunque
esto podría parecer contradictorio con la conservación de la información (uno
podría pensar que clonar preserva la información), en realidad lo refuerza. Si
se pudiera clonar un estado, se podría obtener información ilimitada sobre él,
lo que abriría la puerta a la extracción de información de formas que violarían
los principios cuánticos, como la incertidumbre de Heisenberg. El hecho de que
no se pueda copiar perfectamente un estado implica que la información contenida
en ese estado es intrínseca y no se puede duplicar sin alterar el original,
protegiendo así su unicidad.
3. Entrelazamiento y Decoherencia
Aunque a menudo se confunde, la decoherencia no es
una pérdida de información, sino una dispersión de la misma. Cuando un sistema
cuántico interactúa con su entorno (por ejemplo, con partículas de aire o
fotones), se entrelaza con ese entorno. La información sobre el estado
del sistema original no desaparece, sino que se distribuye y se
"esconde" en las correlaciones entre el sistema y su vasto entorno.
- Información
Distribuida: La información del estado cuántico original se vuelve
inaccesible localmente porque está dispersa a través de un enorme número
de grados de libertad del ambiente. Es como intentar encontrar una gota de
tinta en una piscina olímpica: la tinta no desaparece, pero ya no está
contenida en un solo lugar.
- Irreversibilidad
Aparente: La decoherencia hace que los estados cuánticos parezcan
"colapsar" o volverse clásicos, lo que sugiere una pérdida de
información. Sin embargo, esta irreversibilidad es solo aparente desde una
perspectiva práctica. En principio, si pudiéramos medir y controlar todos
los grados de libertad del entorno entrelazado, la información podría ser
recuperada. No es una pérdida fundamental, sino una dificultad práctica de
recuperación.
4. El Problema de la Información del Agujero Negro
El principio de conservación de la información es tan
fundamental que ha llevado a uno de los debates más profundos en la física
moderna: el problema de la información del agujero negro. Si la radiación
de Hawking causa que los agujeros negros se evaporen, ¿qué sucede con la
información de la materia que cayó en ellos?
- Paradoja:
Si la información se perdiera definitivamente dentro del agujero negro al
desaparecer este, la mecánica cuántica (que exige la conservación de la
información) estaría en conflicto directo con la relatividad general (que
describe la evaporación del agujero negro).
- Búsqueda
de Soluciones: Este conflicto ha impulsado décadas de investigación y
ha llevado a ideas como el "firewall" (pared de fuego) o la
teoría de cuerdas, que buscan resolver la paradoja garantizando que la
información, de alguna manera, escape o se preserve en la radiación
saliente o en el remanente del agujero negro. El hecho de que este sea un
problema tan grande subraya la importancia de la conservación de la
información en la mecánica cuántica.
En síntesis, la imposibilidad de perder información en los
estados cuánticos se deriva directamente de la naturaleza reversible y unitaria
de la evolución cuántica, el teorema de no-clonación, y la forma en que el
entrelazamiento dispersa la información en lugar de destruirla. Este principio
es tan central que cualquier aparente violación (como en el caso de los
agujeros negros) representa un desafío fundamental para nuestra comprensión del
universo.
Einstein y la teoría unificada: una nueva propuesta
reabre su idea más ambiciosa
·
Una formulación geométrica alternativa
plantea que el electromagnetismo podría entenderse sin partículas ni campos,
solo como curvaturas del espacio-tiempo
Una formulación geométrica alternativa plantea que el
electromagnetismo podría entenderse sin partículas ni campos, solo como
curvaturas del espacio-tiempo
Durante décadas, Albert Einstein persiguió un sueño
que nunca llegó a cumplir: unificar todas las fuerzas fundamentales en un
único marco matemático. Su obsesión era la llamada teoría unificada del
campo, una formulación capaz de describir tanto la
gravitación como el electromagnetismo bajo una sola estructura. Esa
búsqueda quedó inconclusa a su muerte, en 1955. Ahora, un estudio firmado
por los físicos Jussi Lindgren y Andras Kovacs, publicado en Journal of Physics: Conference Series, reabre
ese camino con una propuesta que prescinde de partículas, campos y cargas, y lo
reduce todo a una cuestión de geometría.
El modelo que presentan parte de una idea
radical: que el electromagnetismo no requiere una entidad física
separada que actúe sobre las partículas, sino que puede interpretarse como
una manifestación local de la geometría del espacio-tiempo. Apoyándose en una
extensión matemática de la relatividad general conocida como geometría de
Weyl, los autores afirman que la carga eléctrica no es más que una
compresión geométrica, una alteración en la estructura del espacio-tiempo
que modifica las trayectorias de las partículas. Así, los electrones o protones
no “sienten” una fuerza: simplemente siguen geodésicas —caminos naturales en
ese entorno curvado— como si no existiera nada externo actuando sobre ellos.
Una reformulación del electromagnetismo desde la
geometría
La propuesta implica una reformulación completa de las
ecuaciones clásicas del electromagnetismo. En lugar de las conocidas ecuaciones
de Maxwell, el modelo parte de un principio variacional, similar
al que se usa para derivar las leyes del movimiento en física teórica. Este
enfoque lleva a una serie de ecuaciones no lineales, que describen
el comportamiento electromagnético como una propiedad del espacio, no como una
fuerza aplicada desde fuera. Lindgren las denomina “Ecuaciones Generalizadas de
Maxwell” y las considera un puente natural hacia la integración de la mecánica cuántica.
Uno de los aspectos más llamativos del estudio es
su reinterpretación de la ecuación de Dirac, fundamental para
describir partículas con spin, como el electrón. Según los autores, esta
ecuación no necesita postular propiedades cuánticas a priori, sino
que puede deducirse como una consecuencia natural del tipo de geometría que
adopta el espacio-tiempo en determinadas regiones. La frecuencia asociada al
movimiento ondulatorio del electrón —el fenómeno conocido como Zitterbewegung,
una oscilación a la velocidad de la luz— sería, en esta visión, el
origen profundo de la función de onda cuántica.
Más allá de la física clásica: efectos cuánticos desde la
curvatura
El modelo también ofrece una explicación alternativa
al límite clásico entre la física cuántica y la clásica. Hasta ahora, se
asumía que este umbral dependía de la intensidad de los campos (el llamado
límite de Schwinger). Pero en esta nueva formulación, la clave estaría
en la curvatura local del universo, concretamente en la integral
del potencial vectorial, que determina cuándo emergen los efectos cuánticos.
Esta visión sitúa la transición entre lo clásico y lo cuántico no en una
propiedad del campo, sino en la forma del espacio en sí.
Más allá de la coherencia matemática, la propuesta
tiene implicaciones que podrían verificarse experimentalmente. Por ejemplo,
predice la posibilidad de que partículas cargadas experimenten desviaciones sin
necesidad de un campo electromagnético presente, lo que se relaciona
directamente con el efecto Aharonov-Bohm, un fenómeno cuántico en el
que el potencial modifica la fase de una partícula sin que haya fuerza alguna
actuando sobre ella. En este marco, el espacio-tiempo deja de ser un
escenario pasivo para convertirse en un medio activo, que puede alterar el
comportamiento de la materia sin intervención directa.
Una teoría del todo sin partículas nuevas ni dimensiones
ocultas
Los autores defienden que esta aproximación
geométrica podría ofrecer una alternativa viable a otras grandes teorías
unificadoras como la teoría de cuerdas, que requieren dimensiones
adicionales y entidades aún no observadas. “Nuestra propuesta no necesita
partículas nuevas, ni dimensiones ocultas —explica Lindgren—. Solo una forma
distinta de mirar la geometría del universo”. Aun así, reconocen que se
trata de un primer paso y que su modelo necesita desarrollos matemáticos más
amplios y una revisión detallada de su compatibilidad con las
predicciones experimentales ya conocidas.
El algoritmo de Grover como parte fundamental de la
propia naturaleza
Cualquier ser vivo de la Tierra usa el mismo código, en el
cual el ADN almacena información mediante cuatro bases de nucleótidos. Las
secuencias de nucleótidos codifican información para construir proteínas a
partir de un alfabeto de 20 aminoácidos.
Pero ¿por qué se trata de estos números, 4 y 20, y no otros?
En 2000, solo unos años después de que Grover publicara su trabajo, el
investigador del Instituto Indio de Ciencia de Bangalore, Apoorva Patel
demostró que el algoritmo de Grover podía explicar estos números.
La idea de Patel está relacionada con la forma en la que el
ADN se ensambla dentro de las células. En esta situación, la maquinaria
molecular de cada célula debe buscar el nucleótido correcto dentro de una sopa
molecular de bases. Si hay cuatro opciones, una búsqueda clásica necesitaría
una media de cuatro pasos. Por lo tanto, la maquinaria tendría que probar
cuatro bases diferentes durante cada paso de ensamblaje.
Pero la búsqueda cuántica mediante el algoritmo de Grover es
mucho más rápida: Patel demostró que cuando hay cuatro opciones, una búsqueda
cuántica puede distinguir entre cuatro alternativas en un solo paso. De hecho,
cuatro es el número óptimo.
Este planteamiento también explica por qué hay 20
aminoácidos. En el ADN, cada conjunto de tres nucleótidos define un solo
aminoácido. Entonces, la secuencia de tripletes genéticos es la que define la
secuencia de aminoácidos en una proteína.
Pero durante el ensamblaje de proteínas, cada aminoácido es
elegido entre 20 opciones diferentes. El algoritmo de Grover también explica
este número: una búsqueda cuántica de tres pasos puede encontrar un objeto en
una base de datos que contenga hasta 20 tipos de entrada. De nuevo, el 20 es el
número óptimo.
En otras palabras, si los procesos de búsqueda involucrados
en el ensamblaje de ADN y proteínas deben ser lo más eficientes posible, el
número de bases existentes debe ser cuatro y el número de aminoácidos debe ser
20, exactamente tal y como es en realidad. La única condición es que las
búsquedas sean de naturaleza cuántica.
Puede ser que la vida sea solo un ejemplo de la búsqueda
cuántica de Grover y que este algoritmo sea en sí mismo una propiedad
fundamental de la naturaleza. Si la idea se confirma, podría resultar
grandiosa.
Endosimbiosis
La gran bióloga Lynn Margulis propuso en 1967 que la
endosimbiosis está detrás del origen de las células eucariotas. Según ella, un
procariota ancestral se habría asociado con bacterias heterótrofas, es decir,
capaces de oxidar la materia orgánica. Esta asociación, ocurrida hace unos 2000
millones de años, se habría consolidado, de forma que las bacterias perdieron
su capacidad de vida libre y se convirtieron en las mitocondrias, los orgánulos
en los que se genera la energía que necesitan nuestras células. Un segundo
evento de endosimbiosis, hace 1500 millones de años, asoció a un eucariota con
cianobacterias fotosintéticas, capaces de producir materia orgánica utilizando
la energía de la luz. Esas bacterias terminaron por constituir orgánulos
celulares, los cloroplastos. De esta forma algas y plantas verdes llegaron a
ser capaces de utilizar la luz para sintetizar compuestos orgánicos.
Las cianobacterias de la fotosíntesis distorsionan el
espacio-tiempo
Explicación alternativa de la distorsión del espacio-tiempo
producida por una entropía cuántica
La entropía es cuántica
La entropía acopla los campos de materia con la geometría
del espacio-tiempo
La entropía cuántica describe las diferencias entre materia
y espacio-tiempo
La gravedad cuántica existe en forma de partículas y de
ondas
Si la gravedad existe en forma de partículas, eso podría
explicar la materia oscura
Al principio el desorden era máximo (la entropía era mínima),
por lo que el espacio-tiempo tenía una energía baja, una curvatura pequeña y
una constante cosmológica pequeña
Cuando aparece un
salto clave en la evolución, la complejidad aumenta, la entropía disminuye y el
espacio-tiempo cambia
Un ejemplo claro de salto cuántico evolutivo clave sería
cuando las cianobacterias colaboran para producir la fotosíntesis
Así pues, acción de cianobacterias = fotosíntesis = cambio
en entropía = cambio en geometría del espacio-tiempo = distorsión del
espacio-tiempo = paso del electrón desde el punto A al B, a pesar de que NO
tiene energía suficiente
Conclusión: las cianobacterias son capaces de crear
distorsiones del espacio-tiempo y al hacerlo consiguen que los electrones de la
fotosíntesis lleguen, por efecto túnel, a su meta (aunque no tengan energía
suficiente)
Cuando ocurrió un salto evolutivo clave, por ejemplo, el
descubrimiento de la fotosíntesis por unas cianobacterias en algún lugar de la
Tierra, esa experiencia quedó grabada en el Horizonte de Sucesos, y de ahí
cogieron la información el resto de las cianobacterias para reproducirlo a
nivel masivo
Es como si esa información quedara grabada en la “nube” de
las cianobacterias, espacio especial del Horizonte de Sucesos reservado para la
comunidad de cianobacterias
Los experimentos hechos por cada cianobacteria quedan
grabados originalmente por separado, pero con el objetivo último de reducir el
espacio ocupado en el Horizonte de Sucesos, se terminan agrupando todos los
experimentos de cada cianobacteria en unos pocos
El proceso anterior es consecuencia de la segunda ley de la
infodinámica, propuesta por Vopson
El espacio-tiempo de ese Horizonte de
Sucesos no es continuo, es discreto, como una pixelación
Propuesta del Principio Holográfico: lo que vemos que sucede
en el horizonte de un agujero negro es una representación perfecta de lo que
sucede en el interior
Si nuestro Universo está rodeado por un agujero negro, basta
ver todo lo que ha quedado grabado en su Horizonte de Sucesos para saber lo que
ha ocurrido en nuestro Universo, desde el principio de los tiempos
Eso sí, hay una restricción: un cierto volumen físico de
nuestro Universo NO puede contener más información que la que se puede
codificar en su frontera, el Horizonte de Sucesos del agujero negro que nos
rodea
¿Cuál sería la unidad mínima de información?, ¿el bit
cósmico?
A es el área de Planck
Con este razonamiento, la propuesta del Principio
Holográfico es que el horizonte del agujero negro contiene un bit de
información por cada pequeño recinto de tamaño igual al área de Planck sobre su
superficie.
Un agujero negro que almacenase tres millones de bits de
información cuántica debería tener un área de tres millones de áreas de Planck,
que son diminutas.
Si nos vamos a un caso bien sencillo, como podría ser un
agujero negro de un centímetro de radio (que es lo que mediría el de la Tierra
si esta se comprimiese), la información que podría almacenar sería de:
Para calcular el área del agujero hemos usado la fórmula del
área de una esfera.
Esto es una barbaridad. Un ordenador normal almacena no más
de 10 elevado a 13 bits, una cantidad prácticamente nula en comparación con la
que nos ha salido. La propia Tierra, en principio, requiere menos bits de
información para ser descrita que esa cantidad.
Según la segunda ley de la infodinámica descrita por Vopson,
la optimización del “espacio en disco” necesario para almacenar esa información
hace que las masas puntuales tiendan a moverse y fusionarse en un único objeto,
siguiendo el principio de minimización de la entropía informativa
Según Vopson, el virus del Covid evolucionó hacia un estado
de menor entropía
La segunda ley de la infodinámica es cierta no solo a nivel
de moléculas sino de seres humanos: la atracción / reducción de distancias entre
dos personas reduce la entropía infodinámica, o lo que es lo mismo aumenta la
complejidad
Conclusión
Mi memoria radica en un agujero negro que nos rodea, la de
todo nuestro Universo también
Ese agujero negro es la brana gravitatoria del Modelo de
Randall-Sundrum,que está en la 5º dimensión
Ese agujero negro está compuesto de partículas S
superpesadas, de masa negativa
Sabemos, según Thorne, que si un agujero negro gira
rápidamente, permite que exista vida en nuestro mundo
Todos los estados de nuestro pasado quedan grabados, porque
según la Mecánica Cuántica, no se puede perder la información de la evolución
de una función de onda
La evolución de la función de onda de un determinado sistema
queda determinada por la ecuación de onda de Schroedinger de ese sistema
La información queda grabada en el horizonte de sucesos de
ese agujero negro, conforme a lo que predice el Principio Holográfico y la
Conjetura de Maldacena
El Universo evoluciona optimizando el espacio ocupado por la
información, según la segunda ley de la infodinámica de Vopson
Si en ese agujero negro está grabado todo lo que ha sucedido
en nuestro Universo, ahí es donde radica toda la sabiduría
Webs relacionadas
¿Y si el Universo está flotando en un extraño océano de
masa negativa?
Masa negativa: Explicando el universo que no vemos
https://www.astrobitacora.com/masa-negativa-explicando-el-universo/
Crean un objeto con "masa negativa": va para el
lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton
https://www.bbc.com/mundo/noticias-39642708
Nuevo modelo para unificar la materia oscura y la energía
oscura en gravedad negativa
Nuevos indicios de que el espacio-tiempo estaría hecho de
recuerdos
La física cuántica ha llegado al rescate de los
neurocientíficos. Aspira a explicar la consciencia humana
Una investigación asegura que cada célula de nuestro
cuerpo podría ser consciente
El cerebro estaría conectado con el cosmos a escala
cuántica
https://www.tendencias21.es/El-cerebro-estaria-conectado-con-el-cosmos-a-escala-cuantica_a44304.html
Nueva teoría: demuestran que la gravedad puede existir
sin masa
Crean un objeto con "masa negativa": va para el
lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton
https://www.bbc.com/mundo/noticias-39642708
El Big Bang pudo crear un 'Universo espejo', en el que
el tiempo va hacia atrás
«¿Por qué las cosas se caen?», una explicación de
Susskind a través de «Relatividad General = Mecánica Cuántica»
Maldacena y Milekhin explican el agujero de gusano de
la película Interstellar (2014) usando la teoría de Randall-Sundrum
Qué es la 5ª dimensión y dónde está escondida
https://www.bbc.com/mundo/noticias-44725096
Mecánica cuántica y cerebro: una revisión crítica
https://neurorgs.net/investigacion/mecanica-cuantica-y-cerebro-una-revision-critica/
¿Es relevante la mecánica cuántica para la comprensión
científica del problema mente-cerebro?
El efecto túnel a detalle
https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/
El principio holográfico: el más bello avance hacia la
gravedad cuántica
Una nueva teoría sugiere que la gravedad surge de la
entropía, lo que podría unir la relatividad y la mecánica cuántica
https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/
https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html
Is
gravity evidence of a computational universe?
Las dos caras del espacio-tiempo
https://culturacientifica.com/2025/07/15/las-dos-caras-del-espaciotiempo/
Einstein y la teoría unificada: una nueva propuesta
reabre su idea más ambiciosa
Una nueva teoría sugiere que la gravedad surge de la
entropía, lo que podría unir la relatividad y la mecánica cuántica
https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/
Un famoso algoritmo cuántico podría ser parte de la
propia naturaleza
https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/
Hallazgo en el ADN revela que la vida dio su ‘salto
matemático’ hacia la complejidad similar a los "cambios de fase"
estudiados en física
Qué es: la entropía de Shannon
https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/
¿Y si la gravedad fuera un algoritmo? Una sorprendente
teoría sobre vivir en una simulación
¿Cuáles son los dos pasos principales del algoritmo de
Grover y cómo contribuyen al proceso de búsqueda?
El principio holográfico: el más bello avance hacia la
gravedad cuántica.
EUREKA La conjetura de Maldacena. De la mecanica cuántica
al universo holográfico