domingo, 3 de agosto de 2025

Nuestro espacio-tiempo tiene asociado un Agujero Negro gemelo, hecho de partículas S supersimétricas de masas negativas, que está hecho de pixeles cuánticos y en cuyo Horizonte de Sucesos queda grabado todo, para que no se pierda la información de los estados cuánticos, según exige la Mecánica Cuántica

 

Nuestro espacio-tiempo tiene asociado un Agujero Negro gemelo, hecho de partículas S supersimétricas de masas negativas, que está hecho de pixeles cuánticos y en cuyo Horizonte de Sucesos queda grabado todo, para que no se pierda la información de los estados cuánticos, según exige la Mecánica Cuántica

Estos pixeles cuánticos de espacio-tiempo tienen existencia propia, guardan información de los estados cuánticos evolutivos de cada función de onda, de forma similar a como el ADN guarda la información de los estados evolutivos de los estados biológicos

Un buen objetivo sería descubrir la molécula similar al ADN para almacenar la información de los estados de la evolución de cada función de onda

Si la molécula del ADN tiene masa, es de esperar que la molécula que almacena los estados cuánticos de cada función de onda pueda también tener masa

La evolución de esa molécula que almacena los estados cuánticos, que tiene masa, queda definida por la segunda ley de la infodinámica de Vopson

Esa evolución de masas explica los grandes saltos evolutivos, por ejemplo, la colaboración entre cianobacterias para originar la fotosíntesis, la mutación del virus del Covid…y la atracción sexual para conseguir la continuación de las especies

 

Álvaro Ballesteros

03. Agosto. 2025

 

RESUMEN

Todos los estados de nuestro pasado quedan grabados, porque según la Mecánica Cuántica, no se puede perder la información de la evolución de una función de onda

La evolución de la función de onda de un determinado sistema queda determinada por la ecuación de onda de Schroedinger de ese sistema

La Supersimetría, predicción de la Teoría de Cuerdas, dice que todas las partículas subatómicas que conocemos, como electrones y fotones deben tener un equivalente mucho más pesado, que se denominan “partículas S”

Las partículas S predichas son increíblemente pesadas

Lo que postula SUSY (Supersimetría) es que a cada partícula del Modelo Estándar le corresponde una compañera supersimétrica que tiene el spin contrario

Es decir, por cada fermión (leptones y quarks), que tienen spin semientero, le corresponde un bosón (que tiene spin entero) y por cada bosón (que tienen spin entero) le corresponde un fermión (que tiene spin semientero)

Por tanto, el número de partículas predicho por SUSY sería el doble que en el Modelo Estándar

Las partículas de masa positiva y sus partículas S correspondientes fueron creadas en fluctuaciones cuánticas

Las partículas S son increíblemente pesadas y serían las causantes de la materia oscura, un Universo de masas negativas

Jamie Farnes sugiere que la Materia Oscura es un Universo de masas negativas que rodea nuestro Universo de masas positivas

Julian Barbour propone que hay dos Universos, uno en el que el tiempo se mueve hacia adelante, en el que el caos aumenta, y otro hacia atrás, en el que el caos disminuye y la complejidad aumenta

Ese Universo de masas negativas, lleno de partículas S superpesadas, tiene todas las características de los agujeros negros

Ambos Universos están entrelazados, dado que tuvieron un origen común, para respetar la simetría masas positivas = masas negativas

Ambos Universos nacieron a partir de una fluctuación cuántica

De acuerdo con la conjetura EPR = ER, donde hay entrelazamiento hay agujeros de gusano

Ambos Universos están conectados a través de agujeros de gusano  

La información queda grabada en el Horizonte de Sucesos del agujero negro, conforme a lo que predice el Principio Holográfico y la Conjetura de Maldacena

Ese Universo de masas negativas es la brana gravitatoria del Modelo Randall-Sundrum

Esa brana gravitatoria está en la 5º dimensión definida por ese Modelo

Ese otro Universo distorsiona el espacio-tiempo de nuestro Universo

Esa distorsión de nuestro espacio-tiempo es lo que aparece ante nuestros ojos como la fuerza de la gravedad

Ese agujero de gusano se abre gracias a las masas negativas del agujero negro, según la solución de la Relatividad General descubierta por Kip Thorne

Más sencillamente, hablando en términos de energía, el otro Universo nos proporciona energía…. se comunica con nosotros, nos envía energía oscura

¿Hay alguna manera de “conseguir llamar “a esa energía?: en todos los casos de entrelazamiento nos valemos de esa energía, que es capaz de distorsionar el espacio-tiempo para conseguir esa comunicación instantánea

 

¿Cuál sería la función del observador, según mi visión del Modelo Randall-Sundrum?

La función del observador es capaz de activar la comunicación instantánea entre branas, activar la gravedad, activar la energía oscura, activar el agujero de gusano (hacerlo transitable, según el concepto de agujero de gusano transitable de  Kip Thorne)

Conclusión: si la mente del observador es capaz de activar la comunicación entre ambas branas / gravedad / energía oscura / agujero de gusano, entonces la conclusión lógica es que la mente / conciencia está en un Universo superior de 5 dimensiones (4 espaciales y 1 temporal), o sea en la brana gravitatoria

La mente / conciencia no es solo humana: en la fotosíntesis la mente / conciencia está en los cloroplastos y/o las bacterias que fueron capaces de diseñar el proceso fotosintético

La conciencia de las bacterias también trabaja en un espacio-tiempo de 5 dimensiones

La mente activa, como la base de un transistor, que la energía oscura aparezca en nuestro Universo…. La energía oscura es la que iría “del emisor al colector de ese transistor”

Por terminar con esta similitud, el cuello de los agujeros de gusano sería el emisor / colector de ese transistor y la energía oscura activaría la base de ese transistor / agujero de gusano

¿Qué es lo que hace la mente para activar esos transistores?: fijar su atención en el experimento…centrar la atención sobre la fotosíntesis / superconductividad / actividad neuronal

La mente / conciencia, al estar trabajando en un espacio-tiempo de 5 dimensiones, es capaz de manejar el espacio (comunicación instantánea) y hacer que el tiempo vaya hacia adelante o atrás

En Interstellar, la visión de Kip Thorne hace que Cooper, desde el Teseracto, sea capaz de hablar con su hija / consigo mismo yendo al pasado

Para que la mente atraiga la energía oscura, tiene que concentrarse en el experimento, vaciándose de otros pensamientos que la distraigan

La energía oscura estaría contenida en la brana gravitatoria

¿Cuál sería la función del observador, según mi visión del Modelo Randall-Sundrum?

La función del observador es capaz de activar la comunicación instantánea entre branas, activar la gravedad, activar la energía oscura, activar el agujero de gusano (hacerlo transitable, según el concepto de agujero de gusano transitable de  Kip Thorne)

Conclusión: si la mente del observador es capaz de activar la comunicación entre ambas branas / gravedad / energía oscura / agujero de gusano, entonces la conclusión lógica es que la mente / conciencia está en un Universo superior de 5 dimensiones (4 espaciales y 1 temporal), o sea en la brana gravitatoria

La mente / conciencia no es solo humana: en la fotosíntesis la mente / conciencia está en los cloroplastos y/o las bacterias que fueron capaces de diseñar el proceso fotosintético

La conciencia de las bacterias también trabaja en un espacio-tiempo de 5 dimensiones

La mente activa, como la base de un transistor, que la energía oscura aparezca en nuestro Universo…. La energía oscura es la que iría “del emisor al colector de ese transistor”

Por terminar con esta similitud, el cuello de los agujeros de gusano sería el emisor / colector de ese transistor y la energía oscura activaría la base de ese transistor / agujero de gusano

¿Qué es lo que hace la mente para activar esos transistores?: fijar su atención en el experimento…centrar la atención sobre la fotosíntesis / superconductividad / actividad neuronal

La mente / conciencia, al estar trabajando en un espacio-tiempo de 5 dimensiones, es capaz de manejar el espacio (comunicación instantánea) y hacer que el tiempo vaya hacia adelante o atrás

En Interstellar, la visión de Kip Thorne hace que Cooper, desde el Teseracto, sea capaz de hablar con su hija / consigo mismo yendo al pasado

Para que la mente atraiga la energía oscura, tiene que concentrarse en el experimento, vaciándose de otros pensamientos que la distraigan

La energía oscura estaría contenida en la brana gravitatoria

El espacio-tiempo de ese Horizonte de Sucesos no es continuo, es discreto, como una pixelación

"La segunda ley de infodinámica describe la evolución temporal de la entropía de los estados de información en un sistema aislado hacia el equilibrio", explica Vopson en su artículo. Según esta idea, la materia en el espacio estaría obligada a reorganizarse para reducir su huella informativa, no para maximizarla.

Esta perspectiva lleva a pensar que el espacio-tiempo no sería continuo, sino "discreto, similar a una pixelación o al mallado en análisis de elementos finitos". Cada "píxel" del espacio almacenaría información sobre los objetos que contiene, como una especie de gigantesca memoria cósmica.

 

https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html

Según Vopson, el propio proceso de agrupación está impulsado por una fuerza entrópica: "La fuerza atractiva generada por el requerimiento de reducir la entropía de la información tiene todas las características de una fuerza gravitacional". Así, la gravedad no sería más que el esfuerzo del universo por mantener su información comprimida y organizada.

Aplicando esta idea, el autor consigue derivar la ley de la gravitación universal de Newton: "Recuperamos una expresión de la fuerza entrópica que es idéntica a la ley de la gravedad de Newton". Esto implica que lo que percibimos como gravedad podría ser un efecto secundario de la tendencia fundamental del cosmos a optimizar su almacenamiento de datos.

 

Cada pixel tiene la longitud de Planck: 1,6 x 10 exp -35 metros

Por debajo de la longitud de Planck aparecen los efectos de la gravedad cuántica

Cada pixel es único y está definido por información exclusiva de él

Por visualizar, cada pixel tiene propiedades que lo definen, como una celda de un Excel

Los pixeles son la base para demostrar la segunda ley de la infodinámica de Vopson

Los pixeles pueden ser la base para el cálculo integral de posibles ecuaciones de leyes básicas del Universo, como es el caso de la ley de Gauss del campo eléctrico, una de las ecuaciones de Maxwell del electromagnetismo:

https://www2.montes.upm.es/dptos/digfa/cfisica/electro/gauss.html

Realmente, la integral del flujo eléctrico se puede pensar como integral de los campos eléctricos que hay en cada pixel de Planck

Cada pixel de Planck tiene números cuánticos propios, como los tienen los electrones o los fotones

El número cuántico de cada pixel incluye información sobre los objetos que contiene, por ejemplo, la posición y velocidad de la masa que alberga

También cada pixel contiene información sobre los campos eléctrico y/o magnéticos que hay en él

Cada pixel de nuestro Universo tiene un pixel gemelo en el Universo gemelo hecho de partículas S, superpesadas

Siguiendo este ejemplo, en ese pixel del Universo S quedan grabados todos los estados del campo eléctrico que ha tenido el pixel de nuestro Universo a lo largo del tiempo

O sea, cada pixel del Universo S guarda trazabilidad de todo lo que le ha ocurrido a todas las partículas de nuestro Universo de Materia Ordinaria

Así, tenemos en los pixeles de nuestro Universo S almacenada una gigantesca memoria cósmica

El Universo gemelo, donde radica toda la información de todo lo que ha pasado en nuestro Universo, trata de optimizar su “espacio en disco” por medio de lo que le impone la segunda ley de la infodinámica de Vopson

Si en el Horizonte de Sucesos del Universo S queda grabado todo lo que ha sucedido en nuestro Universo, ahí es donde radica toda la sabiduría

Asimismo, todo lo que le ocurre ahora a una persona se está grabando en ese Horizonte de Sucesos

Eso quiere decir que mis recuerdos y los de todo el resto de los seres de este mundo están grabados en ese Horizonte de Sucesos

Así pues, el espacio-tiempo no es un simple escenario pasivo sino que es un participante activo con capacidad ilimitada para almacenar y recordar información

Cada celda cuántica de espacio-tiempo funciona como una unidad de memoria elemental

Así pues, el espacio-tiempo no solo permite que las cosas sucedan en él, sino que también las recuerda activamente

Las propiedades cuánticas de cualquier materia o campo que haya en el espacio-tiempo de nuestro Universo de materia ordinaria se "imprimen" en las celdas del horizonte de sucesos del Universo de partículas S

Bajo determinadas circunstancias, se puede recuperar la información previamente codificada

De esta manera, queda preservado la ley fundamental de la Mecánica Cuántica que prohíbe que dice que la información de los estados cuánticos de las partículas definidas en el Modelo Estándar NO se puede perder

 

Conjetura de Maldacena / Correspondencia AdS/CTF: Equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por uno.

Correspondencia AdS/CFT:

https://www.wikiwand.com/es/Correspondencia_AdS/CFT

En física teórica, la correspondencia AdS/CFT (espacio anti-de Sitter/teoría conforme de campos) también llamada conjetura de Maldacenadualidad Maldacena o dualidad gauge/gravedad, es una relación conjeturada entre dos tipos de teorías físicas. Por un lado están los espacios anti-de Sitter (AdS) que se utilizan en las teorías de la gravedad cuántica, formulados en términos de la teoría de cuerdas o la teoría M. En el otro lado de la correspondencia están las teorías de campos conformes (CFT) que son teorías de campos cuánticos, que incluyen teorías similares a las teorías de Yang-Mills que describen partículas elementales.

La dualidad representa un gran avance en nuestra comprensión de la teoría de cuerdas y la gravedad cuántica. Esto se debe a que proporciona una formulación no perturbativa de la teoría de cuerdas con ciertas condiciones de frontera y porque es la realización más exitosa del principio holográfico, una idea en gravedad cuántica propuesta originalmente por Gerard 't Hooft y promovida por Leonard Susskind.

En física, la correspondencia AdS/CFT es la equivalencia entre una teoría de cuerdas o una supergravedad definida en una cierta clase de espacio anti-de Sitter y una teoría conforme de campos definida en su frontera con dimensión menor por uno.

El espacio anti-de Sitter (AdS) corresponde a una solución a las ecuaciones de Einstein con constante cosmológica negativa, y es una teoría clásica de la gravedad; mientras que la teoría conforme de campos (CFT:Conformal Field Theory) es una teoría cuántica. Esta correspondencia entre una teoría clásica de la gravedad y una cuántica, puede ser el camino hacia la gravedad cuántica.

La correspondencia AdS/CFT fue propuesta originalmente por el físico argentino Juan Maldacena a finales de 1997, y algunas de sus propiedades técnicas pronto fueron clarificadas en un artículo de Edward Witten y otro artículo de Gubser, Klebanov y Polyakov. Para 2015, el artículo de Maldacena tenía más de 10.000 citas, convirtiéndose en el artículo más citado en el campo de la física de partículas.

 

Agujeros negros primordiales, MACHOs y WIMMP´s

Los agujeros negros primordiales podrían explicar la materia oscura, el crecimiento de las galaxias y mucho más

https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales

Un día, hace poco más de cinco años, Ely Kovetz almorzaba con sus colegas de la Universidad Johns Hopkins de Baltimore y discutía un rumor tentador. Al igual que muchos en la comunidad de físicos, Kovetz había escuchado el rumor sobre una posible señal de un observatorio de física estadounidense recientemente puesto en operación. El observatorio estaba diseñado para captar perturbaciones en el tejido del espacio-tiempo, ondulaciones creadas, entre otras cosas, por agujeros negros que chocan entre sí. Lo más intrigante es que la señal parecía haber sido creada por objetos masivos, mucho más pesados de lo que se esperaba. Eso apuntaba a algunas posibilidades sorprendentes.

“Lo primero que pensó todo el mundo fue ‘¿Qué? Esto no puede ser. Esto es imposible’”, recuerda Kovetz, físico de la Universidad Ben-Gurión de Israel y profesor visitante en Johns Hopkins. Pero entonces empezó a surgir una sospecha más emocionante. Tal vez, pensaron, esto podría ser una señal de agujeros negros primordiales.

¡Agujeros negros desde el inicio de los tiempos! Parece el título de una película de ciencia ficción de bajo presupuesto, pero fracciones de segundo después de que naciera nuestro universo, un enjambre de voraces agujeros negros podría haberse formado espontáneamente a partir de la ardiente energía que impregnaba el cosmos. Apoyados por las matemáticas y la teoría, pero nunca observados definitivamente, estos agujeros negros primordiales son una posibilidad que ha fascinado a los físicos durante casi medio siglo, ganando o perdiendo popularidad a medida que nuevas observaciones parecían apoyar o excluir su existencia.

Las desconcertantes señales de 2015 del Observatorio de Ondas Gravitatorias por Interferometría Láser estadounidense (LIGO, por sus siglas en inglés), y otras docenas de detecciones realizadas por el observatorio y su homólogo europeo, Virgo, han alimentado un renovado interés por la idea, con cientos de artículos publicados sobre ellos en tan solo los últimos cinco años.

Los agujeros negros primordiales, de existir, serían entidades masivas que no emiten luz, por lo que serían invisibles. Dado que estarían dispersos por todo el universo, podrían ayudar a dar sentido a una amplia variedad de observaciones extrañas que hasta ahora han desafiado la explicación. Una de las principales razones por las que los investigadores se sienten atraídos por estos extraños agujeros negros es que podrían resolver uno de los mayores y más enigmáticos misterios de la astrofísica: la identidad de la materia oscura.

Aunque no puedan detectarla, los físicos saben que la materia oscura existe porque sus efectos gravitatorios se ven por todo el cosmos. Pero nadie sabe de qué está hecha. Los agujeros negros masivos primordiales podrían ser la respuesta que se busca desde hace tiempo. Estos grandes y pesados objetos podrían haber servido también como anclas alrededor de las cuales se unieron las primeras galaxias, otro enigma que se ha resistido durante mucho tiempo a la explicación.

Aunque sigue habiendo escepticismo, los verdaderos creyentes esperan con impaciencia los nuevos proyectos de telescopios y estudios del cielo que podrían llevar finalmente a estas bestias cautivadoras de la esfera de la especulación al reino de la realidad.

Varias galaxias chocan entre sí en el famoso Cúmulo de la Bala, dejando cúmulos de gas caliente (mostrados en rosa) y una cantidad aún mayor de materia oscura (mostrada en azul). Algunos físicos creen que los agujeros negros primordiales podrían constituir una fracción significativa de la materia oscura del universo.

CRÉDITO: NASA HST / CXC / MAGELLAN

De MACHOs y WIMPs

Los agujeros negros ordinarios surgen de la muerte. Cuando una gran estrella llega al final de su vida, explota en una espectacular supernova. El pesado núcleo de la estrella, que puede pesar al menos varias veces la masa del Sol, se colapsa hasta formar un objeto compacto tan denso que ni siquiera la luz puede escapar a su atracción gravitatoria. Ha nacido un agujero negro.

En los años setenta, el brillante físico Stephen Hawking y su estudiante de doctorado Bernard Carr propusieron otra posible vía de creación para los agujeros negros. Se sabía que, poco después del big bang, el universo estaba lleno de una espesa sopa de radiación y partículas fundamentales como los quarks y los gluones, los componentes básicos de los protones y los neutrones. Las variaciones naturales de densidad en la sopa habrían dejado algunas regiones con más material y otras con menos. Las ecuaciones de Hawking y Carr demostraron que las zonas con suficiente radiación y partículas empaquetadas en ellas podrían haber colapsado sobre sí mismas y formado agujeros negros con una amplia gama de tamaños posibles.

Esta idea se archivó, pero se desempolvó en los años noventa, cuando el debate sobre lo que podría constituir la materia oscura empezó a calentarse. La enigmática sustancia se ha visto tirando gravitatoriamente de las estrellas y galaxias y haciéndolas girar mucho más rápido de lo esperado. Las observaciones sugieren que esta materia oscura invisible es tan omnipresente que supera en más de cinco a uno a la materia que podemos ver en el cosmos.

Un bando se inclinó por la explicación de que la materia oscura estaba formada por objetos compactos, incluidos los agujeros negros —con una gran cantidad de agujeros negros primordiales desde el principio de los tiempos para ayudar a explicar la extensa cantidad de materia oscura— a los que se les dio el acrónimo de Objetos Compactos de Halo Astrofísico Masivo (MACHO, por sus siglas en inglés). Los científicos rivales preferían la perspectiva conocida como Partículas Masivas Débilmente Interactivas (WIMP, por sus siglas en inglés), partículas subatómicas hasta ahora no detectadas que podrían ejercer una atracción gravitatoria permaneciendo invisibles.

La gravedad de una galaxia roja masiva amplía y distorsiona la luz de una galaxia lejana y antigua situada detrás de ella, formando un objeto azul en forma de anillo conocido como la Herradura Cósmica. Estas alineaciones fortuitas crean un efecto de lente que podría permitir a los astrónomos detectar pruebas de agujeros negros primordiales a la deriva en el espacio.

CRÉDITO: ESA / HUBBLE Y NASA

Según las leyes de la física, los MACHOs deformarían el espacio-tiempo a su alrededor, formando regiones parecidas a lentes que crearían distorsiones observables. Cuando la luz de las estrellas lejanas atraviesa estos lentes, los telescopios terrestres deberían ver cómo las estrellas se iluminan brevemente. Sin embargo, cuando los astrónomos buscaron esos destellos, encontraron pocos casos que pudieran atribuirse a los MACHOs, lo que llevó a la mayoría de los físicos a centrarse en la idea de que la materia oscura está formada por las WIMPs.

Pero algunos investigadores nunca perdieron del todo la esperanza de que los agujeros negros tuvieran algún papel en la materia oscura. Entre ellos se encuentra Carr, ahora en la Universidad Queen Mary de Londres, en el Reino Unido, coautor de un reciente artículo sobre los agujeros negros primordiales en la revista Annual Review of Nuclear and Particle Science. “Los agujeros negros primordiales son los candidatos ideales”, afirma. “Sí sabemos que los agujeros negros existen. No estamos invocando alguna partícula de la que actualmente no tenemos pruebas”. 

Ruidos misteriosos en la noche

Durante las décadas transcurridas, la búsqueda de las WIMPs hasta ahora no ha dado resultados, aunque no por falta de intentos. Enormes detectores dedicados a descubrir su existencia no han visto nada. Y el potente acelerador de partículas Gran Colisionador de Hadrones, cerca de Ginebra, no ha encontrado ningún indicio de nuevas entidades subatómicas inesperadas. En consecuencia, algunos investigadores ya se habían alejado de la idea de las WIMPs cuando se detectaron las nuevas señales de LIGO, lo que desató los rumores y volvió a centrar la atención en los agujeros negros MACHOs.

Se confirmó que las señales detectadas por LIGO en 2015 eran chirridos procedentes de una enorme colisión entre dos agujeros negros, cada uno de los cuales pesaba unas 30 masas solares. Los objetos eran extrañamente voluminosos —tan grandes que si se hubieran creado por el colapso de estrellas, estas habrían tenido masas de hasta 100 veces la de nuestro Sol—. Estas bestias deberían ser bastante raras en el universo, dice Kovetz,  por lo que, o bien LIGO tuvo suerte con su primera detección y detectó un evento muy inusual, o bien hay más agujeros negros gigantes de los que los físicos esperarían si el colapso de estrellas fuera su único origen. Tras el anuncio del hallazgo al año siguiente, tres equipos diferentes propusieron que estos objetos no habían nacido de las estrellas, sino en los albores del tiempo, antes de que estas existieran.

“Cuando escribí este artículo... esperaba que alguien diera alguna razón por la que definitivamente no podía ser cierto”, dice Simeon Bird, cosmólogo de la Universidad de California en Riverside, cuyo artículo, escrito en coautoría con Kovetz y otros, fue el primero en salir a la luz. En cambio, LIGO siguió captando señales adicionales de otros agujeros negros en este rango de masas inmensas, lo que desencadenó una excitante actividad entre los físicos teóricos que aún no ha disminuido.

Si los agujeros negros primordiales existen, algunos investigadores piensan que podrían agruparse en conjuntos con unas pocas entidades pesadas rodeadas de muchas más ligeras, como se ilustra aquí. Los nuevos telescopios están a la caza de las señales de tales conjuntos de agujeros negros putativos.

CRÉDITO: INGRID BOURGAULT / WIKIMEDIA COMMONS

Las nuevas señales llegan en un momento en el que nuestra comprensión de las condiciones abrasadoras inmediatamente después del big bang —cuando se habrían formado los agujeros negros primordiales— ha mejorado enormemente gracias a los nuevos modelos teóricos. Un estudio reciente de Carr y otros sugiere que, aproximadamente una millonésima de segundo después del big bang, la expansión del espacio-tiempo habría provocado un descenso de la temperatura y la presión que podría haberse alineado de forma adecuada para producir agujeros negros relativamente pequeños con masas similares a la del Sol. Poco después, las condiciones cambiaron para favorecer la aparición de agujeros negros de gran tamaño, con unas 30 masas solares. 

Los modelos también sugieren que, a lo largo de la historia cósmica, estos diversos agujeros negros primordiales podrían haberse encontrado entre sí. Atraídos por la gravedad, los agujeros negros podrían haber formado cúmulos, con múltiples objetos más pequeños girando alrededor de un agujero negro gigante central, de forma parecida a como los electrones suelen orbitar alrededor de un núcleo atómico. 

Esto podría explicar por qué los cazadores de MACHOs de los años noventa nunca vieron suficientes objetos para dar cuenta de la materia oscura: solo buscaban lentes gravitacionales creados por los tipos de agujeros negros más pequeños. Los lentes de los objetos más pequeños serían más compactos y, al flotar por la galaxia, tardarían menos de un año en pasar por delante de las estrellas, lo que haría que su luz se iluminara y luego se atenuara con relativa rapidez. Si los agujeros negros se encontraran en cúmulos, la deformación gravitatoria del espacio-tiempo, mucho mayor, tardaría más tiempo en pasar por delante de una estrella lejana —varios años o incluso décadas —.

Búsqueda de galaxias

Alrededor de 15 segundos después del big bang, podría haber surgido otro tipo de agujero negro. Según los cálculos actuales, estos agujeros negros pesarían un millón de veces la masa del Sol, lo suficientemente grandes como para explicar potencialmente el origen de las galaxias.

Los telescopios han detectado galaxias bastante desarrolladas a grandes distancias, lo que significa que se formaron bastante pronto en la historia cósmica. Resulta desconcertante, ya que las galaxias son estructuras enormes y, al menos en las simulaciones computacionales, tardan mucho tiempo en formarse a partir de los lentos y pesados remolinos de gas y polvo que se encuentran en todo el cosmos. Pero esta es la mejor explicación de su formación que los astrónomos han encontrado hasta ahora.

Los agujeros negros primordiales pueden proporcionar una ruta más fácil. Dado que casi todas las galaxias contienen un enorme agujero negro en el centro, parece posible que estos goliats gravitacionales actuaran como puntos de partida, ayudando a atraer material hacia las primeras protogalaxias en una etapa bastante temprana de la historia cósmica. A medida que el universo avanzaba, estas pequeñas galaxias se habrían atraído gravitatoriamente unas a otras, para luego chocar y fusionarse en las galaxias mucho más grandes que se ven hoy en día.

Carr y sus colegas han empezado a considerar la posibilidad de que los agujeros negros primordiales estén mucho más extendidos de lo que se sospecha. En teoría, las condiciones que se dieron poco después del big bang podrían haber producido agujeros negros aún más pequeños, a escala planetaria, con masas aproximadamente 10 veces superiores a la de la Tierra. De hecho, los estudios han detectado diminutos lentes gravitacionales flotando por toda la galaxia, que pasan por delante de las estrellas y hacen que su luz parpadee rápidamente. La mayoría de los astrofísicos han atribuido estos lentes a grandes planetas errantes que fueron expulsados de sus sistemas estelares. Pero no todos están de acuerdo.

Entre ellos se encuentra el físico teórico Juan García-Bellido, de la Universidad Autónoma de Madrid, que afirma que los lentes están causados por agujeros negros primordiales. García-Bellido, coautor del reciente artículo de Carr, sigue entusiasmado con la idea de los agujeros negros primordiales.

El nuevo observatorio Vera C. Rubin, que se ve en construcción en Chile y que comenzará a funcionar a finales de 2023, se utilizará para escanear el cielo nocturno en busca de pruebas de agujeros negros primordiales.

CRÉDITO: RUBIN OBS / NSF /AURA

Pero otros no están seguros de que los agujeros negros sean tan frecuentes como deberían serlo para explicar la materia oscura. “Creo que es poco probable”, afirma la cosmóloga Anne Green, de la Universidad de Nottingham, en el Reino Unido. Uno de los problemas de la teoría es que la existencia de un gran número de agujeros negros de masa multisolar en todo el cosmos tendría todo tipo de efectos visibles que nunca se han visto. Como estos objetos consumen gas y polvo, deberían emitir grandes cantidades de ondas de radio y rayos X que podrían delatar su presencia, añade.

En cuanto a la materia oscura, los modelos teóricos del universo primitivo también requieren muchos ajustes para que arrojen el número correcto de agujeros negros que coincidan con la cantidad de materia oscura que sabemos que existe. “Resulta bastante difícil elaborar modelos que produzcan la cantidad correcta de agujeros negros”, afirma Green.

Incluso algunos de los mayores fanáticos de los agujeros negros primordiales ya no son tan optimistas sobre la posibilidad de que los tipos de agujeros negros detectados por LIGO puedan dar cuenta de toda la materia oscura del universo. Si muchos de esos agujeros negros estuvieran al acecho en el espacio, los astrónomos ya habrían visto más de sus efectos, dice Kovetz. Él sigue pensando que pueden contribuir algo y, en general, que incluir más tamaños de agujeros negros primordiales más allá de lo que LIGO ha detectado podría sumar lo suficiente para explicar la materia oscura. Y, sin embargo, “personalmente, he perdido parte de mi motivación”.

La buena noticia es que los nuevos instrumentos podrían ayudar a los físicos a llegar al fondo de la cuestión muy pronto. LIGO y Virgo están siendo actualizados y ahora se les ha unido un detector de ondas gravitacionales japonés llamado KAGRA. En los próximos años también se pondrá en marcha un instrumento indio.

Las observaciones de estas instalaciones podrían finalmente inclinar la balanza hacia un lado u otro. Si los observatorios detectan un pequeño agujero negro de una masa solar o menos —algo imposible de crear a partir de la evolución estelar—, proporcionaría una prueba emocionante y definitiva de al menos un tipo de agujero negro primordial, lo que los convertiría en una explicación mucho más atractiva para la materia oscura y la formación de galaxias.

Además de buscar agujeros negros muy pequeños, los científicos también podrían sellar el acuerdo encontrando agujeros negros que se formaron incluso antes de que existieran las estrellas. Esto puede estar más allá de la capacidad de los observatorios existentes, pero la Agencia Espacial Europea está planeando lanzar en la próxima década una nueva sonda espacial altamente sensible llamada Antena Espacial de Interferometría Láser (LISA, por sus siglas en inglés), que podría estar a la altura.

García-Bellido y otros están planeando utilizar otro nuevo instrumento que está previsto que comience a funcionar en 2023, el Observatorio Vera C. Rubin de Chile, para buscar estrellas que brillen en escalas de tiempo de varios años, lo que podría ser una prueba de la existencia de cúmulos de agujeros negros a la deriva en los cielos. Al menos unos pocos investigadores esperan que, dentro de tres o cuatro años, puedan tener por fin una respuesta real y definitiva sobre si los agujeros negros primordiales existen o no.

Hasta entonces, los científicos estarán al borde de sus asientos, tratando de mantener la mente abierta sobre la materia oscura. Quizás la misteriosa sustancia resulte estar hecha de muchas cosas, incluyendo tanto partículas exóticas como agujeros negros. “El universo es desordenado y tiene un montón de cosas”, dice Bird. “Creo que al universo le gusta ponerle las cosas difíciles a los físicos”.

 

El tiempo corre en dos sentidos, según Julian Barbour

https://lamenteesmaravillosa.com/tiempo-corre-dos-sentidos-segun-julian-barbour/

Desde que la física cuántica hizo su aparición no ha dejado de sorprendernos. Julian Barbour es un digno representante de este enfoque y desde hace varias décadas estudia uno de los conceptos más enigmáticos del universo: el tiempo. Su teoría es fascinante.

Según Julian Barbour, el tiempo corre en dos sentidos a la vez. Imaginemos que cada sentido es una flecha cuyo origen es el cero. Mientras la flecha de la derecha aumenta paulatinamente hasta el infinito, la de la izquierda apuntaría hacia un infinito negativo.

Dicho de una forma más simple, lo que Julian Barbour propone es que hay un universo en el que el tiempo corre desde lo que llamamos el pasado hacia lo que llamamos el futuro. Mientras tanto, en otro universo ocurre lo contrario: el tiempo avanza desde el futuro hacia el pasado. ¿Ciencia ficción? No, es una teoría científica seria.

El universo y la gran explosión

La teoría más aceptada sobre el comienzo del universo postula que se originó hace poco menos de 14 mil millones de años a partir de un elemento más minúsculo que un átomo. Así se formaría toda la materia que compone el universo.

Esa materia comenzó a expandirse, una tendencia que hoy se mantiene. La explosión también habría dado origen al tiempo, que desde entonces habría comenzado a contar. Las partículas de materia, disparadas en múltiples direcciones, fueron agrupándose y formaron las estrellas, los planetas y las galaxias.

Según esta teoría, el tiempo se mueve en una sola dirección: hacia adelante. Al respecto, Julian Barbour y otros físicos se han preguntado: ¿por qué si el universo se expande hacia todas partes, el tiempo solo avanza en una dirección? Las posibles respuestas a esta pregunta dieron origen a la tesis de que el tiempo corre en dos sentidos.

Julian Barbour y el tiempo

Julian Barbour es un físico veterano, profesor de la Universidad de Oxford y autor de varios libros de divulgación. Su prestigio es incuestionable. Ha estudiado a fondo el tema del tiempo y a partir de esto ha planteado su interesante teoría. El postulado básico que propone dice que el tiempo corre en dos direcciones a la vez.

Barbour dice que la gran explosión original hizo que comenzara a avanzar en sentidos opuestos, ya que eso es lo propio de una explosión semejante. Su idea se basa en dos principios de la física: la entropía y la segunda ley de la termodinámica.

La entropía es un concepto equivalente al caos. La física señala que la realidad, o más bien los sistemas que la componen, avanzan hacia el caos. A su vez, el caos es irreversible. Un ejemplo de esto sería una casa que es abandonada y se cae. El proceso va hasta que se derrumba y es imposible volver atrás. El derrumbe es el estado más caótico posible.

Ahora bien, la segunda ley de la termodinámica dice que la entropía solo puede aumentar, pero nunca disminuir. A su vez, el tiempo avanza en el mismo sentido en el que aumenta la entropía. Así, en el ejemplo anterior, una vez la casa es abandonada y comienza a deteriorarse, cada vez es más probable que se derrumbe.

El incremento de la complejidad

Julian Barbour dice que todo lo anterior se ha establecido así porque se ha observado en un contexto, podríamos decir, “normal”. El de nuestro planeta, nuestra materia, nuestras dimensiones, etc. Si se mira en términos del universo como un todo, aparece un nuevo enfoque.

Supongamos que la casa derruida de la que hablamos está en el marco de un espacio infinito. Al derrumbarse, las partículas que la componen viajarían en diferentes direcciones, se juntarían con otras partículas y formarían nuevas estructuras. Estas serían más complejas.

Barbour trabaja con dos ideas básicas. El Big-Bang produjo que la materia y el tiempo se desplazaran en dos direcciones opuestas. Por lo tanto, existiría una especie de “universo espejo”. Lo que se espera en ese universo es el pasado, porque todo ocurre al revés de nuestro universo. De una forma simple, lo que hay en ese horizonte es un avance hacia el año cero.

 

Integral de caminos de Feynman

 

 

Cómo nuestra realidad puede ser la suma de todas las realidades posibles:

https://culturacientifica.com/2023/04/04/integral-de-caminos/

La ecuación, aunque adorna las páginas de miles de publicaciones de física, es más una filosofía que una receta rigurosa. Sugiere que nuestra realidad es una especie de mezcla, una suma, de todas las posibilidades imaginables. Pero no les dice a los investigadores exactamente cómo llevar a cabo la suma. Así que la comunidad científica ha pasado décadas desarrollando un arsenal de estrategias de aproximación para construir y calcular la integral para diferentes sistemas cuánticos.

Las aproximaciones funcionan lo suficientemente bien como para que físicas intrépidas como Loll busquen ahora la integral de caminos definitiva: una que combina todas las formas concebibles de espacio y tiempo y produce un universo con la forma del nuestro como resultado neto. Pero en esta búsqueda por demostrar que la realidad es de hecho la suma de todas las realidades posibles, se enfrentan a una profunda confusión sobre qué posibilidades deberían entrar en la suma.

 

Gravedad cuántica de bucles

¿Qué es la Gravedad Cuántica de Bucles?:

https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles

Para la Teoría Cuántica de bucles, formulada por científicos como John Baez, Carlo Rovelli y Lee Smolin, el espacio no es continuo, es decir, no se puede dividir infinitamente: hay una unidad mínima de distancia. El espacio-tiempo está “granulado”. Piensa en la pantalla de tu televisión o tu teléfono móvil. Puedes ver cómo un punto de luz se mueve de un lado a otro de manera aparentemente continua. Si te acercas lo suficiente puedes notar que la pantalla está dividida en decenas de miles de cuadritos que forman la imagen. Estos cuadritos se llaman “pixeles”: son la unidad mínima de la imagen: no se pueden subdividir más. Y un punto de luz que se mueve puede estar en este pixel, o en el pixel contiguo, pero no se puede mover “medio pixel”.

La propuesta de la Gravedad Cuántica de bucles es que el espacio también está así: pixelizado. O más propiamente “cuantizado”, de la misma manera que la energía sólo se puede transferir en paquetes llamados “cuantos”. No sólo la materia y la energía, sino el espacio mismo tiene una estructura atómica. La distancia mínima se llama “distancia de plank”, es millones de veces más pequeña que un electrón, y nada se puede mover en distancias menores.

¿Cómo se estructura?

La idea es que el espacio-tiempo está estructurado en redes de pequeñísimos rizos o bucles conectados entre sí. Estas redes se llaman “redes de spin”, y son estudiadas mediante una rama de las matemáticas llamada “teoría de grafos”, que se ocupa de calcular los modos posibles en los que se relacionan los vértices y las aristas de la red. Una red de spin representa el estado cuántico de un campo gravitacional. Y no es fijo: está en constante flujo. 

Una hipótesis meramente especulativa dice que las partículas subatómicas podrían ser “nudos” o “trenzas” dentro de la red de spin. Esta por ejemplo podría ser un electrón, mientras que ésta podría ser un positrón. Acá tenemos un electrón neutrino y éste, un anti-neutrino. Y la deformación del espacio-tiempo que se manifiesta como gravedad a escalas planetarias o galácticas, empieza aquí, en la escala más pequeña posible. El universo sería una impresionantemente complicada red de spin. 

La antigua idea del espacio y el tiempo como un escenario donde ocurren las cosas ya no aplica. Una red de spin no está en el tiempo y el espacio: sino que es el espacio-tiempo mismo.

 

Energía del vacío. La mayor discordancia de la historia de la ciencia

¿Crear el vacío?:

http://www.javierdelucas.es/vaciomedir.htm

Las medidas astronómicas basadas en el movimiento del sistema solar y sobre todo de galaxias lejanas se han traducido en un valor máximo para la constante cosmológica:

 |V|<10-56 cm-2

 Este valor máximo implica que la densidad de energía del vacío tiene que ser menor que       10-9 erg/cm3. A continuación veamos qué nos dicen las estimaciones teóricas. Si intentamos expresar la energía del vacío en unidades de Planck que constituyen el sistema de unidades fundamental en mecánica cuántica obtenemos:

 Eplanck=(hc5/G)1/2=1019 GeV

 Entonces tenemos que la densidad de energía del vacío sería:

 Pvac=(1019GeV)4=1076 GeV=10114 erg/cm3 

 ¡Esto es una cantidad inmensa de energía! La discrepancia es por tanto de 123 órdenes de magnitud. Este valor es de una magnitud inconcebible para el cerebro humano. Por eso se dice que esta estimación teórica constituye la discordancia entre teoría y experimento más grande de la historia de la ciencia. 

El cálculo de la energía del vacío de la QED

 La QED (Quantum Electrodinamics) constituye la más simple pero a la vez más exitosa teoría que nos permite aplicar los principios de la mecánica cuántica y la relatividad especial al electromagnetismo. Para calcular la energía del vacío en QED debemos cuantizar el campo electromagnético. Al cuantizar obtenemos la expresión: 

Pvac=E/V=1/VSum(1/2hWk)=h/(2pi2c3)§0Wmax(w3) dW=h/(8pi2c3)w4max 

Esta expresión nos conduce a la famosa analogía entre el campo electromagnético y un oscilador armónico cuántico. De esta forma la energía del punto cero será la suma de la energía del punto cero de cada oscilador armónico.

Wmax es un parámetro denominado frecuencia de corte que hablando “a grosso modo” es el valor a partir del cual la contribución de los armónicos de alta frecuencia se considera despreciable. El valor a introducir en Wmax es objeto de discusión y la estimación de Pvac depende del valor elegido. Un valor razonable para Wmax sería aquel en el que el electromagnetismo deja de existir como tal y se unifica con la fuerza débil, es decir, la energía a la que se restablece la simetría electrodébil que es del orden de 100GeV. Con este valor obtenemos: 

Pvac=(100GeV)4=1046 erg/cm3 (55 órdenes mayor que el valor experimental).

 El cálculo de la energía del vacío electrodébil

 En la teoría electrodébil, la energía que adquieren las partículas y los campos cuánticos al romperse la simetría es proporcional al vacío del campo de Higgs. El potencial del Higgs es:

 V(Ø)=Vo-µ2Ø2+gØ4.

 Donde g es la constante de autoacoplamiento del Higgs. Este potencial es mínimo para

 Ø2= µ2/2g por tanto V(Ø)=Vo-µ4/4g

 Considerando que V(Ø) se anula para Ø=0 tenemos:

 Pvac=-µ4/4g=-gv4=-(105GeV)4= -1043 erg/cm3 (52 órdenes de mayor que el valor experimental)

 El cálculo de la energía del vacío de la QCD

 La QCD (Quantum Chromodynamics) es la teoría cuántica que se utiliza cuando tenemos en cuenta la fuerza nuclear fuerte, es decir, cuando estudiamos el interior del núcleo atómico. En QCD existe una escala de energía característica denominada Lqcd que es la escala a la cual se restablece la simetría quiral y desaparece el condensado quark-gluon del vacío cuántico; por esto la energía del vacío en QCD se suele considerar un prefactor de Lqcd. El cálculo estimativo nos dice entonces que

 Pvac=(10-3 o 10-2)4= 1035 o 1036 erg/cm3 (44 o 45 órdenes mayor que el valor experimental)

 El cálculo de la constante cosmológica según la Relatividad General

 Si consideramos la gravedad el problema se vuelve aún más difícil, algunos dirían que casi imposible de resolver. El campo gravitatorio "crea" partículas de forma equivalente a un marco de referencia acelerado. El efecto Unruh se basa en este fenómeno, de forma que un detector acelerando en un espacio vacío detectará partículas continuamente. Sin embargo, existe una buena noticia: los experimentos nos indican que cuando la gravedad es débil, por ejemplo en la Tierra, los cálculos de nuestras teorías cuánticas son correctos y por lo tanto podemos despreciar las contribuciones de la gravedad a la energía del vacío. 

Posibles soluciones al problema

 Como hemos visto, las contribuciones de los campos conocidos a la energía del vacío son enormes, muchos órdenes de magnitud por encima del valor observado experimentalmente. A continuación se enumeran 4 posibles soluciones al que es considerado por muchos como el mayor problema de la Física:

 1º) La existencia de nuevos campos y partículas que cancelen el enorme exceso de energía estimado

 Muchos físicos piensan que tienen que existir nuevas partículas y nuevos campos cuánticos por encima del rango de energías explorado que contribuirían a la energía del vacío con signo contrario y que podrían cancelar la inmensa densidad de energía que predicen nuestras teorías. La supersimetría es uno de los candidatos favoritos, sin embargo, debido a que la supersimetría está rota a bajas energías esta cancelación no sería ni mucho menos exacta, por lo que el problema persiste. El problema es que es muy difícil que un modelo teórico pueda producir un ajuste tan inmensamente preciso como el requerido. ¡El ajuste tendría que cancelar el exceso con una exactitud de al menos 56 cifras decimales!

 2º) Realizar una modificación de nuestras teorías cuánticas

 Nadie sabe cómo realizar esto, además éstas han tenido un éxito experimental sin precedentes.

3º) Realizar una modificación de la relatividad general

Esto tiene el mismo inconveniente que la anterior.

4º) Considerar que el vacío no posee ninguna densidad de energía

Esta solución parece imposible, sin embargo, merece tenerse en consideración: no existe ningún experimento cuántico que pueda medir esta energía puesto que siempre medimos diferencias de energía. Además todos los experimentos considerados como debidos a la energía del vacío (efecto Cassimir, desplazamiento Lamb del átomo de hidrógeno, etc) pueden explicarse como fluctuaciones de los objetos materiales del experimento (ver por ejemplo Schwinger Source Theory). Considerar que el vacío es el estado con 0 energía y 0 momento resolvería de un plumazo el problema de la constante cosmológica cuyo valor es casi nulo. Por supuesto habría que estudiar las posibles implicaciones de imponer tal condición en las teorías actuales.

 Si esto resultara correcto el vacío sería la primera entidad física conocida que no posee energía ni momento y por tanto se podría "crear" en infinita cantidad sin un aporte neto de energía ¿Como sucedió en la inflación cósmica?

 

Ecuación de la Relatividad General de Einstein

En términos técnicos, las ecuaciones de campo de Einstein son un conjunto de ecuaciones (concretamente, ecuaciones diferenciales parciales no lineales) que pueden expresarse de forma sintetizada como una única ecuación:

 

Texto

El contenido generado por IA puede ser incorrecto.


donde el primer subíndice μ (mu en griego) representa las coordenadas del espaciotiempo y el segundo subíndice ν (nu en griego) representa las coordenadas del momento (es decir, el cambio de las coordenadas del espacio-tiempo -en términos simples, la posición- con respecto al tiempo). G es la constante gravitacional, c es la velocidad de la luz, Rμν se llama tensor de curvatura de Ricci, gμν se llama tensor métrico, es la curvatura escalar y Tμν se llama tensor de tensión-energía. Esta ecuación incluye la constante Λ, conocida como la constante cosmológica, para dar cuenta de una fuente adicional de energía. Λ representa una fuerza adicional de expansión (energía oscura). La figura un poco más abajo muestra los términos de la ecuación anterior y su significado.

La existencia de la energía y la materia oscuras se dedujeron para que las ecuaciones de campo de Einstein pudieran predecir correctamente la expansión del universo y la velocidad de rotación de las galaxias. Según este punto de vista, la energía oscura es la fuente de una fuerza de expansión en el universo (es lo que explica la constante de Hubble en las principales teorías), mientras que la materia oscura proporciona una fuente de gravedad adicional necesaria para estabilizar las galaxias y los cúmulos de galaxias, ya que no hay suficiente masa ordinaria para mantenerlos unidos dada la expansión acelerada del Universo. Esta gravedad adicional también explicaría la velocidad rotacional de las galaxias

 

Diagrama

El contenido generado por IA puede ser incorrecto.


A grandes rasgos, el lado izquierdo de la ecuación de la figura anterior expresa la deformación geométrica del espacio-tiempo producida por la contribución de energía-masa en el lado derecho de la misma ecuación. Esta deformación del espacio también explica las ondas gravitacionales detectadas recientemente por LIGO en 2015 y que emanan de la fusión de dos agujeros negros.

Como afirma el físico John Wheeler, "el espacio-tiempo le dice a la materia cómo moverse; la materia le dice al espacio-tiempo cómo curvarse".

 

Ecuación de Dirac

https://significado.com/ecuacion-de-dirac/

Aplicar reglas de cuantización sobre una función vectorial de cuatro dimensiones

Las reglas de cuantización conducen a operaciones con derivadas que normalmente actúan sobre una función de onda escalar, pero como las constantes α y β son matrices de 4X4, los operadores diferenciales actuarán sobre un vector de cuatro dimensiones Ψ, al que luego se le llamó el espinor.

Si se elige un sistema de medida en el que la velocidad de la luz sea 1, la ecuación de Dirac se escribe así:

Imagen que contiene Diagrama

El contenido generado por IA puede ser incorrecto.


En la ecuación anterior se expresa una sumatoria sobre los índices μ, comenzando desde 0 hasta 3, y por supuesto, “i” es la unidad imaginaria, ya que se trata de una ecuación en variable compleja.

Esta ecuación se suele compactar más mediante el uso del símbolo ∂ atravesado por una barra inclinada / para simbolizar la sumatoria de derivadas, así queda:

 


Esa expresión es la que ha quedado como “ecuación del amor”.

Las soluciones de la ecuación de Dirac y el espín del electrón

La ecuación de Dirac es una ecuación de autovalores que corresponden a las energías posibles. Hay dos soluciones con energía positiva, una para cada estado de espín, y dos soluciones con energía negativa, también para cada uno de los dos estados posibles de espín.

Es de resaltar que el espín, en la ecuación de Dirac, aparece naturalmente, como un resultado de sus posibles soluciones y a consecuencia directa de tomar en cuenta la energía relativista.

Es así que, por primera vez en la Física, se cae en cuenta que el espín, una propiedad intrínseca del electrón y de otras partículas elementales, es una consecuencia de la relatividad. Por cierto, esta propiedad del electrón había sido comprobada antes que Dirac formulara su ecuación, gracias al famoso experimento de Stern y Gerlach en 1922.

La ecuación de Dirac predice la existencia de la antimateria

Dirac fue increíblemente brillante al haber obtenido su ecuación, aplicando ingeniosamente las matemáticas, y también es notable la forma en que interpretó sus soluciones.

Al principio, a Dirac no le quedaba claro si había electrones con energía cinética negativa. Entonces teorizó lo siguiente:

El vacío (la ausencia de electrones) no es tal, sino que está lleno de electrones con energía negativa en sus dos estados de espín.

Lo que sucede es que los científicos no tienen la posibilidad de ver esos electrones, de la misma forma que normalmente no se ven los peces del mar, de allí sale la denominación mar de Dirac.

Ahora bien, si un fotón es capaz de entregar energía suficiente a uno de los electrones de ese mar, entonces sí será visible, apareciendo de la nada.

Pero el espacio vacante en el mar de Dirac es un hueco de carga positiva, es decir una partícula de la misma masa y carga que el electrón, pero positiva, llamada positrón.

Poco tiempo después de la interpretación de Dirac, en 1932, Carl D. Anderson detectó experimentalmente el positrón.

 

Métrica de Alcubierre

Métrica de Alcubierre:

https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre

 

Imagen que contiene Gráfico

El contenido generado por IA puede ser incorrecto.


Gráfico de la impulsión de Alcubierre, mostrando las regiones opuestas, contraída y extendida, del espacio-tiempo respecto al sector central en el cual se ubica la burbuja plana de deformación.

La Métrica de Alcubierre es una idea especulativa basada en un modelo matemático que supondría posibles los viajes a velocidades mayores que c (velocidad de la luz), es decir, superlumínicos. Con base en algunas de las instancias teóricas pero probables estudiadas del espacio-tiempo, Alcubierre plantea la métrica que lleva su nombre como una solución a las ecuaciones de Einstein en el marco de la Teoría General de la Relatividad.

Fue publicada en la revista científica Classical and Quantum Gravity1en 1994 por el físico mexicano Miguel Alcubierre.

Idea general (el Impulso por deformación)

La métrica de Alcubierre tiene, como una de sus conclusiones más llamativas, la posibilidad de un viaje a mayor velocidad que la luz al crearse una burbuja de deformación plana dentro de la cual se situaría estacionariamente la cosmonave; detrás de la cosmonave el espacio-tiempo sería deformado extendiéndolo mientras que por contraparte delante de la cosmonave el espacio-tiempo sería contraído o contractado poniendo así el punto de destino mucho más cerca, mientras que "detrás" de la nave el espacio-tiempo quedaría expandido "empujado" hacia atrás gran cantidad de años luz, todo esto sin que el espacio y el tiempo dentro de la burbuja de deformación plana en que se hallaría la cosmonave se modificara notoriamente.

En tal caso la nave (para hacer una analogía) "surfearía" sobre una especie de ola espaciotemporal dentro de la "burbuja de deformación plana" que es plana por permanecer estable entre las dos distorsiones (la anterior y la posterior) provocadas en el espacio-tiempo (se crearía una distorsión local del espacio-tiempo).

Existirían enormes fuerzas de marea en la región periférica de la supuesta burbuja debidas a las curvaturas provocadas en el espacio-tiempo; sin embargo, tales fuerzas serían despreciables en el interior de la burbuja dado el carácter plano que allí tendría el espacio-tiempo (véase gráfico).

No se violaría ninguna ley física de las previstas por la teoría de la relatividad ya que dentro de la "burbuja de deformación" nada superaría la velocidad de la luz; la nave no se desplazaría dentro de tal burbuja sino que sería llevada por la misma, la nave dentro de la burbuja nunca viajaría más rápido que un haz de luz.

La nave y sus presuntos tripulantes estarían exentos de sufrir los efectos devastadores provocados por las aceleraciones con sus correspondientes enormes fuerzas g, desaceleraciones o los efectos relativistas como la contracción de Lorentz y la dilatación del tiempo a altas velocidades. Alcubierre ha podido demostrar que incluso cuando la nave está acelerando viaja en una caída libre geodésica.

Sin embargo, el que la burbuja de deformación permita viajes superlumínicos se debe a la posibilidad de que el propio espacio-tiempo en el cual viaja la luz tenga la capacidad de superar la velocidad de la luz.
La Teoría de la Relatividad considera imposible que los objetos viajen a una velocidad mayor que la de la luz en el espacio-tiempo, pero se desconoce a qué velocidad máxima puede moverse el espacio-tiempo; se hipotetiza que en casi en el instante inicial del Big Bang nuestro universo poseía velocidades exponenciales superlumínicas (véase Universo inflacionario), se supone asimismo que algunos quásares muy lejanos pueden alcanzar velocidades de recesión translumínicas.

Aquí se introduce otra analogía: existe una velocidad máxima a la cual un objeto puede marchar sobre el suelo ¿pero qué ocurriría si es un suelo móvil —como puede ser una cinta trasportadora— que supera la velocidad de la marcha? Esto supone un cambio en el sistema de coordenadas utilizado como referencia para medir la velocidad. Si el sistema de coordenadas se mueve en la misma dirección del desplazamiento respecto a un segundo sistema de referencia (que debería ser externo al propio espacio-tiempo), el objeto debiera poder incrementar su velocidad indefinidamente respecto del segundo sistema de referencia. Lo que esta analogía plantea es si ¿sería posible "cabalgar sobre un rayo de luz"?

Para crear un dispositivo como la burbuja de deformación que permita el impulso de deformación — explica Alcubierre— se requeriría operar con materia de densidad negativa o materia exótica, creando así con tal materia una burbuja de energía negativa que englobaría a la nave (véase DiracEnergía negativa). Según Alcubierre, la cantidad de energía negativa sería proporcional a la velocidad de propagación de la burbuja de deformación, verificándose que la distribución de la energía negativa estaría concentrada en una región toroidal perpendicular a la dirección en que se movería la burbuja plana (véase ilustración).

De este modo, dado que la densidad de energía sería negativa se podría viajar a una velocidad mayor que la de la luz merced al efecto suscitado por la materia exótica. La existencia de la materia exótica no está descartada, antes bien el efecto Casimir parece confirmar la existencia de tal materia; sin embargo producir bastante materia exótica y conservarla para realizar una proeza como el viaje superlumínico plantea los mismos actualmente irresolubles problemas que para mantener estable a un agujero de gusano.
Por otra parte en la Relatividad General primero se específica una distribución factible de la materia y de la energía para luego encontrar una geometría del espacio-tiempo asociada; si bien es posible operar con las ecuaciones de Einstein primero especificando una métrica y luego encontrando el tensor de energía e impulso asociado a tal métrica (que es lo realizado por Alcubierre), esta práctica significa que la solución podría violar varias condiciones de energía y requerir la materia exótica.

Robert J. Low, en 19992ha probado que dentro del contexto de la relatividad general y aún en ausencia de la materia exótica es posible construir una burbuja de deformación (los textos en francés utilizan como equivalente de burbuja de deformación las palabras «commande de chaîne»/ pedido de cadena). Una teoría coherente de la gravedad cuántica quizás sirva para resolver estas cuestiones.

Además, Alexey Bobrick y Gianni Martire afirman que, en principio, se puede construir una clase de espaciotiempos sublumínicos y esféricamente simétricos de impulso factorial basados en principios físicos actualmente conocidos por la humanidad, como la energía positiva.3

La métrica de Alcubierre puede ser escrita:

 


La densidad de energía necesaria para causar ese tensor métrico es:

 

Forma

El contenido generado por IA puede ser incorrecto.


Así la densidad de energía es negativa y se requiere por esto de la materia exótica para provocar las deformaciones del espacio-tiempo.4

Otras denominaciones

El sistema supuesto por Alcubierre para los viajes cósmicos es denominado en inglés "Warp Drive" (el mismo nombre dado en la serie Star Trek — o "Viaje a las estrellas"—), la traducción es: Impulso por deformación o Impulso de Deformación o Distorsión Impulsada, también se encuentran las siguientes traducciones: Impulso de torsión, Impulso Warp, Impulso curvado, Impulso deformativo, Viaje curvado, Viaje combado, Motor de curvatura e incluso Motor de Impulso Factorial. Todas estas denominaciones dan la noción del principio básico de este hipotético método de viaje "superluminal": en lugar de acelerar un objeto (supongase la cosmonave) a velocidad c o próxima a c se combaría o curvaría el "tejido" del espacio-tiempo de modo que los objetos a donde se viaja se acerquen sin un movimiento de la nave en el sentido usual del término movimiento: más que moverse la nave -en estas hipótesis-, es movido (curvado) el espaciotiempo.

 

Pasos clave de la evolución

Los 10 pasos evolutivos más relevantes:

https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/

La evolución de las especies a lo largo de su historia ha permitido la aparición de cualidades impresionantes a los seres vivos. En este post me gustaría repasar los que creo son los 10 cambios más relevantes que han ocurrido en la historia de la vida en la Tierra desde que aparecieron los primeros seres vivos. Evidentemente estos pasos fueron todos muy graduales y es difícil acotarlos en «un paso». La lista está ordenada por orden cronológico de aparición partiendo de los primeros seres replicantes cuyas características concretas sólo podemos especular actualmente:

1-La fidelidad en la copia del DNA

Una bacteria actual comete un error en la copia del DNA cada 10E10 generaciones aproximadamente. Este ratio entre mutaciones y fidelidad permite adaptaciones pero limitando acumular grandes errores rápidamente que acabarían con la especie. La principal artífice de esta maravilla evolutiva se llama DNA polimerasa que por si sola es capaz de copiar fielmente varios miles de bases de DNA  antes de cometer un error. Las versiones más avanzadas y que aparecieron más tarde en la evolución de los eucariotas tienen además mecanismos de revisión para minimizar los errores cometidos. Su necesidad para la vida es tal que no existen seres vivos que carezcan de este mecanismo. Sólo algunos virus como el HIV que a cambio utilizan la perfecta maquinaria celular.

2-El flagelo

 

Imagen en blanco y negro

El contenido generado por IA puede ser incorrecto.


Flagelo bacteriano

De esperar a que la comida llegue, a ir a p0r ella. Este uno de los cambios principales cambios que supuso el flagelo. Aunque anteriormente las bacterias desarrollaron pequeños filamentos (cilios) que permitían cierto movimiento lo cierto es que estás estaban totalmente sometidas a las fuerzas que gobiernan el movimiento browniano: Imaginad que estáis dentro de una piscina llena de canicas que se propulsan a toda velocidad en todas direcciones. El flagelo suponía además una mejora en la capacidad de colonizar nuevos y lejanos ambientes o de escapar de circunstancias adversas. Puedes ver un vídeo sobre la evolución del flagelo aquí donde se postula su aparición a partir de un organulo destinado a la sujeción.

2-El fotorreceptor

Y se hizo la luz. La capacidad de reconocer la luz suponía inicialmente acceso a alimento (la síntesis de muchos compuestos orgánicos es catalizada por la luz) y una guía para el movimiento (define arriba y abajo). Sin embargo, este pequeño avance sembraría la semilla para dos futuros mecanismos de gran relevancia: la fotosíntesis y la visión. Los fotorreceptores se basan en pigmentos capaces de excitarse con la luz y de transmitir dicho estado excitado a alguna proteína.

3-La fotosíntesis

¿Quién necesita comida cuando puedes fabricarla? Este es quizás el salto evolutivo más impresionante: la capacidad de producir compuestos orgánicos a partir de inorgánicos, mucho más abundantes. Estas reacciones requieren de gran energía que los seres vivos obtienen del calor, degradación de otros compuestos orgánicos/ inorgánicos o de la luz. Podéis leer algo más sobre la fotosíntesis en este otro post que escribí. La fotosíntesis no podría ser posible sin los fotoreceptores que además probablemente coevolucionaron con la mejora del flagelo. Ninguno de estos «castillos de naipes» habria aguantado sin la fidelidad en la copia del DNA.

4-El ciclo de Krebs y la respiración oxidativa

La fotosíntesis trajo consigo una nueva época de problemas u oportunidades según se mire. El principal deshecho de la fotosíntesis es el oxígeno. Una molécula que ahora nos parece inocua pero que cuando apareció era como vivir en un mar de arsénico. El oxígeno tiene la capacidad de oxidar el DNA y las proteínas e interfería en muchas de las reacciones necesarias para las bacterias de la época. La aparición del oxígeno atmosférico probablemente fue un proceso rápido que acabo de un plumazo con la mayoría de las especies. Algunas especies (entre ellas las productoras de oxígeno) desarrollaron mecanismos para inactivar el oxígeno, entre estos mecanismos encontramos la utilización de electrones y protones que reaccionan con el oxígeno produciendo agua. Curiosamente se pueden obtener electrones como productos de deshecho del metabolismo de compuestos orgánicos. La sofisticación del metabolismo de los azucares en el denominado ciclo de Krebs junto a un complejo sistema de transporte de electrones permitió aprovechar al máximo la energía de los compuestos orgánicos.

5-La célula eucariota

La complejidad de la aparición de la vida es el único hecho comparable a la aparición de la célula eucariota. Se ha especulado que los eucariotas provienen de la simbiosis de varios tipos bacterianos, hipótesis que cobra fuerza con los análisis genéticos. En cualquier caso la aparición de células con núcleo definido y orgánulos es una gran caja negra. Uno de los procesos evolutivos más interesantes que nos quedan por descifrar. El gran avance de la célula eucariota puede describirse con algo tan simple como la compartimentalización. Cada cosa en su rincón. Muchas de las reacciones químicas celulares requieren un ambiente muy específico incompatible con otras reacciones.

6-La especialización celular

El hijo favorito. Una célula se divide en dos pero no deja lo mismo en cada célula hija: una contiene más deshechos que otra, diferente concentración de proteínas o le falta algún componente. Estos podrían haber sido los antecedentes de la especialización celular. Ocurre actualmente en bacterias, levaduras o algunas algas unicelulares y que en algunos casos viven en colonias, donde algunos individuos se especializan en ciertas funciones en función de su localización dentro de la colonia. La especialización supone una mayor eficiencia. De allí hasta células como las neuronas o los glóbulos blancos quedaría aun un buen trecho.

7-La reproducción sexual

¡Qué sería de nosotros sin el sexo! Se ha sugerido que la reproducción sexual permite una rápida adaptación de las especies al eliminar rápidamente las mutaciones perniciosas y esparcir las beneficiosas.  Su aparición podría estar relacionada con virus y otros parasitos o bien como un resultado colateral de la estrategia de duplicar el genoma para reducir los efectos de las mutaciones. En cualquier caso, los seres vivos con reproducción sexual se han diversificado y adquirido una complejidad que ningún ser asexual puede superar.

8-El desarrollo embrionario

«Nada de lo que te ocurra en la vida te marcará tanto como la gastrulación«. Las instrucciones para formar un cuerpo de forma progresiva y ordenada supusieron el salto entre un mundo de medusas y gusanos al actual. Instrucciones que se encuentran agrupadas en bloques o paquetes genéticos que permiten gran adaptabilidad. Un paso a destacar en el desarrollo embrionario es la gastrulación, que consiste en la invaginación de una capa de células del embrión. Así, a primera vista no parece tan importante pero su aparición supuso la especialización en 3D, como ocurre en la mayoría de los animales como nosotros frente a la especialización en 2D que ocurre en los gusanos.

 

Una captura de pantalla de un celular con texto e imágenes

El contenido generado por IA puede ser incorrecto.


Etapas del desarrollo embrionario humano

9-El sistema nervioso y el cerebro

Mucho antes de la aparición del sistema nervioso las células se comunicaban solamente mediante contactos con su célula vecina y la emisión de señales, como hormonas. En mi opinión el salto no está tanto en la formación de una red para hacer llegar las señales más rápido sino en una centralización de las señales, que a largo plazo supondría la aparición del cerebro. El estudio de las redes neuronales ha avanzado considerablemente en los últimos años gracias a los estudios en varios animales modelo, especialmente en el gusano C. elegans, del que conocemos la red que forman sus 302 neuronas.

10-La percepción del individuo

Hasta hace unos pocos años se creía que sólo los primates superiores teníamos esta capacidad. Sin embargo varios estudios demuestran que otros mamíferos como el elefante o el delfín, e incluso aves como la urraca poseen dicha habilidad. Se ha especulado que esta capacidad es la precursora de la aparición de lo que llamamos el yo y del pensamiento racional. Si bien este último merecería una escala entera por si mismo.

 

La mecánica cuántica en procesos biológicos

La Mecánica Cuántica de la fotosíntesis:

http://neofronteras.com/?p=3012

Descubren unos mecanismos mecánico cuánticos sorprendentes y fascinantes que se dan durante parte de la fotosíntesis. Parece que un alga inventó la computación cuántica 2000 millones de años antes que los humanos.

 

Imagen que contiene animal

El contenido generado por IA puede ser incorrecto.

Alga Chroomonas. Fuente: NOAA.

Si alguien nos dice que durante la fotosíntesis se utiliza la Mecánica Cuántica no nos debería extrañar lo más mínimo. Al fin y al cabo, la célula fotoeléctrica del ascensor o las placas solares del tejado (si es que se tienen) funcionan bajo los mismos principios. La explicación al efecto fotoeléctrico tiene ya 105 años, fue dada por Albert Einstein y por ello recibió el Nóbel de Física. Todo el mundo sabe, por tanto, que la Mecánica Cuántica debe jugar un papel esencial en la fotosíntesis, pero los detalles del proceso se desconocían.
Cuando uno estudia Mecánica Cuántica (MC) por primera vez se decepciona un poco, pues su introducción suele ser fenomenológica. Uno espera ver gatos de Schrödinger y en su lugar ve, como máximo, cuantos de energía y niveles en el átomo de hidrógeno o en el pozo cuadrado. Es decir, a lo más que se suele llegar es a la ecuación de Schrödinger.
Lo más fantástico y sorprendente viene normalmente después y para ello se necesita un buen andamiaje matemático basado en los espacios de Hilbert. Es entonces cuando se ven las bases de la MC, sus postulados, la preparación de estados, la superposición de los mismos, el colapso de la función de ondas, la paradoja EPR y, ¿cómo no?, el gato de Schrödinger.
Hacer experimentos para estudiar estos detalles de la MC es muy difícil, normalmente todo se va al traste con la menor perturbación, por eso a veces hay que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto, momento en que cesa toda vibración. De ahí que sea tan difícil conseguir el famoso computador cuántico. Tener una partícula en una superposición de un par de estados es todo un logro. Pues bien, al parecer las plantas llevan haciendo esto mismo desde hace miles de millones de años.
Un equipo de la Universidad de Toronto ha hecho una gran contribución al campo de la Biología Cuántica al observar estados cuánticos muy especiales durante la fotosíntesis de algas marinas. Otro equipo australiano ha llegado a resultados similares.
Según Greg Scholes, líder del proyecto canadiense, sus experimentos muestran que los sistemas biológicos tienen la capacidad de usar la MC para así optimizar procesos esenciales como el de la fotosíntesis.
La fotosíntesis usa diferentes sistemas bioquímicos. En un primer paso están las “antenas” o los complejos que captan la luz y la llevan a los centros de reacción en donde se suceden otros procesos que finalmente dan lugar a energía química utilizable por la planta. Cuando un fotón alcanza una de estas antenas transfieren su energía a los electrones de la misma, pero esta energía se puede perder si no es transferida rápidamente a otra molécula.
En el alga Chroomonas CCMP270, por ejemplo, estas antenas tienen 8 moléculas de pigmentos tejidas en una estructura proteica más grande, y cada pigmento absorbe luz de una diferente gama de frecuencias (color) del espectro electromagnético. La ruta a lo largo de estas moléculas es importante porque cuanto más largo sea el viaje más pérdidas de energía se pueden producir. Desde un punto de vista clásico la energía debería viajar por un camino aleatorio por ellas. Por tanto, los investigadores esperaban que la energía de un pulso láser no se transfiriera desde la antena a los centros de reacción de manera eficiente y parte se perdiera.
Este equipo de investigadores aisló estas antenas o complejos de captación de luz de dos especies distintas de alga marina y estudió su funcionamiento a temperatura ambiente (a 21 grados centígrados) gracias a la espectroscopía electrónica bidimensional. Para ello se valieron de un láser de femtosegundo con el que iluminaron esos complejos y así remedar el proceso natural de absorción de luz.
El pulso de este tipo de láser es tan corto que se pueden vigilar más fácilmente los procesos que se suceden después de la iluminación sin la interferencia del haz que iluminó, aunque esos procesos sean muy rápidos. Entre los fenómenos que se pueden observar está el movimiento de la energía por las moléculas especiales que están unidas a una proteína.
Al excitar con el pulso láser se consigue que los electrones de las moléculas de pigmentos salten a un estado excitado. Al volver a sus estados fundamentales se emiten fotones con longitudes de onda ligeramente diferentes que se combinan para formar un patrón de interferencia determinado. Estudiando este patrón los científicos pudieron estudiar el estado de superposición que se creaba.
Los investigadores se vieron sorprendidos al observar claramente la supervivencia a largo plazo (cuatro veces más prolongados de lo esperado) de estados mecanico-cuánticos relacionados con ese movimiento de energía. Este tiempo (400 femtosegundos o 4 × 10-13 s) es lo suficientemente largo como para que la energía del fotón absorbida ensaye todos los posibles caminos (¿recuerda esto a la integral de caminos de Feyman?) a lo largo de la antena, permitiendo que viaje sin pérdidas. Durante un tiempo la energía de la luz absorbida reside en varios lugares a la vez. Es decir que hay una superposición coherente de estados cuánticos. En esencia la antena realiza una computación cuántica para determinar la mejor manera de transferir la energía.
El descubrimiento va en contra de la idea supuesta que sostiene que la coherencia cuántica sólo puede ocurrir a temperaturas muy bajas cerca del cero absoluto, porque le calor ambiental la puede destruir. Se desconoce cómo se las arregla este sistema fotosintético para realizar esta proeza, pero se especula que quizás se deba a la propia estructura de la proteína.
Según Scholes, este resultado podría significar que las leyes de probabilidad mecánico-cuánticas prevalecen sobre las leyes clásicas en los sistemas biológicos complejos, incluso a temperatura normal. La energía puede entonces fluir eficientemente bajo la perspectiva clásica de una manera contraintuitiva y atravesar de manera simultánea varios caminos alternativos a través de las proteínas. En otras palabras, los complejos de captación convierten la luz en una onda que viaja desde la antena a los centros de reacción sin pérdida de energía.
Scholes se plantea si los organismos desarrollaron esta estrategia mecánico-cuántica de captación de energía solar como una ventaja adaptativa. Según él es como si el alga “conociera” la Mecánica Cuántica 2000 millones de años antes que los humanos. La pregunta que queda por resolver es obvia: ¿se dan este tipo de fenómenos mecánico-cuánticos en otros procesos biológicos?
Paul Davies, director del BEYOND Center for Fundamental Concepts in Science con sede en Arizona, cree que la Naturaleza ha tenido miles de millones de años para evolucionar aprovechándose de las ventajas cuánticas, y que probablemente las explota de manera eficiente cuando puede. Sospecha que el funcionamiento de muchas estructuras biológicas nanométricas sólo se podrán entender completamente con referencias a la coherencia, efecto túnel, entrelazamiento y otros procesos cuánticos no triviales. El desafío será identificar dichos procesos en el ambiente ruidoso de la célula.

 

Tunelaje cuántico para conseguir la fusión nuclear en el Sol

 Química del Sol

https://triplenlace.com/2014/01/16/la-quimica-del-sol/   

A 8 minutos y 19 segundos-luz se encuentra nuestro sol. Cuando observamos a nuestra estrella aparecer en el horizonte entre brumas añil y rojos suaves, hace ya 8 minutos y 19 segundos que el sol estuvo en esa posición. Se encuentra nada menos que a 150 millones de Kilómetros de la Tierra. Y menos mal porque se trata de un potente reactor químico.

Del sol sabemos que su diámetro es 109 veces el de la Tierra, concretamente 1.400.000 Km; tres cuartas partes está compuesto de hidrógeno, una cuarta parte es helio y menos del 2% está formado por oxígeno, carbono, nitrógeno, silicio, neón, hierro y azufre. La temperatura en su superficie es de 5.000 grados centígrados mientras que en su núcleo alcanza la astronómica cifra (nunca mejor dicho) de 15 millones de grados centígrados. Pero ¿qué reacción química consigue tan exuberantes resultados? La fusión nuclear.

La fusión nuclear en el sol consiste en la transformación de dos átomos ligeros en un átomo más pesado. Esos átomos ligeros son el combustible de la reacción y resultan ser isótopos del hidrógeno. El hidrógeno es el más sencillo de los elementos químicos, tiene un protón en su núcleo y un electrón girando alrededor. Sin embargo, en la naturaleza también se presentan isótopos; de vez en cuando el protón del núcleo del átomo de hidrógeno aparece acompañado de partículas neutras: los neutrones. Cuando un neutrón acompaña al protón de hidrógeno en el núcleo tenemos un átomo de deuterio, 2ó D; cuando se suman dos neutrones al protón de hidrógeno tenemos otro isótopo, el tritio, 3H.

 

Diagrama

El contenido generado por IA puede ser incorrecto.



Estos dos isótopos de hidrógeno son los átomos clave de la reacción de fusión nuclear. Cuando un átomo de deuterio se encuentra con un átomo de tritio y se fusionan en un superchoque dejan tras de sí un nuevo átomo que contiene en su núcleo dos protones y dos neutrones: un átomo de helioHe. Pero si han hecho las cuentas de cabeza se habrán dado cuenta de que en este balance de materia nos sobra un neutrón.

12H + 13H → 24He + 01n

Efectivamente, ese neutrón sobrante sale despedido después del choque con la velocidad de la luz transformando su masa en energía según la famosa ecuación de Einstein:

E = mc2

Donde E es energía, m es la masa de la partícula y c es la velocidad de la luz. ¡Por cada mol de hidrógeno que reacciona se liberan 180 GJ (gigajulios)!

 


Ahora bien, visto así no parece que esta reacción tenga mucha complicación y poder controlarla nos liberaría de nuestra dependencia de combustibles fósiles como las gasolinas o el gas natural y en eso se afanan los científicos que investigan en la fusión fría. ¿Pero por qué “fría”? Volvamos al sol. Las condiciones en las que esta reacción tiene lugar no se producen con facilidad. En primer lugar, el sol es una masa de plasma. El plasma es un estado de la materia a muy altas temperaturas en el que la masa de su superficie es menos densa y mucho más densa en su núcleo. Las altas temperaturas a las que están sometidos los átomos en el plasma hacen que pierdan sus electrones convirtiéndolo en una especie de gas ionizado.

Por lo tanto en esas condiciones tenemos una bola de núcleos que se mueven y chocan entre sí y que cuanto más cerca están del núcleo de plasma alcanzan más temperatura y más densidad. Es decir, se mueven más (tienen más energía cinética) y están más cerca los unos de los otros a presiones extremas. En el mayor punto de temperatura y densidad, los núcleos, alcanzan una velocidad próxima a la de la luz. Sin embargo, aunque todo esto suena favorable para un choque de fusión nuclear, existe también otra potente fuerza que resulta desfavorable: la fuerza de repulsión entre los protones, ya que éstos tienen cargas positivas y se repelen entre sí. A veces estas fuerzas de repulsión pueden ser infinitas. La cuestión es resolver en qué momento la energía cinética y la densidad son suficientes como para vencer esa repulsión, para lo cual debemos recurrir a lo que se conoce en Física como túnel cuántico o barrera de penetración.

 

Diagrama

El contenido generado por IA puede ser incorrecto.


Este efecto de la mecánica cuántica se aprovecha de la dualidad onda-partícula de la materia a niveles subatómicos y predice que para una partícula que esté confinada en una habitación de paredes infinitamente altas, y que por lo tanto nunca las pueda superar con su función de onda asociada, pueda sin embargo atravesar la pared como si de un fantasma se tratara. La ecuación de Schrödinger puede hacer una predicción sobre la probabilidad que tiene esa partícula de salir de su confinamiento “atravesando” la pared gracias a que tenga una función de onda que varíe suavemente dentro de la región cercana a la pared y recupere el aspecto de onda oscilante cuando sale de ella. Esto es posible para partículas ligeras que atraviesan barreras o “paredes” de pequeño grosor, tales como los isótopos de hidrógeno venciendo la barrera energética de su propia repulsión.

Las intensas investigaciones en el campo de la fusión fría están orientadas a conseguir esa reacción termonuclear a temperatura ambiente. El combustible en forma de partículas ligeras como los isótopos de hidrógeno son fáciles de conseguir y se convertiría en una fuente inagotable de energía. La fusión nuclear en frío de forma controlada es, sin duda alguna, uno de los mayores retos energéticos que se plantea la ciencia moderna. En realidad, es: el reto estrella.

 

¿Es nuestra consciencia cuántica?

Confirmación de la Resonancia Cuántica en los Microtúbulos del Cerebro

https://es.resonancescience.org/blog/confirmacion-de-la-resonancia-cuantica-en-los-microtubulos-del-cerebro

 

Diagrama

El contenido generado por IA puede ser incorrecto.


Las biomoléculas presentan un comportamiento mecánico cuántico

Un equipo de investigación dirigido por Anirban Bandyopadhyay -investigador preeminente en la ciencia de la biología cuántica-, ha demostrado la existencia de vibraciones mecánicas cuánticas a alta temperatura en las neuronas del cerebro. La investigación, llevada a cabo en el Instituto Nacional de Ciencias de los Materiales de Tsukuba (Japón), descubrió cómo la oscilación de alta frecuencia de los microtúbulos -medida en este caso a un millón de ciclos por segundo (un megahercio - 1MHz de oscilación de los momentos dipolares eléctricos de los electrones libres y de cambio conformacional), provocan una interferencia de ondas que puede dar lugar a la forma característica de las oscilaciones eléctricas del cerebro que se correlacionan con la conciencia, concretamente un nuevo tipo de señal electroencefalográfica (EEG) de 40 Hz / 4 Hz de gestalts anidados (oscilaciones gamma y delta, respectivamente), denominadas "frecuencias de latido".

Las frecuencias gamma se han correlacionado con la conciencia, aparentemente a través de la acción de la sincronización neuronal, y la estructura de onda periódica de las "frecuencias de latido" gamma-delta recuerdan mucho a las bandas de interferencia alternas de los cuantos que se producen en los experimentos de doble rendija. Así, parece que se vincula la sincronización cerebral de la conciencia con los comportamientos mecánicos cuánticos subyacentes de los microtúbulos. Con estas vibraciones cuánticas, los microtúbulos pueden entrelazarse en las redes neuronales a través de canales de interconexión, llamados gap junctions (uniones en hendidura), que unen físicamente a las neuronas. Esta es la teoría de la conciencia desarrollada y defendida por el biólogo cuántico y anestesista jefe de la Universidad de Arizona, Stuart Hameroff, y el profesor emérito de matemáticas de la Universidad de Oxford, el físico Roger Penrose.

Los últimos descubrimientos apoyan firmemente su modelo de que la mecánica cuántica dentro del cerebro engendra la conciencia, el que ha recibido apasionadas críticas por parte de los académicos desde su creación en la década de 1980, como es típico de cualquier paradigma revolucionario.

El papel del agua en el cerebro

Cabe destacar que Anirban Bandyopadhyay y su equipo de investigación, han realizado experimentos que indican la importancia central del agua en las operaciones de procesamiento de la información dentro del cerebro y el cuerpo. En su artículo: el canal de agua atómico que controla las propiedades notables de un solo microtúbulo cerebral, el equipo de investigación informó sobre la experimentación con el agua altamente ordenada dentro de la cavidad cilíndrica del lumen del microtúbulo. Descubrieron que cuando se evacuaba el agua de la cámara central, el microtúbulo dejaba de mostrar una fuerte correlación en el conjunto macromolecular de las subunidades de tubulina.

Esto sugiere que el agua desempeña un papel central en la coordinación del comportamiento de las múltiples subunidades del microtúbulo y que, en efecto, lo hace funcionar como una sola molécula, un efecto altamente cuántico. El agua, como han sugerido el físico Nassim Haramein y el equipo de investigación de RSF, forma parte de la coherencia de largo alcance y de la orquestación de los procesos de información celular correlacionados con la conciencia [1].

[1] Véase la sección "El papel del agua ordenada en la coherencia y la transmisión de información dentro del sistema biológico" en Unified Spacememory Network; Haramein et al., 2017.

Observaciones de la anestesia

Además, las investigaciones realizadas en la Universidad de Pensilvania, dirigidas por Roderick G. Eckenhoff, sugieren que los compuestos anestésicos actúan en parte interrumpiendo la función normal de los microtúbulos, aparentemente dispersando los dipolos eléctricos necesarios para la conciencia. Fueron los estudios anestesiológicos de Stuart Hameroff en los años 70 los que le llevaron a sugerir un papel de los microtúbulos en la generación de la conciencia, tras observar cambios en la dinámica de los microtúbulos cuando se exponen a compuestos anestésicos. Si existe una molécula que detenga la conciencia, entonces ver qué cambios específicos se producen en el entorno celular cuando se expone a dicho compuesto, será una pista importante para saber qué estructuras están implicadas en la generación de la conciencia.

La revolucionaria idea de Hameroff era llevar los mecanismos teóricos de la conciencia desde el nivel celular-sináptico hasta la escala nanométrica de las grandes redes biomoleculares, donde podrían producirse comportamientos mecánicos cuánticos (siguiendo la estela de Herbert Fröhlich, que había propuesto que las biomoléculas poliméricas largas podían lograr ondas de solución coherentes cuánticas mediante el bombeo de energía metabólica, lo que daba lugar a un entrelazamiento no local -que más tarde se denominó condensados de Fröhlich).

Un nuevo tipo de física

Una de las características clave de la teoría de Hameroff y Penrose se denomina Reducción Objetiva Orquestada (Orch-OR), en la que se teoriza que el vector de estado (la función de onda que describe una partícula) de los electrones libres deslocalizados dentro de la tubulina, sufre una reducción independiente del observador (un colapso objetivo frente al subjetivo de la función de onda). A medida que el electrón muestra más y más atributos no locales, lo que se conoce como superposición, la geometría del espaciotiempo subyacente se bifurca, y el grado de separación entre las "burbujas" del espaciotiempo -medido en longitudes de Planck- alcanza una distancia crítica, momento en el que la geometría del espaciotiempo se vuelve inestable y colapsa.

Este mecanismo se conoce como el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad. Cada una de estas bifurcaciones y colapsos representa un cómputo cuántico indeterminable, y la coordinación de una multitud de estos eventos a través del entrelazamiento cuántico (la parte orquestada de OR) permite realizar cómputos cuánticos masivamente paralelos dentro del cerebro. Como sugieren Hameroff y Penrose, esto es lo que produce la conciencia. Dado que la reducción del vector de estado se debe enteramente a este mecanismo estocástico, y por tanto es indeterminado, confiere a la conciencia una característica de imprevisibilidad.

La ley de escalamiento de USN y Haramein

Al igual que el criterio Diósi-Penrose de colapso cuántico inducido por la gravedad está mediado por una geometría cuántica del espaciotiempo subyacente, Haramein et alii describen una geometría del espaciotiempo subyacente en el artículo The Unified Spacemory Network. A diferencia del mecanismo Diósi-Penrose, la geometría cuántica del espaciotiempo de la red del espaciotiempo unificada no implica superposiciones, sino un fuerte entrelazamiento a través de la red de microagujeros del espaciotiempo Planckiano subyacente. Además de los microtúbulos, los autores destacan la importancia de estructuras como el agua atómicamente ordenada y las membranas del sistema celular.

Los microtúbulos son estructuras macromoleculares realmente notables del sistema biológico, por lo que no es de extrañar que varios investigadores se hayan interesado por ellos. En el artículo Scale Unification, Haramein y Rauscher, junto con el biólogo Michael Hyson, presentan sus descubrimientos sobre una ley de escala universal para la materia organizada. Hay una serie de sistemas organizados de materia que obedecen a la condición de Schwarzschild de un agujero negro, y cuando se trazan en un gráfico de frecuencia frente al radio, surge una línea de tendencia, en la que las estructuras desde el tamaño cosmológico hasta el subatómico muestran una relación de escala definida. Lo sorprendente es que los microtúbulos se sitúan en el centro de la línea de tendencia, ocupando la posición entre lo ultra grande y lo ultra pequeño, el macrocosmos y el microcosmos.

"Resulta interesante que los microtúbulos de las células eucariotas, que tienen una longitud típica de 2 X 10-8cm y una frecuencia de vibración estimada de 109 a 1014 Hz se sitúan bastante cerca de la línea especificada por la ley de escalamiento e intermedia entre las escalas estelar y atómica" - Haramein et al, Scale Unification, 2008

El colector fractal

Según este hallazgo, los microtúbulos pueden tener una relación armónica con las estructuras polarizables del vacío cuántico (¡que muestran que está en una relación Ф (phi)! Una relación de escala de tipo fractal). John Wheeler describió por primera vez estas estructuras fluctuantes del vacío como mini agujeros negros de Planck. Del mismo modo, Haramein muestra cómo los osciladores del vacío pueden ser, de hecho, sistemas de agujeros blancos/agujeros negros. Así, mientras que el criterio Diósi-Penrose utiliza una geometría de "burbuja" bifurcada del espaciotiempo, la solución de Haramein muestra cómo puede ser la acción de estructuras de espaciotiempo de agujero blanco/agujero negro polarizadas, cuya oscilación funciona como elemento computacional en analogía con el colapso inducido por la gravedad del mecanismo Hameroff-Penrose.

"La universalidad de esta ley de escala sugiere un vacío estructurado polarizable subyacente de mini agujeros blancos/agujeros negros". - ibidem

Además, Haramein describe una estructura múltiple fractal del espaciotiempo, lejos de la arquitectura del espaciotiempo liso y plano previsto por el Modelo Estándar. Esto es muy pertinente para la naturaleza de la conciencia, porque los sistemas fractales son producidos por / y subyacen a la dinámica del caos.

Una de las características clave de los sistemas caóticos es que pueden ser extremadamente sensibles incluso a pequeños cambios, debido a las interacciones no lineales que resultan de las operaciones de retroalimentación y la alta coherencia global dentro del sistema. Como tal, hay una naturaleza indeterminada en los sistemas fractales/caóticos, como cuando se intenta predecir el tiempo. De modo que, a diferencia del mecanismo de reducción objetiva propuesto por Hameroff y Penrose, la dinámica caótica de las fluctuaciones de la espuma del vacío cuántico podría ser la fuente de la aparente imprevisibilidad y autovoluntad tan características de nuestra conciencia (téngase en cuenta que en la semántica técnica, caos no significa desorden, sino todo lo contrario, sólo implica ciertas características clave, como un grado de imprevisibilidad).

¿Entre la espada y la pared? Encuentre el camino del medio  

A medida que se descubren más y más fenómenos mecánicos cuánticos no locales dentro del sistema biológico, la teoría de Hameroff y Penrose (así como la de otros investigadores que investigan esta nueva frontera de la ciencia) va acumulando pruebas empíricas tangibles, de modo que los modelos de conciencia cuántica están pasando de ser bellas construcciones teóricas a convertirse en hechos demostrables. Lo notable del modelo de conciencia de Hameroff, así como de Haramein, es que encuentran el punto medio entre dos extremos: la perspectiva espiritual/metafísica por un lado, en la que la conciencia es primaria y no puede ser explicada científicamente; y por otro lado la perspectiva científica/materialista, en la que la conciencia es un estado ilusorio epifenomenológico que emerge de la complejidad de las neuronas y no juega ningún papel en la dinámica del Universo en general. En cambio, lo que llamamos conciencia no sólo puede surgir de la dinámica de los eventos físicos discretos del colector cuántico del espaciotiempo, sino que también juega un papel intrínseco en el ordenamiento y la dinámica del Universo.

 

Teoría de cuerdas y supersimetría

Teoría de cuerdas

http://www.nocierreslosojos.com/teoria-cuerdas/

  • Figura Clave: Leonard Susskind (n. en 1940)
  • Antes:
  • 1914 Se propone la idea de una quinta dimensión para explicar cómo funciona la gravedad junto con el electromagnetismo.
  • 1926 El físico sueco Oscar Klein desarrolla ideas acerca de dimensiones adicionales inobservables.
  • 1961 Se diseña una teoría para unificar el electromagnetismo y la fuerza nuclear débil.
  • Después:
  • 1975 Abraham Pais y Sam Treiman acuñan el término «modelo estándar».
  • 1995 Edward Witten, físico estadounidense, desarrolla la teoría M, que incluye 11 dimensiones.
  • 2012 El Gran Colisionador de Hadrones detecta el bosón de Higgs

Leonard Susskind

 

Foto en blanco y negro de un hombre con barba y bigote

El contenido generado por IA puede ser incorrecto.



Nacido en Nueva York (EE UU) en 1940, Leonard Susskind ocupa la cátedra Felix Bloch de Física en la Universidad de Stanford en California. Se doctoró en la Universidad Cornell (Nueva York) en 1965, y se unió a la de Stanford en 1979.

En 1969 publicó la teoría por la cual es conocido: la teoría de cuerdas. Su trabajo matemático demostró que la física de partículas podía explicarse mediante cuerdas vibrantes al más pequeño nivel. En la década de 1970 desarrolló más esa idea, y en 2003 acuñó el término «paisaje de la teoría de cuerdas». Esa radical noción pretendía destacar el gran número de universos posibles que conformarían un increíble «megaverso» con, quizá, otros universos con las condiciones necesarias para la vida. Susskind es hoy una figura muy respetada en su ámbito.

  • Obras principales:
  • 2005 El paisaje cósmico.
  • 2008 La guerra de los agujeros negros.
  • 2013 El mínimo teórico.

Física de partículas

Los físicos de partículas usan la teoría llamada «modelo estándar» para explicar el universo. Desarrollado en las décadas de 1960 y 1970, ese modelo describe las partículas y las fuerzas fundamentales de la naturaleza que componen el universo y lo mantienen unido. Un problema del modelo estándar es que no encaja con la teoría de la relatividad general de Einstein, que relaciona la gravedad (una de las cuatro fuerzas) y la estructura del espacio y el tiempo y los trata como una entidad tetradimensional («espacio-tiempo»). El modelo estándar no encaja con la curvatura del espacio-tiempo propugnada por la relatividad general.

La mecánica cuántica, en cambio, explica cómo interactúan las partículas en los niveles más pequeños (a escala atómica), pero no da cuenta de la gravedad. Se ha intentado en vano unir las dos teorías; por ahora el modelo estándar solo puede explicar tres de las cuatro fuerzas fundamentales.

Partículas y fuerzas

En física de partículas, los átomos están formados por un núcleo de protones y neutrones, rodeado por electrones. El electrón y los quarks que forman los protones y los neutrones se encuentran entre los 12 fermiones (partículas de materia): las partículas elementales o fundamentales que son los componentes básicos conocidos más pequeños del universo. Los fermiones se subdividen en quarks y leptones. Junto a esos fermiones, están los bosones (partículas portadoras de fuerza) y las cuatro fuerzas de la naturaleza: electromagnetismo, gravedad, fuerza fuerte y fuerza débil. Los diferentes bosones son responsables de llevar las diferentes fuerzas entre los fermiones.

El modelo estándar permite describir lo que se conoce como campo de Higgs, un campo de energía que, según se cree, impregna todo el universo. La interacción de las partículas en el campo de Higgs les otorga su masa; y un bosón medible llamado bosón de Higgs es el portador de fuerza para el campo de Higgs. Ahora bien, ninguno de los bosones conocidos es el portador de a fuerza de gravedad; ello ha llevado a postular una partícula hipotética, aún no detectada, llamada gravitón.

 

Diagrama

El contenido generado por IA puede ser incorrecto.


 Teoría de cuerdas

En 1969, en un intento de explicar la fuerza nuclear fuerte, que une protones y neutrones dentro del núcleo atómico, el estadounidense Leonard Susskind desarrolló la idea de la teoría de cuerdas. El estadounidense-japonés Yoichiro Nambu y el danés Holger Nielsen concibieron la misma idea al mismo tiempo. Según la teoría de cuerdas, las partículas (los componentes básicos del universo) no son como puntos, sino más bien algo así como diminutos y unidimensionales hilos de energía vibrantes, o cuerdas, que dan lugar a todas las fuerzas y la materia. Cuando las cuerdas chocan, se combinan y vibran juntas brevemente antes de separarse de nuevo.

Los primeros modelos de la teoría de cuerdas fueron problemáticos. Explicaban los bosones pero no los fermiones, y necesitaban que ciertas partículas hipotéticas, llamadas taquiones, viajaran más deprisa que la luz. También necesitaban muchas más dimensiones que las cuatro conocidas del espacio y el tiempo.

 

Diagrama, Esquemático

El contenido generado por IA puede ser incorrecto.

 

Según la teoría de cuerdas, las partículas elementales (como los electrones y los quarks, que forman los protones y neutrones) son cuerdas o filamentos de energía. Cada cuerda vibra con una frecuencia diferente, y esas vibraciones se corresponden con la velocidad, el espín y la carga de las partículas.

Supersimetría

Para sortear algunos de esos primeros problemas se ideó el principio de la supersimetría, que propone que el universo es simétrico y proporciona a cada una de las partículas conocidas del modelo estándar una compañera, o «supercompañera», no detectada; así, por ejemplo, cada fermión se empareja con un bosón, y viceversa.

 

Gráfico

El contenido generado por IA puede ser incorrecto.


Según la supersimetría, todo bosón (partícula portadora de fuerza) tiene como «supercompañero» masivo un fermión (partícula de materia), y todo fermión tiene un bosón. La teoría de las supercuerdas describe las partículas supercompañeras como cuerdas que vibran en octavas más altas. Según algunos teóricos, las supercompañeras quizá tengan masas hasta mil veces superiores a las de sus partículas correspondientes, pero aún no se han hallado partículas supersimétricas.

Cuando el bosón de Higgs, predicho en 1964 por el británico Peter Higgs, fue detectado en 2012 por el Gran Colisionador de Hadrones del CERN, resultó ser más ligero de lo esperado. Los físicos de partículas creían que sería más pesado debido a sus interacciones en el campo de Higgs con las partículas del modelo estándar, a las que daba masa. Pero no era así. La idea de las supercompañeras, unas partículas capaces de anular potencialmente algunos de los efectos del campo de Higgs y producir un bosón de Higgs más ligero, permitió a los científicos abordar ese problema. También les permitió descubrir que puede que tres de las cuatro fuerzas de la naturaleza (es decir, el electromagnetismo, la fuerza fuerte y la débil) existieran con las mismas energías en el Big Bang, un paso crucial hacia la unificación de esas fuerzas en una Gran Teoría Unificada.

 Teoría de las supercuerdas

Juntas, la teoría de cuerdas y la supersimetría dieron lugar a la teoría de las supercuerdas, en la que todos los fermiones y bosones y sus partículas supercompañeras son resultado de cuerdas vibrantes de energía. En la década de 1980, el estadounidense John Schwarz y el británico Michael Green desarrollaron la idea de que las partículas elementales como electrones y quarks son las manifestaciones exteriores de «cuerdas» vibrando en la escala de la gravedad cuántica.

Así como las diferentes vibraciones de la cuerda de un violín producen diferentes notas, propiedades como la masa son el resultado de diferentes vibraciones del mismo tipo de cuerda. Un electrón es un segmento de cuerda que vibra de cierta manera, mientras que un quark es un segmento idéntico de cuerda que vibra de una manera diferente Schwarz y Green observaron que la teoría de cuerdas predecía una partícula sin masa similar al hipotético gravitón. La existencia de semejante partícula podría explicar por qué la gravedad es tan débil en comparación con las otras tres fuerzas, pues los gravitones entrarían y saldrían de la decena aproximada de dimensiones requeridas por la teoría de cuerdas. Así, apareció por fin algo que Einstein buscó mucho tiempo, una teoría capaz de describirlo todo en el universo, una «teoría del todo».

Una teoría unificadora

Los físicos en busca de una teoría que lo englobe todo encuentran problemas cuando se enfrentan a los agujeros negros, donde la teoría de la relatividad general se une a la mecánica cuántica tratando de explicar lo que pasa cuando una cantidad inmensa de materia se ve comprimida en un espacio muy reducido. Según la relatividad general, cabría decir que el núcleo de un agujero negro (su singularidad) tiene esencialmente un tamaño cero. Sin embargo, según la mecánica cuántica, eso es imposible porque nada puede ser infinitamente pequeño. De acuerdo con el principio de incertidumbre concebido por el alemán Werner Heisenberg en 1927, no es posible llegar a niveles infinitamente pequeños porque una partícula siempre puede existir en múltiples estados. Teorías cuánticas fundamentales como la superposición y el entrelazamiento también determinan que las partículas pueden estar en dos estados a la vez. Tienen que producir un campo gravitatorio, lo cual sería coherente con la relatividad general, pero no parece ser así según la teoría cuántica.

Si la teoría de las supercuerdas pudiera resolver algunos de esos problemas, se convertiría en la teoría unificadora que buscan los físicos. Sería posible demostrarla haciendo colisionar partículas. Algunos científicos creen que, a energías más elevadas, quizá se vean gravitones disolviéndose en otras dimensiones, lo cual supondría una prueba fundamental en favor de la teoría.

Desenredar la idea

 

Imagen que contiene verde, gato

El contenido generado por IA puede ser incorrecto.


Las paredes del observatorio de neutrinos Super-Kamiokande están cubiertas de fotomultiplicadores para detectar la luz emitida por los neutrinos que interactúen con el agua del tanque.

Algunos científicos, como el estadounidense Sheldon Glashow, creen que la investigación en teoría de cuerdas es inútil porque nadie podrá demostrar nunca si las cuerdas que describe existen. Tratan de energías tan elevadas (más allá de la medida llamada energía de Planck) que nos resulta imposible detectarlas, y puede que siga resultando imposible en el futuro inmediato. Nuestra incapacidad de diseñar un experimento que ponga a prueba la teoría de cuerdas llevó a algunos científicos como Glashow a preguntarse si es en realidad una teoría científica. Hay quienes disienten y señalan que hay en marcha experimentos que intentan encontrar algunos de esos efectos y proporcionar una respuesta. El experimento Super-Kamiokande, en Japón, por ejemplo, podría demostrar aspectos de la teoría de cuerdas estudiando la desintegración del protón (la teorizada desintegración de un protón a lo largo de escalas temporales extremadamente largas), un fenómeno predicho por la supersimetría.

La teoría de las supercuerdas puede explicar gran parte del universo desconocido –por ejemplo, por qué el bosón de Higgs es tan ligero y por qué la gravedad es tan débil–, y quizá pueda explicar la naturaleza de la energía oscura y la materia oscura. Algunos científicos creen incluso que la teoría de cuerdas podría proporcionar información sobre el destino del universo, y si seguirá o no expandiéndose de modo indefinido.

 

Un fotón ha retrocedido en el tiempo

Cómo en física cuántica están logrando lo que hasta ahora parecía imposible: revertir el tiempo

https://wolksoftcr.com/como-en-fisica-cuantica-estan-logrando-lo-que-hasta-ahora-parecia-imposible-revertir-el-tiempo/

La frontera entre la ciencia y la ciencia ficción es en ocasiones casi imperceptible. Y se lo debemos, cómo no, a nuestra cada vez más precisa comprensión del mundo en el que vivimos. Ese mundo macroscópico que podemos ver con nuestros ojos y en el que los procesos parecen discurrir en un único sentido en el tiempo: del presente hacia el futuro.

Estamos tan íntimamente acostumbrados a observar este fenómeno que nos resulta muy difícil aceptar la posibilidad de revertir un proceso en el tiempo. De recuperarlo tal y como era antes de haber sufrido algún cambio que podríamos considerar permanente. Pero no es imposible. La física cuántica acaba de demostrarnos que es factible tanto en el ámbito teórico como en el práctico.

La física cuántica y nuestra intuición están, una vez más, a punto de chocar

Nuestra intuición nos invita a concluir que la irreversibilidad de los procesos es una ley fundamental. Y el segundo principio de la termodinámica nos da la razón. Se puede formular de muchas maneras diferentes, pero todas ellas, si son correctas, nos invitan a concluir que los fenómenos físicos son irreversibles.

Si colocamos un recipiente con agua muy caliente en la encimera de nuestra cocina y no hacemos nada con él, el agua se enfriará. Y si se nos cae un vaso y estalla al golpearse con el suelo, no volverá a recomponerse por sí solo. Precisamente el intercambio de calor y la entropía son dos propiedades íntimamente ligadas al segundo principio de la termodinámica.

 

Imagen que contiene objeto, reloj de arena, interior, tabla

El contenido generado por IA puede ser incorrecto.

 

La entropía suele definirse como la magnitud que mide el grado de desorden de un sistema físico. Es una simplificación quizá excesiva, pero puede ayudarnos a entender de qué estamos hablando sin que nos veamos obligados a recurrir a conceptos complejos. En cualquier caso, este principio termodinámico es de naturaleza estadística, y, además, la física clásica es determinista.

Esto significa que es posible predecir la evolución de un sistema físico a lo largo del tiempo si conocemos su estado inicial y las ecuaciones diferenciales que describen su comportamiento. Sin embargo, en el dominio de la física cuántica, en el mundo de lo muy pequeño, de las partículas, la reversibilidad de los procesos físicos es posible. Lo es desde un punto de vista teórico desde hace mucho tiempo, y ahora lo es también en la práctica.

La física cuántica lo permite: un fotón ha retrocedido en el tiempo

Los físicos coquetean con la posibilidad de revertir procesos en el tiempo desde hace muchos años. De hecho, algunos teóricos trabajan en unas herramientas muy peculiares que la mecánica cuántica ha colocado en sus manos: los protocolos de reversión o rebobinado universal. No necesitamos conocer con detalle cómo funcionan estos mecanismos, pero nos viene de perlas saber que sirven para revertir los cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado inicial. Y sin saber tampoco en qué consistieron esos cambios.

Los protocolos de reversión universal sirven para revertir los cambios que ha sufrido un sistema cuántico sin conocer cuál era su estado inicial

Casi parece magia, pero no lo es. Es ciencia. Y, precisamente, el físico teórico español Miguel Navascués lidera un equipo de investigación en el Instituto de Óptica Cuántica e Información Cuántica de la Academia de las Ciencias de Austria experto en esta disciplina. Miguel y sus colaboradores han diseñado un innovador protocolo teórico de reversión que propone, a grandes rasgos, qué procedimiento es posible utilizar para conseguir que un sistema cuántico recupere su estado inicial sin conocer qué cambios ha sufrido.

Llevar algo así a la práctica no es nada sencillo, lo que ha provocado que los físicos experimentales que trabajan en esta área no hayan tenido demasiado éxito. Afortunadamente, el panorama ha cambiado. Y es que el equipo de físicos experimentales de la Universidad de Viena dirigido por Philip Walther ha conseguido implementar con éxito el protocolo de reversión universal diseñado por Miguel Navascués y su equipo.

El corazón de su experimento es un sofisticado equipo óptico constituido por varios interferómetros y enlaces de fibra óptica que se comportan de forma conjunta como un interruptor cuántico. Conocer con detalle cómo funciona este ingenio queda fuera del propósito de este artículo porque, como podemos intuir, su complejidad es extraordinaria. Aun así, quien no se deje intimidar fácilmente y tenga curiosidad puede consultar el artículo que han publicado Navascués, Walther y sus equipos en la revista Optica. Merece mucho la pena.

El corazón de su experimento es un sofisticado equipo óptico constituido por varios interferómetros y enlaces de fibra óptica que se comportan de forma conjunta como un interruptor cuántico

Un apunte antes de seguir adelante: un interferómetro es un dispositivo óptico que emplea una fuente de luz (habitualmente un láser) para medir con muchísima precisión los cambios introducidos en un sistema físico. Descrito de esta forma parece algo muy complicado, y sí, es complicado, pero podemos recurrir a un ejemplo cercano en el tiempo para ilustrar de qué estamos hablando.

Los experimentos LIGO, en Estados Unidos, y Virgo, en Italia, utilizados para identificar y analizar ondas gravitacionales son interferómetros. Y, como acabamos de ver, ambos incorporan un sofisticado equipo óptico y un láser que les permite medir las perturbaciones gravitatorias generadas por los objetos masivos del cosmos que están sometidos a una cierta aceleración. Estas perturbaciones se propagan por el continuo espacio-tiempo a la velocidad de la luz bajo la forma de ondas, y los interferómetros las recogen.

De alguna forma el interruptor cuántico que han construido los equipos de Navascués y Walther es parecido a LIGO o Virgo, pero a una escala infinitamente menor debido a que su propósito es identificar y medir los cambios introducidos en un sistema cuántico. Lo que han conseguido es asombroso: han revertido con éxito la evolución en el tiempo de un fotón sin conocer previamente ni su estado inicial ni qué cambios había experimentado. En la práctica es lo mismo que viajar hacia atrás en el tiempo.

 

Imagen de la pantalla de un celular con letras

El contenido generado por IA puede ser incorrecto.


 Este esquema describe el ingenioso equipo óptico diseñado por los investigadores de la Universidad de Viena y el Instituto de Óptica Cuántica e Información Cuántica de la Academia de las Ciencias de Austria.

Parece razonable pensar que conseguir esto con una sola partícula, con un fotón, no es demasiado interesante, pero nada más lejos de la realidad. El resultado que han obtenido estos investigadores, que ya ha sido revisado por pares, es extraordinario porque abre de par en par las puertas que probablemente van a permitirnos entender mucho mejor las reglas que subyacen en el mundo en el que vivimos. Las reglas, en definitiva, de la mecánica cuántica.

Lo que permite a este experimento desmarcarse de otros anteriores que también pretendían demostrar la posibilidad de revertir el estado de un sistema cuántico es que el protocolo de reversión universal de Navascués y Walther ha conseguido hacerlo sin tener ningún tipo de información previa acerca del estado del sistema cuántico. Podemos verlo como si hubiesen conseguido recomponer a la perfección un jarrón de porcelana sin conocer el número de fragmentos que tenían inicialmente, su forma, y mucho menos que pertenecían a un jarrón y eran de porcelana.

En las conclusiones de su artículo estos investigadores insisten en algo muy importante: los resultados que han obtenido no son válidos únicamente en los sistemas cuánticos de naturaleza fotónica, que son los que trabajan con luz; son coherentes con otros sistemas cuánticos. Por esta razón, las aplicaciones de esta tecnología pueden ser muy numerosas, especialmente en el ámbito de la computación cuántica.

Y es que los protocolos de reversión universal pueden en teoría ser utilizados para resolver uno de los mayores desafíos que plantean actualmente los ordenadores cuánticos: la corrección de errores. De hecho, este es probablemente el muro más alto que los investigadores en computación cuántica tendrán que derribar para conseguir que los ordenadores cuánticos sean capaces de resolver los tipos de problemas complejos en los que en teoría son muy superiores a los superordenadores clásicos.

 

Modelo Cosmológico Lambda-CDM (Cold Dark Matter)

Modelo Lambda-CDM:

https://es.wikipedia.org/wiki/Modelo_Lambda-CDM

En cosmología, el modelo Lambda-CDM o ΛCDM (del inglésLambda-Cold Dark Matter) representa el modelo de concordancia del Big Bang que explica las observaciones cósmicas de la radiación de fondo de microondas, así como la estructura a gran escala del universo y las observaciones realizadas de supernovas, arrojando luz sobre la explicación de la aceleración de la expansión del Universo. Es el modelo conocido más simple que está de acuerdo con todas las observaciones.

  • Λ (lambda) indica la constante cosmológica como parte de un término de la energía oscura que permite conocer el valor actual de la expansión acelerada del Universo que se inició hace unos 6 mil millones de años.1La constante cosmológica se describe en términos de , la fracción de densidad de energía de un universo plano. En la actualidad,  0.70, lo que implica que equivale al 70% de la densidad de energía del presente universo.
  • La materia oscura fría es el modelo de materia oscura en el que la velocidad de sus partículas es muy inferior a la velocidad de la luz, de ahí el adjetivo "fría". La materia oscura fría es no-bariónica, a diferencia de la materia bariónica normal con la que no interacciona excepto mediante la gravedad. Este componente constituye el 26% de la densidad de la energía del actual universo. El 4% restante es toda la materia y energía (materia bariónica), que componen los átomos y los fotones que son los bloques que construyen los planetas, las estrellas y las nubes de gas en el universo.
  • El modelo supone un espectro de casi invariancia de escala de perturbaciones primordiales y un universo sin curvatura espacial. También asume que no tiene ninguna topología observable, de modo que el universo es mucho más grande que el horizonte observable de la partícula. Se dan predicciones de inflación cósmica.

El modelo asume que la Relatividad General es la teoría correcta de la gravedad a escalas cosmológicas. Es frecuentemente nombrado como el modelo estándar de la cosmología del Big Bang, porque es el modelo más simple que proporciona una explicación razonablemente buena de las siguientes propiedades del cosmos:

  • La existencia y estructura del fondo cósmico de microondas
  • La estructura a gran escala de la distribución de galaxias
  • Las abundancias de hidrógeno (incluyendo deuterio), helio y litio
  • La expansión acelerada del universo observado en distantes galaxias y supernovas

El modelo ΛCDM se ha simulado con éxito en superordenadores: partiendo de la composición que tenía el Universo (átomos de hidrógeno, helio, litio, etc, fotones, neutrinos,… transcurridos 11.5 millones de años después del Big-Bang, la simulación forma estrellas, galaxias y estructuras de cúmulos y supercúmulos de galaxias muy similares a los objetos reales que observamos en el firmamento2El modelo ΛCDM se puede ampliar añadiendo la inflación cosmológica, la quintaesencia y otros elementos que son áreas actuales de estudio e investigación en Cosmología.

 

Enlaces externos:

https://naukas.com/2018/06/13/ultimo-articulo-hawking-la-naukas-iii-propuesta-ausencia-frontera/

http://hyperphysics.phy-astr.gsu.edu/hbasees/quantum/barr.html

http://hyperphysics.phy-astr.gsu.edu/hbasees/Particles/expar.html

https://www.konradlorenz.edu.co/blog/que-son-los-agujeros-de-gusano/

https://es.wikipedia.org/wiki/Universos_paralelos

http://www.nocierreslosojos.com/teoria-cuerdas/

https://www.epe.es/es/tendencias-21/20220907/universo-tendria-companero-antimateria-lado-75131498

https://www.abc.es/ciencia/abci-bang-pudo-fabricar-futuros-diferentes-202103070858_noticia.html

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

https://gefesrsef.wordpress.com/2016/12/11/las-propiedades-emergentes-y-su-papel-en-la-superconductividad/

https://es.wikipedia.org/wiki/Efecto_Meissner

https://www.bbc.com/mundo/noticias-64065872

https://ecoosfera.com/sci-innovacion/energia-oscura-fuente-agujeros-negros/?utm_content=cmp-true

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo

http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html

https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

https://www.gsjournal.net/Science-Journals/Research%20Papers-Mechanics%20/%20Electrodynamics/Download/748

https://culturacientifica.com/2023/04/04/integral-de-caminos/

https://es.resonancescience.org/blog/la-catastrofe-del-vacio-2

https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual

https://www.curiosamente.com/videos/que-es-la-gravedad-cuantica-de-bucles

http://www.javierdelucas.es/vaciomedir.htm

https://es.resonancescience.org/blog/la-catastrofe-del-vacio-2

https://significado.com/ecuacion-de-dirac/

https://es.wikipedia.org/wiki/M%C3%A9trica_de_Alcubierre

https://tallcute.wordpress.com/2010/07/05/los-10-saltos-evolutivos-mas-complejos/

http://neofronteras.com/?p=3012

https://triplenlace.com/2014/01/16/la-quimica-del-sol/   

https://es.resonancescience.org/blog/confirmacion-de-la-resonancia-cuantica-en-los-microtubulos-del-cerebro

http://www.nocierreslosojos.com/teoria-cuerdas/

https://es.knowablemagazine.org/article/physical-world/2022/agujeros-negros-primordiales

https://www.wikiwand.com/es/Correspondencia_AdS/CFT

https://wolksoftcr.com/como-en-fisica-cuantica-estan-logrando-lo-que-hasta-ahora-parecia-imposible-revertir-el-tiempo/

https://es.wikipedia.org/wiki/Modelo_Lambda-CDM

 

Tipos de partículas virtuales

Ver entrada: “Partícula virtual”

https://es.wikipedia.org/wiki/Part%C3%ADcula_virtual

Bosones virtuales

En el modelo estándar, las fuerzas fundamentales están transmitidas por los bosones de gauge. Cuando estos bosones transmiten las fuerzas son partículas virtuales, y son creados en el vacío. Incluso en el vacío más perfecto, ya sea el que se cree en un laboratorio, el espacio intergaláctico, o el vacío interatómico, son creados continuamente bosones de gauge con una existencia extremadamente breve. La mecánica cuántica predice que la energía del vacío nunca puede llegar a ser cero. La energía menor posible del vacío se llama energía del punto cero, y es precisamente esta poca (aunque no nula) energía la de las partículas virtuales. Este modelo del vacío se llama vacío cuántico.

La transmisión de las fuerzas entre las distintas cargas de cada interacción está descrita por la teoría cuántica de campos, que describe cómo los bosones de gauge virtuales se transmiten a través del vacío polarizado entre las cargas reales.3Algunos de estos bosones también se presentan como partículas reales en distintos fenómenos:

Pero una cuestión aún a resolver es saber si todos los bosones de gauge sin masa que existen, incluidos los que arriba se exponen como reales, son al fin y al cabo virtuales. Estas partículas se mueven a la velocidad de la luz, y por tanto, atendiendo a la teoría de la relatividad de Albert Einstein, el tiempo que tardan en propagarse entre dos puntos cualesquiera del universo es instantáneo desde el punto de vista de las partículas. Entonces, al ser el tiempo de emisión y absorción instantáneo, ¿serían virtuales?

Pares virtuales de partícula-antipartícula

No solo surgen bosones de gauge en el vacío cuántico, sino también pares partícula-antipartícula; como por ejemplo pares electrón-positrón, o pares quark arriba-antiquark arriba, etc.

Siempre debe crearse una partícula con su antipartícula, conservándose así el número leptónico o bariónico (dos números cuánticos) del universo. Las partículas que surgen de este modo son virtuales porque en cuanto aparecen, tienen tan poca energía que al instante se aniquilan entre sí.

Estos pares virtuales se usan como un esquema explicativo para justificar que la energía del punto cero del vacío no es estrictamente nula. Además la radiación de Hawking puede recibir una explicación intuitiva en términos de la creación de estos pares virtuales de partícula-antipartícula.

 

Experimento de la doble rendija

Ver PDF: Sanchez-Jesus Double slit experiment interpretation:

 https://www.gsjournal.net/Science-Journals/Research%20Papers-Mechanics%20/%20Electrodynamics/Download/748

Interpretación del experimento de la doble rendija

Para esta interpretación, consideraremos las partículas como los vehículos (los transmisores) de la energía pero siendo estas partículas indetectables de por sí (no pueden interactuar directamente con nada). Las interacciones no son provocadas por la partícula en sí sino por los portadores de fuerza que emite (generalmente los fotones virtuales). Cuando un detector detecta un electrón, realmente no lo “toca”, ni siquiera lo “ve”, sino que interactúa con su campo electromagnético (con sus fotones virtuales). El electrón está emitiendo continuamente una nube de fotones virtuales que le rodea. La distribución de estos fotones está definida por una función de onda. El detector no interactúa con el electrón mismo, sino con su nube de fotones virtuales. Cuando el electrón pasa por una rendija, toda su nube de fotones pasa por las dos rendijas así que interfiere consigo misma y se distribuye según el patrón de interferencia. Para que uno de estos fotones interactúe con la pantalla, la energía del electrón debe ser usada en ese punto –si no se usa esa energía sencillamente no habría interacción-. Si una vez hecha una interacción por un fotón con la pantalla, otro fotón intentara interactuar con la pantalla otra vez, no habría interacción ya que no habría más energía que permitiera que esa interacción ocurriera. Así que, cada vez que enviamos un electrón, la pantalla mostrará sólo un punto, pero el patrón total se definirá por la posibilidad de interacción (esto es, por la distribución de la nube de fotones, una vez ha pasado por las dos rendijas, es decir, por el patrón de interferencia). Esto significa que el electrón, la partícula indetectable (pero transmisor de la energía), podría pasar sólo por una rendija –o quizás no, realmente no nos importa- pero sus posibilidades de ser detectado pasan realmente por ambas rendijas (en forma de una nube de fotones que interfiere consigo misma).

 

Principio de incertidumbre de Heisenberg para la energía-tiempo

Ver post: “Relación de indeterminación de Heisenberg”:

https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

 


Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de indeterminación es también la utilizada para estudiar el concepto de energía del vacío.

 

Dualidad onda-partícula, Postulado de Louis de Broglie y longitudes de onda de un electrón y de una pelota de beisbol

Ver post “Dualidad onda-corpúsculo”

https://es.wikipedia.org/wiki/Dualidad_onda_corp%C3%BAsculo

La dualidad onda-corpúsculo, también llamada dualidad onda-partícula es un fenómeno cuántico, bien comprobado empíricamente, por el cual muchas partículas pueden exhibir comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros experimentos. Dado ese comportamiento dual, es típico de los objetos mecanocúanticos, donde algunas partículas pueden presentar interacciones muy localizadas y como ondas exhiben el fenómeno de la interferencia.

De acuerdo con la física clásica existen diferencias claras entre onda y partícula. Una partícula tiene una posición definida en el espacio y tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa nula.

Actualmente se considera que la dualidad onda-partícula es un “concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa”. (Stephen Hawking2001)

Este es un hecho comprobado experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de Broglie, físico francés de principios del siglo xx. En 1924 en su tesis doctoral, inspirada en experimentos sobre la difracción de electrones, propuso la existencia de ondas de materia, es decir que toda materia tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con que la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó gran interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias de producirse. Sin embargo, Einstein reconoció su importancia y cinco años después, en 1929, De Broglie recibió el Nobel en Física por su trabajo.

Su trabajo decía que la longitud de onda  de la onda asociada a la materia era:

 

Longitudes de onda del electrón y de una pelota de beisbol:

http://hyperphysics.phy-astr.gsu.edu/hbasees/debrog.html

 

Texto

El contenido generado por IA puede ser incorrecto.


Si se explora los valores de la longitud de onda de los objetos macroscópicos ordinarios como pelotas de béisbol, se encontrará que sus longitudes de onda de DeBroglie son ridículamente pequeñas. La comparación de la potencia de diez para la longitud de onda, mostrará que las longitudes de onda de los objetos ordinarios son mucho más pequeñas que un núcleo. La implicación es que para los objetos ordinarios, nunca se verá ninguna evidencia de su naturaleza ondulatoria, y para todos los fines prácticos pueden considerarse como partículas.

 

Ecuación de onda de Schroedinger, aplicada al caso de un túnel cuántico

Blog: “El efecto túnel a detalle”

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

Ecuación de onda de Schroedinger:

 

Texto

El contenido generado por IA puede ser incorrecto.


Ecuación de onda de Schroedinger para cada una de las tres regiones:

 

Texto, Carta

El contenido generado por IA puede ser incorrecto.

 

Diagrama

El contenido generado por IA puede ser incorrecto.

 

Soluciones de las funciones de onda en las regiones i y III:

 

Imagen que contiene Logotipo

El contenido generado por IA puede ser incorrecto.

 

Es una expresión oscilatoria: son ondas

Solución en la región II:

Texto, Carta

El contenido generado por IA puede ser incorrecto.

 

No es una expresión oscilatoria

 

 

La entropía de Shannon

https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/

La entropía de Shannon, un concepto fundamental en la teoría de la información, cuantifica la incertidumbre o aleatoriedad en un conjunto de resultados posibles. Desarrollada por Claude Shannon en su innovador artículo de 1948, “Una teoría matemática de la comunicación”, esta medida proporciona un marco matemático para comprender el contenido de la información. En esencia, la entropía de Shannon ayuda a determinar la cantidad promedio de información producida por una fuente estocástica de datos. Cuanto mayor sea la entropía, mayor será la incertidumbre y más información se necesitará para describir el estado del sistema.

Matemáticamente, la entropía de Shannon (H) se define mediante la fórmula:

H(X) = -Σ p(x) log₂ p(x),

donde p(x) representa la probabilidad de ocurrencia de cada resultado posible x en una variable aleatoria X. La suma se realiza sobre todos los resultados posibles. Esta fórmula revela que la entropía se maximiza cuando todos los resultados son igualmente probables, lo que indica una incertidumbre máxima. Por el contrario, si un resultado es seguro, la entropía es cero, lo que refleja que no hay incertidumbre. Esta representación matemática es crucial para varias aplicaciones en análisis de los datos, criptografía y aprendizaje automático.

En el contexto de la compresión de datos, la entropía de Shannon juega un papel fundamental en la determinación de los límites teóricos de la compresibilidad. La entropía de una fuente de datos indica el número mínimo de bits necesarios para codificar la información sin perder ningún contenido. Los algoritmos de compresión, como la codificación de Huffman y la codificación aritmética, aprovechan los principios de Shannon para reducir el tamaño de los archivos de datos y al mismo tiempo preservar la información esencial. Comprender la entropía de un conjunto de datos permite a los ingenieros de datos optimizar el almacenamiento y la transmisión, lo que lo convierte en una consideración crítica en las aplicaciones de big data.

 

Evolución de las mutaciones del virus del Covid para reducir su entropía, según un estudio de Vopson:

https://pubs.aip.org/aip/adv/article/12/7/075310/2819368/Second-law-of-information-dynamics

 

 

Hallazgo en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad similar a los "cambios de fase" estudiados en física

https://www.muyinteresante.com/ciencia/hallazgo-adn-salto-matematico-vida-complejidad-cambio-fase.html

 

 

En el contexto del artículo científico sobre el origen de la célula eucariota, se propone que la evolución genética enfrentó una situación similar: encontrar nuevas proteínas útiles se volvió tan complejo que solo un cambio en el “algoritmo” de búsqueda —la incorporación de secuencias no codificantes— permitió seguir avanzando.

 

 

 

Un nuevo estudio sobre el origen de la célula eucariota sugiere que, en la evolución genética, los genes crecieron hasta un punto crítico en el que ya no era viable seguir aumentando el tamaño de las proteínas que producían. Esa tensión estructural marcó un límite que obligó a cambiar de estrategia.

En lugar de colapsar, la evolución reorganizó el sistema. Así como en física nuclear ciertos núcleos logran mantenerse estables incorporando nuevos patrones de enlace o adoptando otras configuraciones, la genética superó su propio límite incorporando secuencias no codificantes, como los intrones, y creando nuevas formas de regulación. El resultado no fue el caos, sino una transición hacia una mayor complejidad. Igual que un átomo puede ganar estabilidad con una nueva arquitectura nuclear, el ADN encontró un camino evolutivo más robusto mediante una reestructuración profunda. El hallazgo conecta de manera elegante biología y física, mostrando que los límites estructurales también impulsan la innovación en la naturaleza.

 

 

¿Y si la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una simulación

https://wwwhatsnew.com/2025/05/05/y-si-la-gravedad-fuera-un-algoritmo-una-sorprendente-teoria-sobre-vivir-en-una-simulacion/

Un físico británico propone una idea tan provocadora como fascinante: la gravedad no sería una fuerza física, sino una herramienta de optimización de datos… como si el universo fuera una simulación

El universo como una especie de superordenador

Melvin Vopson, físico de la Universidad de Portsmouth, ha presentado una nueva interpretación del funcionamiento del universo. Según su estudio más reciente, la gravedad podría ser el resultado de un proceso de compresión de información, no una atracción invisible entre cuerpos con masa.

Es decir, el universo actuaría como una especie de “ordenador cósmico” que busca la eficiencia al manejar la enorme cantidad de datos que contiene. Si eso suena a ciencia ficción, es porque lo es… pero también tiene bases científicas intrigantes.

Gravedad como función de eficiencia

Vopson sostiene que la gravedad no está “jalando” cosas entre sí, como aprendimos en la escuela. En cambio, lo que hace es “empaquetar información” para organizar la materia de la forma más eficiente posible. Es como cuando comprimimos archivos en un .zip para que ocupen menos espacio en el disco duro: reducimos el desorden y mantenemos todo más compacto.

En esta visión, la gravedad sería una especie de algoritmo que minimiza el “peso informático” del universo, simplificando la forma en que la materia se distribuye en el espacio. La razón por la que los planetas, las estrellas y nosotros mismos estamos formados por bloques cohesivos de materia no sería solo una consecuencia de la masa, sino una decisión del sistema para optimizar el procesamiento de datos.

¿Pixeles en el espacio-tiempo?

Esta teoría se apoya en una idea aún más radical: que el espacio-tiempo estaría compuesto por unidades discretas, como si fueran píxeles en una pantalla. Cada una de estas unidades sería binaria: estarían “encendidas” o “apagadas”, dependiendo de si contienen materia o no. Tal como ocurre con los bits en un ordenador, que solo pueden tener dos estados, estas unidades formarían la base fundamental de la realidad.

Así, cuando varios objetos o partículas ocupan el mismo espacio, el “sistema” (el universo) opta por agruparlos como un solo bloque, reduciendo la complejidad computacional. Es decir, si dos partículas están demasiado cerca, la gravedad las “fusiona” en un objeto mayor, lo que es más simple de procesar que muchas partículas sueltas. Un truco de eficiencia digital.

De la entropía térmica a la “infodinámica”

Uno de los pilares de la física clásica es la segunda ley de la termodinámica, que dice que la entropía siempre tiende a aumentar. Es la razón por la que las cosas se desordenan con el tiempo, por la que el hielo se derrite o una habitación se ensucia si no la limpias.

Vopson propone un giro: la segunda ley de la infodinámica. En lugar de asumir que la información se desordena, sugiere que puede tender al orden si eso beneficia al sistema. En otras palabras, el universo buscaría reducir la entropía informativa, justo al revés que con la energía.

Este comportamiento se parece más al de una simulación que al de un sistema físico clásico. En los videojuegos, por ejemplo, los recursos se cargan solo cuando son necesarios. No se representa cada hoja de cada árbol, sino solo lo que el jugador ve, para reducir la carga de procesamiento. Esta lógica parece similar a la que Vopson le atribuye a la gravedad.

La información tiene masa

En investigaciones anteriores, Vopson ya había planteado otra idea audaz: la información tiene masa. Según sus cálculos, los datos que componen el universo no son simplemente conceptos abstractos, sino entidades físicas con peso propio. Un poco como ocurre con el ADN, que almacena toda la información genética en una cadena molecular tangible.

Imagina que cada partícula del universo fuera una especie de unidad de almacenamiento, como una memoria USB microscópica. Así, la realidad física sería una gran base de datos en constante reorganización, y las leyes de la física serían los algoritmos que la gestionan.

¿Estamos dentro de una simulación?

Esta teoría no prueba directamente que vivimos en una simulación. Pero ofrece una nueva lente con la cual mirar fenómenos que seguimos sin comprender del todo, como la propia gravedad. Por más que podamos medirla y predecir sus efectos con enorme precisión, seguimos sin saber por qué existe ni cómo surge.

El modelo de Vopson sugiere que la gravedad no es una causa, sino una consecuencia. Un síntoma de que el universo opera bajo reglas de procesamiento de información, igual que un videojuego necesita un motor gráfico para mostrar los objetos.

Si esta visión resulta acertada, podría ser una de las pistas más claras de que el universo no es una creación espontánea, sino una construcción lógica, basada en código.

¿Qué implicaría esto para la ciencia?

Plantear que la gravedad es un algoritmo optimizador abre puertas insospechadas. Para empezar, cambiaría radicalmente nuestra forma de entender la física. Las teorías actuales buscan unificar la gravedad con la mecánica cuántica, pero no lo han logrado aún. Esta perspectiva podría ofrecer un puente entre lo físico y lo informático.

Además, cambiaría nuestra concepción de la materia y la información. Si los datos son materia y la materia es información, entonces todo el universo podría leerse como un gigantesco libro codificado. O como un videojuego extremadamente avanzado, del que no somos más que personajes conscientes dentro de un entorno virtual muy bien diseñado.

Un debate tan filosófico como científico

Las implicaciones de esta teoría no solo tocan la física, sino también la filosofía. Si todo lo que percibimos es parte de una simulación, ¿quién la creó? ¿Y por qué? ¿Podemos salir de ella o hackearla?

Aunque estas preguntas aún están lejos de tener respuesta, lo cierto es que teorías como la de Vopson nos invitan a repensar lo que creemos saber sobre el mundo. Y eso, en sí mismo, ya es una forma valiosa de avance científico.

 

La información de los estados de un sistema cuántico no se puede perder

 https://gemini.google.com/app/2aef51477ffae076?hl=es-ES

La afirmación de que la información de los estados de un sistema cuántico no se puede perder es un pilar fundamental de la mecánica cuántica, arraigado en el principio de unitariedad. Esto significa que la evolución de un sistema cuántico es siempre reversible y determinista si se conocen todas las variables. Aquí te detallo las razones principales por las que esto se considera cierto:

1. Evolución Unitaria de los Operadores Cuánticos

La evolución temporal de un estado cuántico está gobernada por operadores unitarios. Matemáticamente, un operador unitario U satisface la condición UU†=U†U=I, donde U† es la adjunta de U y I es la matriz identidad. Esto implica varias cosas cruciales:

  • Conservación de la Norma: Los operadores unitarios conservan la "longitud" o norma de un vector de estado cuántico. Esto es esencial porque la norma de un estado cuántico representa la probabilidad total de encontrar el sistema en alguno de sus posibles estados, y esta probabilidad siempre debe ser 1 (o 100%). Si la norma cambiara, implicaría que la información se está perdiendo o creando de la nada.
  • Reversibilidad: Dado que un operador unitario tiene una inversa (U−1=U†), cualquier proceso cuántico descrito por un operador unitario es completamente reversible. Si conoces el estado final, puedes aplicar la operación inversa para recuperar el estado inicial sin ambigüedad. La pérdida de información implicaría que no podrías reconstruir el pasado a partir del presente.
  • Conservación del Producto Interno: Los operadores unitarios también conservan el producto interno entre dos estados cuánticos. Esto significa que si dos estados son distinguibles al principio, seguirán siendo distinguibles de la misma manera después de la evolución unitaria. La información sobre sus diferencias relativas se mantiene.

2. Teorema de No-Clonación

El teorema de no-clonación establece que es imposible crear una copia idéntica arbitraria de un estado cuántico desconocido. Aunque esto podría parecer contradictorio con la conservación de la información (uno podría pensar que clonar preserva la información), en realidad lo refuerza. Si se pudiera clonar un estado, se podría obtener información ilimitada sobre él, lo que abriría la puerta a la extracción de información de formas que violarían los principios cuánticos, como la incertidumbre de Heisenberg. El hecho de que no se pueda copiar perfectamente un estado implica que la información contenida en ese estado es intrínseca y no se puede duplicar sin alterar el original, protegiendo así su unicidad.

3. Entrelazamiento y Decoherencia

Aunque a menudo se confunde, la decoherencia no es una pérdida de información, sino una dispersión de la misma. Cuando un sistema cuántico interactúa con su entorno (por ejemplo, con partículas de aire o fotones), se entrelaza con ese entorno. La información sobre el estado del sistema original no desaparece, sino que se distribuye y se "esconde" en las correlaciones entre el sistema y su vasto entorno.

  • Información Distribuida: La información del estado cuántico original se vuelve inaccesible localmente porque está dispersa a través de un enorme número de grados de libertad del ambiente. Es como intentar encontrar una gota de tinta en una piscina olímpica: la tinta no desaparece, pero ya no está contenida en un solo lugar.
  • Irreversibilidad Aparente: La decoherencia hace que los estados cuánticos parezcan "colapsar" o volverse clásicos, lo que sugiere una pérdida de información. Sin embargo, esta irreversibilidad es solo aparente desde una perspectiva práctica. En principio, si pudiéramos medir y controlar todos los grados de libertad del entorno entrelazado, la información podría ser recuperada. No es una pérdida fundamental, sino una dificultad práctica de recuperación.

4. El Problema de la Información del Agujero Negro

El principio de conservación de la información es tan fundamental que ha llevado a uno de los debates más profundos en la física moderna: el problema de la información del agujero negro. Si la radiación de Hawking causa que los agujeros negros se evaporen, ¿qué sucede con la información de la materia que cayó en ellos?

  • Paradoja: Si la información se perdiera definitivamente dentro del agujero negro al desaparecer este, la mecánica cuántica (que exige la conservación de la información) estaría en conflicto directo con la relatividad general (que describe la evaporación del agujero negro).
  • Búsqueda de Soluciones: Este conflicto ha impulsado décadas de investigación y ha llevado a ideas como el "firewall" (pared de fuego) o la teoría de cuerdas, que buscan resolver la paradoja garantizando que la información, de alguna manera, escape o se preserve en la radiación saliente o en el remanente del agujero negro. El hecho de que este sea un problema tan grande subraya la importancia de la conservación de la información en la mecánica cuántica.

En síntesis, la imposibilidad de perder información en los estados cuánticos se deriva directamente de la naturaleza reversible y unitaria de la evolución cuántica, el teorema de no-clonación, y la forma en que el entrelazamiento dispersa la información en lugar de destruirla. Este principio es tan central que cualquier aparente violación (como en el caso de los agujeros negros) representa un desafío fundamental para nuestra comprensión del universo.

 

¿Cuáles son los dos pasos principales del algoritmo de Grover y cómo contribuyen al proceso de búsqueda?

https://es.eitca.org/quantum-information/eitc-qi-qif-quantum-information-fundamentals/grovers-quantum-search-algorithm/grovers-algorithm/examination-review-grovers-algorithm/what-are-the-two-main-steps-of-grovers-algorithm-and-how-do-they-contribute-to-the-search-process/

 

 

Einstein y la teoría unificada: una nueva propuesta reabre su idea más ambiciosa

·        Una formulación geométrica alternativa plantea que el electromagnetismo podría entenderse sin partículas ni campos, solo como curvaturas del espacio-tiempo

https://www.eldiario.es/spin/einstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html#amp_tf=De%20%251%24s&aoh=17447048300984&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.eldiario.es%2Fspin%2Feinstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html

Una formulación geométrica alternativa plantea que el electromagnetismo podría entenderse sin partículas ni campos, solo como curvaturas del espacio-tiempo

Durante décadas, Albert Einstein persiguió un sueño que nunca llegó a cumplir: unificar todas las fuerzas fundamentales en un único marco matemático. Su obsesión era la llamada teoría unificada del campo, una formulación capaz de describir tanto la gravitación como el electromagnetismo bajo una sola estructura. Esa búsqueda quedó inconclusa a su muerte, en 1955. Ahora, un estudio firmado por los físicos Jussi Lindgren y Andras Kovacspublicado en Journal of Physics: Conference Series, reabre ese camino con una propuesta que prescinde de partículas, campos y cargas, y lo reduce todo a una cuestión de geometría.

El modelo que presentan parte de una idea radical: que el electromagnetismo no requiere una entidad física separada que actúe sobre las partículas, sino que puede interpretarse como una manifestación local de la geometría del espacio-tiempo. Apoyándose en una extensión matemática de la relatividad general conocida como geometría de Weyl, los autores afirman que la carga eléctrica no es más que una compresión geométrica, una alteración en la estructura del espacio-tiempo que modifica las trayectorias de las partículas. Así, los electrones o protones no “sienten” una fuerza: simplemente siguen geodésicas —caminos naturales en ese entorno curvado— como si no existiera nada externo actuando sobre ellos.

Una reformulación del electromagnetismo desde la geometría

La propuesta implica una reformulación completa de las ecuaciones clásicas del electromagnetismo. En lugar de las conocidas ecuaciones de Maxwell, el modelo parte de un principio variacional, similar al que se usa para derivar las leyes del movimiento en física teórica. Este enfoque lleva a una serie de ecuaciones no lineales, que describen el comportamiento electromagnético como una propiedad del espacio, no como una fuerza aplicada desde fuera. Lindgren las denomina “Ecuaciones Generalizadas de Maxwell” y las considera un puente natural hacia la integración de la mecánica cuántica.

Uno de los aspectos más llamativos del estudio es su reinterpretación de la ecuación de Dirac, fundamental para describir partículas con spin, como el electrón. Según los autores, esta ecuación no necesita postular propiedades cuánticas a priori, sino que puede deducirse como una consecuencia natural del tipo de geometría que adopta el espacio-tiempo en determinadas regiones. La frecuencia asociada al movimiento ondulatorio del electrón —el fenómeno conocido como Zitterbewegung, una oscilación a la velocidad de la luz— sería, en esta visión, el origen profundo de la función de onda cuántica.

Más allá de la física clásica: efectos cuánticos desde la curvatura

El modelo también ofrece una explicación alternativa al límite clásico entre la física cuántica y la clásica. Hasta ahora, se asumía que este umbral dependía de la intensidad de los campos (el llamado límite de Schwinger). Pero en esta nueva formulación, la clave estaría en la curvatura local del universo, concretamente en la integral del potencial vectorial, que determina cuándo emergen los efectos cuánticos. Esta visión sitúa la transición entre lo clásico y lo cuántico no en una propiedad del campo, sino en la forma del espacio en sí.

Más allá de la coherencia matemática, la propuesta tiene implicaciones que podrían verificarse experimentalmente. Por ejemplo, predice la posibilidad de que partículas cargadas experimenten desviaciones sin necesidad de un campo electromagnético presente, lo que se relaciona directamente con el efecto Aharonov-Bohm, un fenómeno cuántico en el que el potencial modifica la fase de una partícula sin que haya fuerza alguna actuando sobre ella. En este marco, el espacio-tiempo deja de ser un escenario pasivo para convertirse en un medio activo, que puede alterar el comportamiento de la materia sin intervención directa.

Una teoría del todo sin partículas nuevas ni dimensiones ocultas

Los autores defienden que esta aproximación geométrica podría ofrecer una alternativa viable a otras grandes teorías unificadoras como la teoría de cuerdas, que requieren dimensiones adicionales y entidades aún no observadas. “Nuestra propuesta no necesita partículas nuevas, ni dimensiones ocultas —explica Lindgren—. Solo una forma distinta de mirar la geometría del universo”. Aun así, reconocen que se trata de un primer paso y que su modelo necesita desarrollos matemáticos más amplios y una revisión detallada de su compatibilidad con las predicciones experimentales ya conocidas.

 

El algoritmo de Grover como parte fundamental de la propia naturaleza

https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/

Cualquier ser vivo de la Tierra usa el mismo código, en el cual el ADN almacena información mediante cuatro bases de nucleótidos. Las secuencias de nucleótidos codifican información para construir proteínas a partir de un alfabeto de 20 aminoácidos.

Pero ¿por qué se trata de estos números, 4 y 20, y no otros? En 2000, solo unos años después de que Grover publicara su trabajo, el investigador del Instituto Indio de Ciencia de Bangalore, Apoorva Patel demostró que el algoritmo de Grover podía explicar estos números.

La idea de Patel está relacionada con la forma en la que el ADN se ensambla dentro de las células. En esta situación, la maquinaria molecular de cada célula debe buscar el nucleótido correcto dentro de una sopa molecular de bases. Si hay cuatro opciones, una búsqueda clásica necesitaría una media de cuatro pasos. Por lo tanto, la maquinaria tendría que probar cuatro bases diferentes durante cada paso de ensamblaje.

Pero la búsqueda cuántica mediante el algoritmo de Grover es mucho más rápida: Patel demostró que cuando hay cuatro opciones, una búsqueda cuántica puede distinguir entre cuatro alternativas en un solo paso. De hecho, cuatro es el número óptimo.

Este planteamiento también explica por qué hay 20 aminoácidos. En el ADN, cada conjunto de tres nucleótidos define un solo aminoácido. Entonces, la secuencia de tripletes genéticos es la que define la secuencia de aminoácidos en una proteína.

Pero durante el ensamblaje de proteínas, cada aminoácido es elegido entre 20 opciones diferentes. El algoritmo de Grover también explica este número: una búsqueda cuántica de tres pasos puede encontrar un objeto en una base de datos que contenga hasta 20 tipos de entrada. De nuevo, el 20 es el número óptimo.

En otras palabras, si los procesos de búsqueda involucrados en el ensamblaje de ADN y proteínas deben ser lo más eficientes posible, el número de bases existentes debe ser cuatro y el número de aminoácidos debe ser 20, exactamente tal y como es en realidad. La única condición es que las búsquedas sean de naturaleza cuántica.

Puede ser que la vida sea solo un ejemplo de la búsqueda cuántica de Grover y que este algoritmo sea en sí mismo una propiedad fundamental de la naturaleza. Si la idea se confirma, podría resultar grandiosa.

Endosimbiosis

https://culturacientifica.com/2024/05/06/nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis/?utm_source=rss&utm_medium=rss&utm_campaign=nitroplasto-un-nuevo-organulo-generado-por-endosimbiosis

 

La gran bióloga Lynn Margulis propuso en 1967 que la endosimbiosis está detrás del origen de las células eucariotas. Según ella, un procariota ancestral se habría asociado con bacterias heterótrofas, es decir, capaces de oxidar la materia orgánica. Esta asociación, ocurrida hace unos 2000 millones de años, se habría consolidado, de forma que las bacterias perdieron su capacidad de vida libre y se convirtieron en las mitocondrias, los orgánulos en los que se genera la energía que necesitan nuestras células. Un segundo evento de endosimbiosis, hace 1500 millones de años, asoció a un eucariota con cianobacterias fotosintéticas, capaces de producir materia orgánica utilizando la energía de la luz. Esas bacterias terminaron por constituir orgánulos celulares, los cloroplastos. De esta forma algas y plantas verdes llegaron a ser capaces de utilizar la luz para sintetizar compuestos orgánicos.

 

Las cianobacterias de la fotosíntesis distorsionan el espacio-tiempo

Explicación alternativa de la distorsión del espacio-tiempo producida por una entropía cuántica

La entropía es cuántica

La entropía acopla los campos de materia con la geometría del espacio-tiempo

La entropía cuántica describe las diferencias entre materia y espacio-tiempo

La gravedad cuántica existe en forma de partículas y de ondas

Si la gravedad existe en forma de partículas, eso podría explicar la materia oscura

Al principio el desorden era máximo (la entropía era mínima), por lo que el espacio-tiempo tenía una energía baja, una curvatura pequeña y una constante cosmológica pequeña

 Cuando aparece un salto clave en la evolución, la complejidad aumenta, la entropía disminuye y el espacio-tiempo cambia

Un ejemplo claro de salto cuántico evolutivo clave sería cuando las cianobacterias colaboran para producir la fotosíntesis

Así pues, acción de cianobacterias = fotosíntesis = cambio en entropía = cambio en geometría del espacio-tiempo = distorsión del espacio-tiempo = paso del electrón desde el punto A al B, a pesar de que NO tiene energía suficiente

Conclusión: las cianobacterias son capaces de crear distorsiones del espacio-tiempo y al hacerlo consiguen que los electrones de la fotosíntesis lleguen, por efecto túnel, a su meta (aunque no tengan energía suficiente)

 

Cuando ocurrió un salto evolutivo clave, por ejemplo, el descubrimiento de la fotosíntesis por unas cianobacterias en algún lugar de la Tierra, esa experiencia quedó grabada en el Horizonte de Sucesos, y de ahí cogieron la información el resto de las cianobacterias para reproducirlo a nivel masivo

Es como si esa información quedara grabada en la “nube” de las cianobacterias, espacio especial del Horizonte de Sucesos reservado para la comunidad de cianobacterias

Los experimentos hechos por cada cianobacteria quedan grabados originalmente por separado, pero con el objetivo último de reducir el espacio ocupado en el Horizonte de Sucesos, se terminan agrupando todos los experimentos de cada cianobacteria en unos pocos

El proceso anterior es consecuencia de la segunda ley de la infodinámica, propuesta por Vopson

El espacio-tiempo de ese Horizonte de Sucesos no es continuo, es discreto, como una pixelación

Cada pixel almacena información sobre los objetos que contiene, creando una gigantesca memoria cósmica

Propuesta del Principio Holográfico: lo que vemos que sucede en el horizonte de un agujero negro es una representación perfecta de lo que sucede en el interior

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

Si nuestro Universo está rodeado por un agujero negro, basta ver todo lo que ha quedado grabado en su Horizonte de Sucesos para saber lo que ha ocurrido en nuestro Universo, desde el principio de los tiempos

Eso sí, hay una restricción: un cierto volumen físico de nuestro Universo NO puede contener más información que la que se puede codificar en su frontera, el Horizonte de Sucesos del agujero negro que nos rodea

¿Cuál sería la unidad mínima de información?, ¿el bit cósmico?

Texto

El contenido generado por IA puede ser incorrecto.

A es el área de Planck

Con este razonamiento, la propuesta del Principio Holográfico es que el horizonte del agujero negro contiene un bit de información por cada pequeño recinto de tamaño igual al área de Planck sobre su superficie.

Un agujero negro que almacenase tres millones de bits de información cuántica debería tener un área de tres millones de áreas de Planck, que son diminutas.

Si nos vamos a un caso bien sencillo, como podría ser un agujero negro de un centímetro de radio (que es lo que mediría el de la Tierra si esta se comprimiese), la información que podría almacenar sería de:

 

 

Para calcular el área del agujero hemos usado la fórmula del área de una esfera.

Esto es una barbaridad. Un ordenador normal almacena no más de 10 elevado a 13 bits, una cantidad prácticamente nula en comparación con la que nos ha salido. La propia Tierra, en principio, requiere menos bits de información para ser descrita que esa cantidad.

Según la segunda ley de la infodinámica descrita por Vopson, la optimización del “espacio en disco” necesario para almacenar esa información hace que las masas puntuales tiendan a moverse y fusionarse en un único objeto, siguiendo el principio de minimización de la entropía informativa  

Según Vopson, el virus del Covid evolucionó hacia un estado de menor entropía

La segunda ley de la infodinámica es cierta no solo a nivel de moléculas sino de seres humanos: la atracción / reducción de distancias entre dos personas reduce la entropía infodinámica, o lo que es lo mismo aumenta la complejidad

Conclusión

Mi memoria radica en un agujero negro que nos rodea, la de todo nuestro Universo también

Ese agujero negro es la brana gravitatoria del Modelo de Randall-Sundrum,que está en la 5º dimensión

Ese agujero negro está compuesto de partículas S superpesadas, de masa negativa

Sabemos, según Thorne, que si un agujero negro gira rápidamente, permite que exista vida en nuestro mundo

Todos los estados de nuestro pasado quedan grabados, porque según la Mecánica Cuántica, no se puede perder la información de la evolución de una función de onda

La evolución de la función de onda de un determinado sistema queda determinada por la ecuación de onda de Schroedinger de ese sistema

La información queda grabada en el horizonte de sucesos de ese agujero negro, conforme a lo que predice el Principio Holográfico y la Conjetura de Maldacena

El Universo evoluciona optimizando el espacio ocupado por la información, según la segunda ley de la infodinámica de Vopson  

Si en ese agujero negro está grabado todo lo que ha sucedido en nuestro Universo, ahí es donde radica toda la sabiduría

 

Webs relacionadas

¿Y si el Universo está flotando en un extraño océano de masa negativa?

https://www.google.com/amp/s/www.abc.es/ciencia/abci-y-si-universo-esta-flotando-extrano-oceano-masa-negativa-201812100900_noticia_amp.html

 

Masa negativa: Explicando el universo que no vemos

https://www.astrobitacora.com/masa-negativa-explicando-el-universo/

 

Crean un objeto con "masa negativa": va para el lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton

https://www.bbc.com/mundo/noticias-39642708

 

Nuevo modelo para unificar la materia oscura y la energía oscura en gravedad negativa

https://www.xatakaciencia.com/astronomia/nuevo-modelo-para-unificar-materia-oscura-energia-oscura-gravedad-negativa

 

Nuevos indicios de que el espacio-tiempo estaría hecho de recuerdos

https://www.msn.com/es-es/noticias/tecnologia/nuevos-indicios-de-que-el-espacio-tiempo-estar%C3%ADa-hecho-de-recuerdos/ar-AA1Hx4hb

 

La física cuántica ha llegado al rescate de los neurocientíficos. Aspira a explicar la consciencia humana

https://www.xataka.com/investigacion/fisica-cuantica-ha-llegado-al-rescate-neurocientificos-aspira-a-explicar-consciencia-humana#amp_tf=De%20%251%24s&aoh=17243638272558&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.xataka.com%2Finvestigacion%2Ffisica-cuantica-ha-llegado-al-rescate-neurocientificos-aspira-a-explicar-consciencia-humana

 

Una investigación asegura que cada célula de nuestro cuerpo podría ser consciente

https://www.infobae.com/america/ciencia-america/2024/06/21/una-investigacion-asegura-que-cada-celula-de-nuestro-cuerpo-podria-ser-consciente/

 

El cerebro estaría conectado con el cosmos a escala cuántica

https://www.tendencias21.es/El-cerebro-estaria-conectado-con-el-cosmos-a-escala-cuantica_a44304.html

 

Nueva teoría: demuestran que la gravedad puede existir sin masa

https://www.dw.com/es/la-gravedad-puede-existir-sin-masa-lo-que-cuestiona-la-existencia-de-la-hipot%C3%A9tica-materia-oscura/a-69326362

 

Crean un objeto con "masa negativa": va para el lado contrario al que lo empujas y desafía las leyes físicas de Isaac Newton

https://www.bbc.com/mundo/noticias-39642708

 

El Big Bang pudo crear un 'Universo espejo', en el que el tiempo va hacia atrás

https://www.abc.es/ciencia/abci-bang-pudo-lugar-universo-espejo-tiempo-hacia-atras-202203240033_noticia.html#amp_tf=De%20%251%24s&aoh=17269563549948&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.abc.es%2Fciencia%2Fabci-bang-pudo-lugar-universo-espejo-tiempo-hacia-atras-202203240033_noticia.html

 

«¿Por qué las cosas se caen?», una explicación de Susskind a través de «Relatividad General = Mecánica Cuántica»

https://estudiarfisica.com/2018/07/03/por-que-las-cosas-se-caen-una-explicacion-de-susskind-a-traves-de-relatividad-general-mecanica-cuantica/

 

Maldacena y Milekhin explican el agujero de gusano de la película Interstellar (2014) usando la teoría de Randall-Sundrum

https://francis.naukas.com/2020/08/18/maldacena-y-milekhin-explican-el-agujero-de-gusano-de-la-pelicula-interstellar-2014-usando-la-teoria-de-randall-sundrum/

 

Qué es la 5ª dimensión y dónde está escondida

https://www.bbc.com/mundo/noticias-44725096

 

Mecánica cuántica y cerebro: una revisión crítica

https://neurorgs.net/investigacion/mecanica-cuantica-y-cerebro-una-revision-critica/

 

¿Es relevante la mecánica cuántica para la comprensión científica del problema mente-cerebro?

https://www.unav.edu/web/ciencia-razon-y-fe/es-relevante-la-mecanica-cuantica-para-la-comprension-cientifica-del-problema-mente-cerebro

 

El efecto túnel a detalle

https://tunelcuantico.home.blog/2019/02/16/el-efecto-tunel-a-detalle/

 

El principio holográfico: el más bello avance hacia la gravedad cuántica

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

 

Una nueva teoría sugiere que la gravedad surge de la entropía, lo que podría unir la relatividad y la mecánica cuántica

https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/

 

Un físico propone que la gravedad no es una fuerza real, sino la prueba de que vivimos en una gigantesca simulación informática diseñada para optimizar y comprimir la información del universo

https://www.muyinteresante.com/ciencia/gravedad-simulacion-universo-optimizar-informacion.html

 

Is gravity evidence of a computational universe? 

https://pubs.aip.org/aip/adv/article/15/4/045035/3345217/Is-gravity-evidence-of-a-computational-universe

 

Las dos caras del espacio-tiempo

https://culturacientifica.com/2025/07/15/las-dos-caras-del-espaciotiempo/

 

Einstein y la teoría unificada: una nueva propuesta reabre su idea más ambiciosa

https://www.eldiario.es/spin/einstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html#amp_tf=De%20%251%24s&aoh=17447048300984&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwww.eldiario.es%2Fspin%2Feinstein-teoria-unificada-nueva-propuesta-reabre-idea-ambiciosa-pm_1_12222283.html

 

Una nueva teoría sugiere que la gravedad surge de la entropía, lo que podría unir la relatividad y la mecánica cuántica

https://www.esquire.com/es/ciencia/a64099694/teoria-gravedad-entropia-unificada/

 

Un famoso algoritmo cuántico podría ser parte de la propia naturaleza
https://invdes.com.mx/ciencia-ms/un-famoso-algoritmo-cuantico-podria-ser-parte-de-la-propia-naturaleza/

 

Hallazgo en el ADN revela que la vida dio su ‘salto matemático’ hacia la complejidad similar a los "cambios de fase" estudiados en física

https://www.muyinteresante.com/ciencia/hallazgo-adn-salto-matematico-vida-complejidad-cambio-fase.html

 

Qué es: la entropía de Shannon

https://es.statisticseasily.com/glosario/%C2%BFQu%C3%A9-es-la-entrop%C3%ADa-de-Shannon%3F/

 

¿Y si la gravedad fuera un algoritmo? Una sorprendente teoría sobre vivir en una simulación

https://wwwhatsnew.com/2025/05/05/y-si-la-gravedad-fuera-un-algoritmo-una-sorprendente-teoria-sobre-vivir-en-una-simulacion/

 

¿Cuáles son los dos pasos principales del algoritmo de Grover y cómo contribuyen al proceso de búsqueda?

https://es.eitca.org/quantum-information/eitc-qi-qif-quantum-information-fundamentals/grovers-quantum-search-algorithm/grovers-algorithm/examination-review-grovers-algorithm/what-are-the-two-main-steps-of-grovers-algorithm-and-how-do-they-contribute-to-the-search-process/

 

El principio holográfico: el más bello avance hacia la gravedad cuántica.

https://estudiarfisica.com/2015/06/26/el-principio-holografico-el-mas-bello-avance-hacia-la-gravedad-cuantica/

 

EUREKA La conjetura de Maldacena. De la mecanica cuántica al universo holográfico

https://diarium.usal.es/guillermo/2017/11/eureka-la-conjetura-de-maldacena-de-la-mecanica-cuantica-al-universo-holografico/