viernes, 22 de febrero de 2019

Mensajes amables de fin de semana: hemos estado buscando a LUCA ( Last Universal Common Ancestor ) en el sitio equivocado



Estimad@s Clientes y/o amantes del LEAN:

Cuando vamos hacia atrás, haciéndonos preguntas sobre el origen de la vida, siempre aparece LUCA ( Last Universal Common Ancestror )
Siempre ha sido una obsesión de los biólogos saber más sobre LUCA, dónde vivía, cómo era, y ello por razones obvias
Dedico este post a las últimas investigaciones que sugieren que hemos estado buscando a LUCA en el sitio equivocado
Por otro lado, como complemento adecuado de este post, hablo del ATP, la molécula que es la  fuente primaria de energía de todas las células del planeta
Subrayándolo de manera explícita, , el ATP ( adenosín trifosfato ) es la molécula que dota de energía a los procesos celulares de todas las formas de vida de este planeta y se supone que lleva con nosotros desde el momento mismo en que surgió la vida. Podría decirse que el adenosín trifosfato, ATP, es uno de los pilares fundamentales de la vida, junto al ADN y al ARN entre otros elementos, y una de las causas principales de que aquel primer ser vivo fuese vivo  

Nuevas pistas para localizar a LUCA, el primer ser vivo de la Tierra
Todas las criaturas que pueblan la Tierra descienden de un único organismo. Uno que fue el primero, hace miles de millones de años, en estrenar todos los procesos físicos y químicos propios de lo que hoy llamamos «vida». Los científicos le han dado un nombre a este organismo: LUCA, del inglés Last Ultimate Common Ancestor o, en español, el Ultimo Antepasado Común.
La búsqueda de LUCA se ha convertido, desde hace décadas, en una especie de obsesión para los biólogos que estudian el origen de la vida en nuestro planeta. ¿Cómo era? ¿Dónde vivía? ¿Qué tipo de ambientes eran sus preferidos?
Las formas de vida más antiguas halladas en la Tierra tienen una edad de 3.760 millones de años. Pero las características de esos microbios, dotados ya de cierta complejidad y diversidad, hacen pensar que existió una forma de vida anterior, de la que todos descienden, y que esa forma de vida podría ser incluso varios cientos de millones de años más antigua.
Hasta ahora nadie ha conseguido identificar a LUCA. Pero las pistas que nos llevarán hasta él son cada vez más numerosas. No olvidemos que el código genético que LUCA inauguró es universal, esto es, compartido por todos los seres vivos presentes y pasados del planeta. Lo cual quiere decir que las características de LUCA están, en cierto modo, «grabadas» en el interior de nuestros propios genes.
Lo que sabemos sobre LUCA
Ahora, un equipo de investigadores del Instituto Pasteur, en París, ha encontrado una nueva pista sobre LUCA. Una que quizá nos permita, por fin, llegar hasta él. En un estudio recién publicado el biorxiv.org, en efecto, los científicos explican que el antepasado común de toda la vida terrestre prefería, probablemente, los climas moderados, y no el calor abrasador que en aquellos lejanos tiempos debió ser dominante y que muchos biólogos piensan que era el ambiente en el que LUCA se movía. El hallazgo, si se confirma, podría significar que hemos estado buscando a estos primeros organismos en el lugar equivocado.
Sabemos ya que LUCA apareció muy pronto en la historia de la Tierra, por lo menos hace 3.900 millones de años, y que relativamente poco tiempo después se dividió en dos grupos bien diferenciados, bacterias y arqueas, que en la actualidad dan cuenta de la inmensa mayoría de todas las especies vivas. Tuvieron que pasar miles de millones de años más para que aparecieran los primeros organismos pluricelulares, criaturas más complejas y formadas por múltiples células. De los casi 4.000 millones de años de historia de la vida en la Tierra, la inmensa mayor parte estuvo ocupada por estas criaturas unicelulares.
En su artículo, Ryan Catchpole y Patrick Forterre explican cómo han reexaminado toda la evidencia genética que indicaba, hasta ahora, que LUCA se adaptó a vivir en un ambiente de calor extremo. Y han llegado a la conclusión de que gran parte del trabajo científico anterior podría haber estado basándose en el rastreo erróneo de un gen clave, lo que alteró nuestra comprensión sobre el tipo de hábitat en en que LUCA prosperó.
Estanques a hasta 100ºC
Muchos biólogos, en efecto, han argumentado que LUCA vivía en lugares extremadamente calientes, como los estanques geotérmicos, donde las temperaturas superan ampliamente los 50, o incluso los 100 grados. Como ejemplo, esos investigadores señalan a muchas especies de arqueas actuales que viven y prosperan en ambientes de ese tipo. los organismos capaces de vivir en ambientes por encima de los 50 grados se denominan «termófilos», y los pocos conocidos capaces de sobrevivir por encima de los 80 grados reciben el nombre de «hipertermófilos».
¿A cuál de los dos tipos perteneció LUCA? El estudio de su genoma podría proporcionar piestas sobre la categoría a la que pertenece. Pero hasta ahora no se ha encontrado ni un solo ejemplar de este organismo. Sin embargo, en un magnífico estudio de 2016, un equipo de biólogos dirigido por Bill Martin, de la Universidad alemana de Düsseldorf, localizó genes universales en los genomas de algunos de los organismos más antiguos conocidos, genes que con toda probabilidad también estuvieron presentes en LUCA.
El equipo de Martin localizó 355 de estos genes. Entre ellos, uno que tiene la misión de codificar una proteína llamada girasa inversa, esencial para los hipertermófilos. Y aunque no está del todo claro qué es exactamente lo que hace este gen, sí que es cierto que se encuentra en los genomas de todos los hipertermófilos e incluso de algunos termófilos. Pero nunca en organismos «mesófilos», los que viven en ambientes a temperaturas inferiores a los 50 grados. Por lo tanto, su más que probable presencia en LUCA sugiere que, como mínimo, nuestro primer antepasado era termófilo.
En busca de genes universales
Pero Catchpole y Forterre no están tan seguros de eso. En su estudio, en efecto, identificaron 376 genes para la girasa inversaprocedentes de 276 clases diferentes de arqueas y bacterias, y con ellos construyeron un árbol genealógico para establecer cómo esos genes se habían estado heredando desde la lejana época de LUCA. Para su sorpresa, su árbol no coincidía con los árboles conocidos para bacterias y arqueas, lo que sugiere fuertemente que el gen de la girasa inversa no era «original», sino que se había transferido después, y repetidamente, entre las varias especies.
Para los investigadores, esto significa que el gen no estaba presente en LUCA, sino que surgió más tarde, en un organismo posterior. Y si LUCA carecía del gen de la girasa inversa, no pudo haber sido un termófilo, amante del calor, ni mucho menos un hipertermófilo.
En resumen, Catchpole y Forterre piensan que podríamos haber estado buscando a LUCA en los lugares equivocados. El rastreo de criaturas tan extremadamente antiguas entraña una dificultad enorme, ya que los afloramientos de rocas de la Tierra primitiva son muy escasos. Quizá ahora, cambiando de estrategia, sea finalmente posible localizar a LUCA, nuestro antepasado más lejano, la primera criatura que estrenó la vida en la Tierra.


Adenosín trifosfato (ATP): la fuente de la vida
http://antroporama.net/adenosin-trifosfato-atp-la-otra-molecula-que-soporta-la-vida/




Si alguien te pregunta qué molécula piensas que es más necesaria para la vida, probablemente respondas que el ADN. Es normal: el ADN es una molécula maravillosa, su funcionamiento y función son auténticas obras de ingeniería natural (si no lo has visto en marcha, puedes descubrirlo en “Cómo se ven realmente el ADN y sus procesos a través del microscopio“), y además está bastante “de moda” por los continuos y útiles descubrimientos que se hacen en torno a él. No obstante, si eres curioso, probablemente hayas caído en la cuenta de que el ADN, para hacer su asombrosa labor, necesita algún tipo de energía.
Por así decirlo, el ADN es una molécula genial para basar la vida debido a su capacidad de “almacenar la información de la vida”, replicarla e incluso, debido a su imperfección, modificarla; pero, ¿de dónde obtiene energía la célula para realizar todos sus trabajos de célula, entre ellos el que protagoniza el ADN? ¿Qué alimenta cada una de las células que te forman? Vamos a averiguarlo.

Adenosín trifosfato (ATP): ¿Qué es y para qué sirve?
Para funcionar, cada máquina necesita un conjunto de partes como engranajes, tornillos, clavos, palancas, etc. Del mismo modo, las máquinas biológicas cuentan con partes sofisticadas para funcionar. Algunos ejemplos son esos componentes llamados órganos, como el hígado, los riñones o el corazón. Estas complejas “unidades de la vida”, a su vez, están hechas con piezas más pequeñas llamadas células, que a su vez están constituidas por máquinas más pequeñas llamadas orgánulos. Los orgánulos celulares son la mitocondria, el aparato de Golgi, los microtúbulos y los centriolos. Incluso bajo este nivel existen partes tan pequeñas que son clasificadas formalmente como macromoléculas (moléculas grandes).
Una macromolécula críticamente importante (tanto como para ser la “siguiente en importancia tras el ADN”) es la ATP. ATP, adenosín trifosfato, es una compleja nanomáquina que sirve como fuente primaria de energía en la célula.




Algunos de los procesos vitales que surten las moléculas de ATP
Cuando se dice que es fuente primaria de energía en la célula se alude a todas las células del planeta, es decir, el adenosín trifosfato es la molécula que dota de energía a los procesos celulares de todas las formas de vida de este planeta y se supone que lleva con nosotros desde el momento mismo en que surgió la vida. Podría decirse que el adenosín trifosfato, ATP, es uno de los pilares fundamentales de la vida, junto al ADN y al ARN entre otros elementos, y una de las causas principales de que aquel primer ser vivo fuese vivo.
Llegado este punto quizás te preguntes para qué comemos o respiramos si el ATP es la fuente final de energía. Pues bien, comiendo y respirando creamos en nuestro interior, por así decirlo, el equilibrio correcto (en términos iónicos) para que nuestras células tengan el material con el que formar las moléculas de ATP que sirven para alimentar todos los procesos. Podemos imaginarlo como un proceso “matrioshka” o “muñeca rusa”: tú comes y respiras para que tus células “coman y respiren” los elementos que necesitan para crear el combustible que las mantiene vivas y que, por ende, te mantienen vivo a ti.
Un ejemplo del uso de adenosín trifosfato que hace tu cuerpo lo encontramos en las neuronas. Sabemos que las neuronas necesitan que exista un cierto equilibrio iónico dentro y fuera de sus membranas para que la transmisión de los impulsos nerviosos sea posible. Para procurarse este equilibrio, existen unas proteínas engarzadas en la membrana que actúan como “bombas” que fuerzan la circulación de iones cuando las fuerzas “normales” (la electrostática y la de difusión) no serían capaces de hacerlo sin ayuda o a la velocidad adecuada. Estas bombas, cómo no, reciben la energía que necesitan para realizar su labor de las moléculas de adenosín trifosfato.
Si estas bombas iónicas de tus neuronas dejasen de funcionar, tendrías serios problemas para transmitir impulsos nerviosos, con lo cual tendrías serios problemas para hacer latir tu corazón y para que tus pulmones se hinchasen y deshinchasen, con lo cual tendrías serios problemas para mantenerte vivo. Una minúscula molécula que marca una enorme diferencia.

¿Cómo “da energía” a mis células una molécula de adenosín trifosfato?




Una molécula de adenosín trifosfato. En rojo y naranja aparecen los tres grupos de fosfato que componen la “parte energética” de la molécula.

Para resolver esta pregunta debemos aludir a la estructura de la molécula tan bien indicada por su nombre. El adenosín trifosfato es una molécula compuesta por adenosina (una sustancia a la que ya nos hemos referido en “¿Por qué dormimos?“) y por tres fosfatosEn estos tres fosfatos reside la clave energética del adenosín trifosfato. En la adenosina parece que reside la clave señaléctica de la molécula, es decir, es la parte de la molécula que permite que otras moléculas la “capten” para sus procesos.
Estos tres grupos de fosfatos están “atados” los unos a los otros por lazos químicos energéticamente potenteslazos que en determinadas circunstancias van a “romperse” y liberar una gran cantidad de energía (hablando en proporciones de célula). El proceso típicamente energético que sucede en la célula es la ruptura del lazo que ata el último fosfato, esto es, la conversión del adenosín trifosfato en adenosín difosfato. Este proceso de paso de trifosfato a difosfato está ocurriendo continuamente en tu interior.
También ocurre en sentido inverso: el adenosín difosfato se recicla y reconvierte en trifosfato. Para poder llevar a cabo este proceso, se requiere energía y oxígeno: la energía que consigues con la comida y el oxígeno que consigues respirando. Como ves, comes para que tus células coman.

A lo largo de la respiración aerobia se originan varias sustancias pero la más importante es el ATP (trifosfato de adenosina). Esta molécula es el transportador más importante en las células y es considerada como la “moneda energética universal”, porque ejerce la misma función en todos los seres vivos.

Conoce más en “ATP: Adenosin Triphosphate (vídeo)” y en “How cells obtain energy

Para los curiosos, en el videoclip anterior os recomiendo entusiásticamente la parte relacionada con LUCA : Last Universal Common Ancestor








  1. La obtención de energía a partir de los alimentos




Cada día el cuerpo humano necesita una cantidad determinada de energía. Las células utilizan esta energía  para vivir y ejecutar sus diversas funciones. Los alimentos que ingerimos contienen una multitud de sustancias que nuestro cuerpo necesita para su correcto funcionamiento y crecimiento. Entre ellas, encontramos tres grupos moleculares a partir de las cuales podemos obtener la energía necesaria. Estos grupos son los hidratos de carbono (o carbohidratos), las grasas (o lípidos) y las proteínas. Los carbohidratos son la fuente principal de energía, las proteínas son la fuente auxiliar y las grasas son la reserva energética más importante del cuerpo.
A lo largo de la respiración aerobia (el proceso que explicarmos a continuación), se originan varias sustancias pero la más importante es el ATP (trifosfato de adenosina). Esta molécula es el transportador más importante en las células y es considerada como la “moneda energética universal”, porque ejerce la misma función en todos los seres vivos.

Pasos necesarios para la producción de ATP:




Paso 1: La digestión
El fin de la digestión es la desintegración de las moléculas complejas contenidas en la comida en sus componentes más sencillos, para que ellos puedan ser absorbidos en el intestino. Este proceso inicia en la boca con la masticación y la saliva y continúa en el estómago por medio de los movimientos peristálticos y el jugo gástrico. La bilis y el jugo pancreático que son liberados en el intestino completan la digestión. De esa manera obtenemos como productos finales la glucosa (procedente de los carbohidratos mediante la glucolisis), los ácidos grasos (a partir de los lípidos mediante la lipolisis) y los aminoácidos (elementos básicos de las proteínas, mediante un proceso llamado proteólisis).

Paso 2: Absorción y distribución
A lo largo del intestino delgado, las células intestinales absorben los nutrientes fraccionados y los liberan en el torrente sanguíneo o en los vasos linfáticos, que a su vez desembocan en el corriente sanguíneo. De esa manera la glucosa, los lípidos y los aminoácidos llegan a todas las células del cuerpo.
Es importante mencionar que no todas las células utilizan los nutrientes de la misma manera. Los eritrocitos por ejemplo, metabolizan únicamente la glucosa porque no disponen de mitocondrias. En este artículo hablaremos de la respiración aerobia que precisa la presencia de oxígeno y mitocondrias en las células. En defecto de oxígeno o de mitocondrias en una célula, la metabolización se lleva a cabo por medio de la respiración anaerobia, que pero es mucho menos eficaz de la aerobia en cuanto a producción de energía.

Paso 3: Transformación en acetil-CoA
Una vez en las células, las sustancias obtenidas por la digestión sufren transformaciones por la acción de enzimas para formar el anión piruvato (en el caso de la glucosa) o el acetoacetato (en el caso de los aminoácidos y los ácidos grasos). A continuación, estas dos sustancias son oxidadas para convertirse en acetil-coA, una molécula que se compone de un grupo acetil (procedente del piruvato o del acetoacetato) unido a la coenzima A.

Paso 4: Ciclo de Krebs, cadena respiratoria y fosforilación oxidativa
El acetil-coA entra en las mitocondrias, donde toma parte en el Ciclo de Krebs (también denominado ciclo del ácido cítrico o ciclo de los ácidos tricarboxílicos). De este ciclo proceden las moléculas NADH y FADH, unos reductores necesarios para el funcionamiento de la cadena respiratoria.
La cadena respiratoria se compone de una serie de reacciones redox (reducción-oxidación), cuyo resultado es la producción de energía térmica (calor). Esta energía en fin se utiliza para la síntesis de ATP a partir de ADP (difosfato de adenosina) y un grupo fosfato mediante el proceso metabólico de fosforilación oxidativa.
Aunque nuestro cuerpo es capaz de obtener energía a partir de los tres grupos moleculares mencionados arriba, pero los carbohidratos son la fuente idónea por la “limpieza” de su metabolización. Durante la metabolización de las proteínas por ejemplo se obtiene el amoníaco tóxico, que necesita ser trasformado para su excreción. Al contrario, del catabolismo de una molécula de glucosa (C6H12O6) provienen 36 moléculas de ATP (en neto), 6 moléculas de agua (H2O) y 6 moléculas de dióxido de carbono (CO2). No se producen sustancias tóxicas o no deseables que necesitan ser ulteriormente tratadas, en cuanto el CO2 se elimina desde los pulmones por espiración.


Fuentes y enlaces externos:
"Cadena respiratoria y fosforilación oxidativa." Universidad de Alcalá
"Cellular Respiration and Fermentation." Clermont College
"Cellular Respiration" Wikipedia, la enciclopedia libre

Fuentes de energía para el ser humano



Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros











Ayudemos a que no fracase la Industria 4.0 "enfocando la CNN" con inteligencia



Estimad@s Clientes y/o amantes del LEAN:

Todos mis Clientes están ansiosos por implantar la Industria 4.0 en sus fábricas
Muchos de ell@s se han hecho expertos en estas técnicas, y las quieren poner en marcha cuanto antes
El problema de muchas de las soluciones técnicas es el de siempre: si se implantan en los sitios equivocados, los pay-backs son inasumibles para muchas Organizaciones
El error, según mi humilde opinión, es “sobré qué parte del proceso de negocio enfocar la CNN”, esto es si se aplica la técnica correcta sobre el sitio equivocado, todo quedará como un brindis al sol, porque chocará contra todos los departamentos financieros del mundo
Y entenderme, no se trata de poner en tela de juicio toda esa maravilla de herramientas que tienen como su punto de partida el concepto Industria 4.0, lo que sugiero es que no levantemos los pies de la tierra, y nos centremos en los puntos críticos de los Procesos clave de Negocio para saber cómo, mediante este nuevo arsenal, lograr dar un nuevo salto cuántico en sus KPI´s más importantes
Conclusión: centrémonos en nuestros Procesos Clave de Negocio, estudiemos de nuevo sus KPI´s más significativos, veamos hasta dónde hemos llegado, y repensemos de nuevo qué hacer para llevarlos a una nueva dimensión cuántica

Voy a explicar estas reflexiones con un par de ejemplos

Visión artificial + robots, para operaciones de saneado
En un proceso de saneado de uno de nuestros Clientes más emblemáticos, la solución de automatización, vía robots, siempre se había desestimado debido a que la información proveniente de la Visión Artificial no era lo suficientemente buena
La Visión debería indicar a los robots la zona a sanear y el tipo de saneado a llevar a cabo en cada zona
Eso quería decir que nos la jugábamos todo a una carta: o Visión + Robots o nada…o sea seguir saneando como hace cincuenta años
¿Dónde ha estado la magia de la solución intermedia?: que unos inspectores marquen, en las piezas, las zonas a sanear, con rotuladores de diferentes colores que le indican a los robots posteriores no solo las zonas a sanear, por supuesto, sino también el tipo de saneado que tienen que llevar a cabo
De esta forma más sencilla, la Visión busca las señales de los rotuladores, le dan la información a los robots y los robots sanean, aplicando diferentes programas, o sea diferentes profundidades y áreas a sanear, dependiendo de las señales marcadas
Soluciones Industria 4.0 aplicadas: Visión + Robots
Beneficios: aumentos de productividad del 200%

Visión Artificial para subir el OEE de máquinas clave
En el proceso critico de dos de nuestros Clientes más significativos, cada vez que se realiza un cambio de referencia, hay que esperar, por protocolos del Cliente, antes de arrancar de nuevo, para llevar a cabo una serie de mediciones críticas: el trabajo lleva más de una hora…..en ese tiempo, esos procesos críticos están parados
Aplicando Visión Artificial, con cámaras montadas en robots, que llevan a cabo barridos laser de toda la pieza, esas mediciones se consiguen hacer en menos de cinco minutos
Beneficios: aplicando esta solución Industria 4.0 al proceso Cuello de Botella de toda la fábrica, se consigue un aumento de OEE general de más de dos dígitos

Conclusiones de esta reflexión:
-A veces la solución más inteligente no está en obsesionarse con la última técnica Industria 4.0, que nos lleva a no hacer nada, sino que es mejor echarle imaginación, aplicando estas tecnologías emergentes, buscando la simplicidad
-Otras veces, simplemente, nos empeñamos en aplicar estas estas maravillosas tecnologías en las áreas sugeridas por los fabricantes, y se nos pasa por alto, a ellos y a nosotros, hacerlo en otras zonas donde los beneficios son infinitamente más grandes


Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo

domingo, 17 de febrero de 2019

Mensajes amables de fin de semana: mi homenaje anual a esa maravilla del cielo de invierno que es la constelación de Orión


Estimad@s Clientes y/o amantes del LEAN:

Mi homenaje anual a esa maravilla del cielo de invierno que es la constelación de Orión

En el cielo de invierno siempre es reina indiscutible La Constelación de Orión
En estas fechas se puede ver en cuanto anochece
Sus estrellas más emblemáticas son Betelgeuse, Rigel y las tres Marías del propio cinturón; un poco más alejadas están Sirio, que pertenece a la constelación de Can Mayor y es la estrella más brillante del Cielo, y la gigante roja Aldebarán, ya perteneciente a la Constelación de mi signo zodiacal, Tauro
Cuando un aficionado a la Astronomía, en una de esas noches despejadas de invierno, le enseña a un principiante el conjunto global Betelgeuse, Rigel Aldebarán y Sirio, al salir de cenar en cualquier restaurante del mundo ( se puede ver en ambos hemisferios), ….inevitablemente conseguimos otro miembro más para el club de los que nos apasiona la Astronomía


Breve descripción del conjunto
Orión es la constelación con más estrellas brillantes. Por eso destaca tanto en el cielo nocturno y es de las más conocidas. Tiene su origen en la mitología griega. El cazador Orión murió por la picadura de un escorpión.
Puede verse desde ambos hemisferios, aunque en el cielo boreal aparece orientado hacia arriba y en el cielo austral hacia abajo. En el hemisferio norte es una de las constelaciones de invierno.
Sus estrellas están muy alejadas entre sí. La más cercana está a 70 millones de años luz, y la más alejada a 2.300 millones. La más brillante es Rigel, que está a más de 900 años luz. Es una joven supergigante 40.000 veces más brillante que nuestro Sol. En el hombro del cazador, Betelgeuse es una supergigante roja cercana al final de su vida. Bajo las tres estrellas del Cinturón se observa a simple vista una débil mancha. Es la Nebulosa de Orión, a 1.600 años luz. En ella está la Nebulosa oscura Cabeza de Caballo. Se cree que en esta región se están formando nuevas estrellas.
Sirius acompaña a Orión en el cielo nocturno. Pertenece a la constelación de Can Mayor, que representa al perro del cazador. Pese a ser la estrella más brillante, es sólo un poco más grande que el sol.

http://www.astromia.com/fotouniverso/fotorion.htm







Web preciosa y precisa sobre Astronomía y Física: 

Entre los objetos celestes más importantes que podemos encontrar en el Cinturón se encuentran la Nebulosa Cabeza de Caballo y la Nebulosa de la Llama.
La Nebulosa Cabeza de Caballo, es una nube de gas fría y oscura, situada a unos 1.500 años luz de la Tierra, al sur del extremo izquierdo del Cinturón de Orión. Forma parte del Complejo de Nubes Moleculares de Orión, y mide aproximadamente 3,5 años luz de ancho. Esta nebulosa oscura es visible por contraste, ya que aparece por delante de la nebulosa de emisión IC 434. Por su forma es la más familiar de las nebulosas de absorción.
La Nebulosa de la Llama recibe su nombre porque posee esta forma característica. Los átomos de hidrógeno de la nebulosa son constantemente ionizados por la luz de la cercana Alnitak cuya intensa radiación ultravioleta les hace perder sus electrones. Gran parte de la luminosidad de la nebulosa se produce cuando esos electrones se recombinan con el hidrógeno ionizado, dando lugar a la emisión de luz rojiza






Para los que tengan más paciencia…y tiempo, sugiero echar un vistazo a los siguientes links, sacados de otro escrito que hice sobre este tema, ahora hace un año….pero es que cada invierno que miro una noche estrellada, no puedo evitar un signo de admiración por la grandiosidad de la Constelación más emblemática de todo el Cielo nocturno, sea invierno o verano:

Breve tour por Orión:







Viaje virtual por la nebulosa de Orión:



                                  https://www.youtube.com/watch?v=UCp-XKeSvSY#t=81


La explosión de Betelgeuse
Betelgesuse es una enorme gigante roja. El destino de las gigantes rojas, una vez consumen todo su combustible, es explotar y convertirse en una supernova
En el link adjunto se pueden ver detalles:



                                     https://www.youtube.com/watch?v=tX2YzkS5LBo


Precioso documental sobre la Nebulosa de Orión, en History Channel:



La constelación de Orión, vista en 3D, para apreciar la verdadera posición de cada estrella :



                                       https://www.youtube.com/watch?v=nlVP7wo6PxI


Por qué, según la Mitología griega, cuando aparece Orión en el cielo hace frío
“El dios fue condescendiente con Orión y atendió sus súplicas. La Tierra tembló, y desde entonces lo ha venido haciendo hasta nuestros días cada vez que ha visto aparecer a Orión sobre el firmamento, ya que éste siempre ha traído consigo el viento, el frío, las tempestades, los hielos, las nieves y las escarchas, que tan abundantes son en invierno sobre la Tierra, coincidiendo con la llegada de esta constelación”

Por qué está lejos de Escorpio
“También se encargó Zeus de situar el Escorpión (Scorpius) en el firmamento, pero tuvo cuidado de ponerlo lo más alejado posible del gigante para que nunca más volvieran a enfrentarse. Así pues, cuando Orion desaparece de la bóveda celeste es cuando hace su aparición Scorpius. Mientras que Orión aparece durante el invierno, Scorpius lo hace en el verano”


La vanidad de Orión, ridiculizada por un humilde escorpión
“Un día, cuando el soberbio gigante se encontraba reunido con sus amigos, envaneciéndose de que ni los tigres, ni las panteras, ni aún los leones o serpientes eran capaces de producirle espanto alguno, desbordó la paciencia de su madre, la cual le mandó un escorpión muy venenoso. Orión, al verlo, no pudo contener su irónica sonrisa ante la ridiculez de aquel insignificante adversario enviado por Gea. 

El gigante se confió demasiado y el escorpión le picó en un pie con su potente aguijón venenoso. La terrible ponzoña se extendió por toda la sangre del cazador y éste cayó al suelo medio moribundo. Cuando vio que la muerte era ya inminente, pidió auxilio e imploró venganza al todopoderoso Zeus, ya que la muerte que le acechaba era poco gloriosa para un personaje de su talante. Le pidió al dios supremo que lo colocaran en los cielos con sus dos fieles perros de caza (Canis Mayor y  Canis Menor) y una liebre (Lepus), para que los hombres, cuando miraran hacia arriba en las oscuras noches estrelladas, recordaran sus aventuras como cazador. También le pidió a Zeus el dominio de las tempestades, las tormentas, el hielo y los vientos, a fin de poderse vengar así de su madre la Tierra (Gea).” 


Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros












Tecnologías clave de la Industria 4.0 que ayudan a dar un salto cuántico en KPI´s críticos de nuestros procesos industriales



Estimad@s Clientes y/o amantes del LEAN

En el post de hace un par de semanas comenté la necesidad imperiosa de que le demos un salto cuántico a ciertos indicadores industriales clave de nuestras fábricas, para cumplir los requisitos que nos está exigiendo de forma insistente el Mercado
En este mail me centraré en los KPI´s que considero fundamentales mejorar y apuntaré a determinadas tecnologías que nos brinda la Industria 4.0 para conseguir alcanzar las nuevas cotas que necesitamos:

-Entregas en mucho menos tiempo, o sea lead times mucho más cortos
                ¿Qué necesitamos?:
Conectar mucho más las operaciones de Valor Añadido, eliminando stocks en curso
Erradicar todas las formas de fabricación a puesto fijo, en todos los sectores, en todos los productos
Crear líneas de producción mezclada, pero realmente con muchos más productos diferentes que las actuales
Automatizar al máximo estas líneas de producción mezclada
Tecnologías 4.0 que pueden ayudar:
                Robots, para ayudar en las operaciones de cambio de referencia en las líneas
                AGV´s para automatizar las operaciones de aprovisionamiento
Sustitución de las líneas tradicionales de conveyors por otras basadas en AGV´s
Robots apoyados por Visión, para sustituir útiles de posicionamiento
Empleo masivo de Cobots, para optimizar operaciones manuales fáciles que estén en el entorno de trabajo de las personas  

-Todos los productos/servicios deben estas personalizados para cada Cliente
                ¿Qué necesitamos?:
Esta continua mezcla de productos por línea nos lleva a la necesidad de poka-yokes altamente sofisticados, para evitar fallos de calidad
Los tiempos de cambio de referencia deben ser extremadamente cortos
Tecnologías 4.0 que pueden ayudar:
                                Visión artificial, para el diseño de esos imprescindibles poka-yokes
Robots, para profundizar en poderosos SMED técnicos

-La calidad debe ser al 100%, en todos los productos, en todos los Clientes
¿Qué necesitamos?:
Calidad en origen, al 1005 y en tiempo real
Tecnologías 4.0 que pueden ayudar:
                                Visión artificial, Láser, Termografía

-La trazabilidad debe ser absoluta, desde las materias primas que se incorporan, pasando por todos los procesos de producción hasta todas las fases de logística involucradas en la entrega a los Clientes
¿Qué necesitamos?:
Identificar cada producto instantáneamente
Tecnologías 4.0 que pueden ayudar:
                                RFID, Códigos QR, Micropunzonado, Láser

-Los costes deben ser mínimos…de hecho, el Mercado espera que se le entreguen productos personalizados al coste que se hacían los antiguos, producidos según los principios de la producción masiva
                ¿Qué necesitamos?:
Empleo masivo de robots para las operaciones de producción
Empleo masivo de robots para las operaciones de aprovisionamiento
Tecnologías 4.0 que pueden ayudar:
                                Robots de rebarbado, de empaquetado, de soldadura, de ensamblaje
                               Robots de Bin Picking para cargas/descargas
                               Visión artificial para sustituir vigilancias
                               Deep Learning para detectar causas raíz de problemas complejos
                               Automatización de operaciones de Tests  

-Los OEE´s de nuestras máquinas clave deben ser muy altos, lo que implica cambios de referencia extremadamente cortos
                ¿Qué necesitamos?:
Poderosos SMED técnicos, altamente automatizados
Poderosos TPM´s predictivos, para evitar averías clave
Tecnologías 4.0 que pueden ayudar:
                                Robots para SMED´s, incluso para ayudar en la evacuación de piezas pesadas
                               AGV´s para SMED, por ejemplo para sacar/meter troqueles
                               Servomecanismos, que coloquen las piezas en su posición a la primera
                               Dotar de sensorización a los elementos clave de las máquinas más importantes
                               Aplicaciones de Visión para detección temprana de vibraciones anormales,  s                                    sobrecalentamiento, detección de partículas en aceites
Visión Artificial, para acortar tiempos de mediciones antes de arrancar las líneas/células, una  vez hecho el cambio de referencia                 

-Debemos hacer un esfuerzo por automatizar al máximo operaciones no críticas, por ejemplo las operaciones de manipulación, transporte y almacenaje
¿Qué necesitamos?:
Automatizar las operaciones de manipulación, transporte y almacenaje
Tecnologías 4.0 que pueden ayudar:
                Almacenes automáticos
AGV´s
  
-Debemos tener procesos industriales donde se haya sustituido la filosofía tradicional PUSH (basada en gestionar las restricciones derivadas de los lotes de fabricación) por otra PULL, donde solo manden los lotes de Cliente
                ¿Qué necesitamos?:
Romper todos los Cuellos de Botella de nuestro proceso industrial
Tecnologías 4.0 que pueden ayudar:
                                Ingeniería LEAN avanzada, específica para cada caso

-Una vez ante este escenario PULL, las órdenes de fabricación para toda la Fábrica solo vendrán a partir de señales Kanban que, partiendo de lo que se llevan los Clientes de Expediciones, vayan lanzando órdenes “aguas arriba” sin restricciones debidas al tamaño de los lotes


Creo firmemente que, aplicando en profundidad y sin complejos este tipo de tecnologías, el éxito en la migración hacia la Industria 4.0 estará asegurado

Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros

domingo, 3 de febrero de 2019

Mensajes amables de fin de semana: en el Instituto Max Planck consiguen, con pulsos de luz, que el gato de Schrodinger esté vivo y muerto a la vez



Estimad@s Clientes y/o amantes del LEAN:

El experimento del gato de Schrodinger marca el principio de la mecánica cuántica
Estoy absolutamente impactado del resultado del experimento que acaban de conseguir en el Instituto Max Planck
Lo han conseguido no con gatos sino con pulsos de luz
Pulsos de luz que estaban en dos estados a la vez, o sea el equivalente sería que los fotones giran al mismo tiempo hacia un lado y al contrario ……..o sea, en palabras de la más famosa paradoja de la historian de la ciencia, gato vivo y gato muerto al mismo tiempo  

Un Gato de Schrödinger construido con pulsos de luz. Eso es lo que han fabricado en el laboratorio del Instituto Max Planck en Garching (Alemania). En concreto, luces de láser (paquetes de fotones) que han podido ver en dos estados a la vez. Algo así como observar a la luz “viva y muerta a la vez”, tal y como planteaba con un gato en 1935 uno de los experimentos mentales más alocados de la historia de la física. Erwin Schrödinger creía que aunque en el mundo cuántico, el de lo más pequeño, hay partículas, como los fotones, pueden estar en dos estados a la vez (“girando” –esto es metafórico– hacia un lado y el contrario, por ejemplo) no podríamos verlo. Pero hace un tiempo que sabemos que sí es posible, aunque no tanto como para que afecte al devenir vital de la materia en escalas como las del tamaño de un gato.

En 1935, Erwin Schrödinger planteó un experimento mental absurdo. Una caja opaca con una botella de veneno, un martillo que se activa con una partícula radiactiva y un gato en su interior. En mecánica cuántica, decimos que hay partículas que pueden estar en dos estados a la vez. Algo así como moviéndose en dos direcciones distintas al mismo tiempo. Un estado o tipo de movimiento golpearía el martillo, liberando el veneno e intoxicando al gato dentro de la caja. El otro no lo desataría. Eso implica algo verdaderamente loco: hay un momento en que el gato está vivo y muerto a la vez. Sin embargo, sabemos que en el mundo cuántico en el momento que un observador echa un vistazo, el sistema colapsa: la partícula ‘elige’ de golpe estar en uno de los dos estados, implicando que el gato viva o muera en el momento en que abrimos la caja y observemos | Vídeo: M.V.

Para realizar este experimento filosófico en el laboratorio, los físicos han recurrido a varios sistemas modelo. El implementado en este caso sigue un esquema propuesto por los teóricos Wang y Duan en 2005. Aquí, la superposición de dos estados de un pulso óptico sirve como gato.
Los investigadores involucrados en el proyecto se mostraron inicialmente escépticos en cuanto a si sería posible generar y detectar de manera fiable dichos estados cuánticos gatunos con la tecnología disponible. La mayor dificultad radica en la necesidad de minimizar las pérdidas de luz en su experimento. Una vez que se logró esto, se encontraron todas las mediciones para confirmar el juego mental de Schrödinger. El experimento permite a los científicos explorar el ámbito de aplicación de la mecánica cuántica y desarrollar nuevas técnicas para la comunicación cuántica.

Láser entrelazado cuánticamente
El laboratorio del Instituto Max Planck en Garching está equipado con todas las herramientas necesarias para realizar experimentos de vanguardia en óptica cuántica. Se utilizan una cámara de vacío y láseres de alta precisión para aislar un solo átomo y manipular su estado. En el núcleo de la configuración hay un resonador óptico, que consta de dos espejos separados por una ranura de solo 0,5 mm de ancho, donde un átomo puede quedar atrapado. Un pulso de láser se alimenta en el resonador y se refleja, y por lo tanto interactúa con el átomo.
Como resultado, la luz reflejada se entrelaza con el átomo. Es decir, lo que le pasa a los fotones de la luz repercute al átomo atrapado, incluso aunque “no se toquen”. Al realizar una medición adecuada en el átomo, el pulso óptico se puede preparar en un estado de superposición, al igual que el del Gato de Schrödinger.
Una característica especial del experimento es que los estados entrelazados pueden generarse de manera determinista. En otras palabras, se produce un estado de gato-láser en cada prueba. Cada vez que miramos, el gato-láser o está vivo o está muerto. Pero sabemos que ha estado vivo y muerto a la vez justo antes de mirar.
“Hemos tenido éxito en generar estados de gato-láser voladores y hemos demostrado que se comportan de acuerdo con las predicciones de la mecánica cuántica.
Estos hallazgos demuestran que nuestro método para crear estados de gato funciona y nos permitió explorar los parámetros esenciales”, explica el estudiante Stephan Welte.

Gatos aparte, el experimento paralelo que prueba el triunfo de la Mecánica Cuántica es el de la doble rendija
Ahí, nuevamente el gato está vivo y muerto a la vez, o sea el electrón pasa por ambas rendijas

La sorpresa de la cuántica
La física cuántica ha supuesto una sorpresa a muchos niveles. Esta teoría nos ha llevado al límite del 'sentido común', nos enfrenta a un universo que se rige por leyes y comportamientos que están muy alejados de cualquier experiencia cotidiana.
En nuestra vida diaria estamos acostumbrados a catalogar las cosas. Una de las clasficaciones que hacemos de los fenómenos físicos es si están formados por partículas o por ondas. De forma breve podríamos definir:
  • Partícula = Objeto diferenciable del entorno al que se le asignan propiedades bien definidas y que ocupa un lugar concreto en el espacio. Una de sus características más representativas es que al colisionar dos de estas partículas alteran su movimiento. Por supuesto, respetando las leyes de conservación pertinentes.



  • Onda = Perturbación que se propaga por un medio o un campo, por ejemplo el electromagnético, con unas características determinadas. Uno de los fenómenos físicos más representativos de las ondas es su capacidad para interferir. Cuando dos ondas se cruzan en una determinada región del espacio se combinan de forma que hay regiones donde se refuerzan y otras donde se suprimen. Esto da lugar a lo que se conoce como patrón de interferencia. Cuando las ondas prosiguen continuan su propagación retoman sus propiedades previas a la interferencia.
 
En cuántica, los sistemas no se pueden catalogar según esta clasificación. Un mismo sistema puede tener comportamientos ondulatorios o de partícula. Esto es lo que nos dice la archiconocida, y muchas veces mal interpretada, dualidad onda-partícula.

Se puede considerar que esta dualidad está en la base de todas las sorpresas cuánticas. En un sentido histórico, éste hecho fue el culpable del desarrollo de toda la teoría cuántica posterior.

Dobles rendijas, canicas y ondas
Para comprobar esto que acabamos de comentar imaginemos que tenemos el siguiente dispositivo:
  1. Tenemos una pared con dos rendijas.
  2. A cierta distancia ponemos una pantalla que nos servirá como detector.
  3. Disponemos de un dispositivo que lanza canicas en distintas direcciones. Estas canicas tienen el tamaño justo para pasar por la rendija.
  4. Además, tenemos un sistema que genera ondas.
Lo que vamos a hacer es estudiar el comportamiento de ondas y partículas en este sistema de doble rendija.

Lanzando canicas

Para comenzar lanzaremos las canicas con tan solo una rendija abierta. Lo que uno encuentra en la pantalla detectora es que las canicas impactan preferentemente enfrente de la rendija por la que las canicas pasan:




Si abrimos las dos rendijas, lo que obtenemos es:




Aquí se indican, con las líneas rojas y verdes, las canicas que han pasado por la rendija 1 y 2. La línea azul es la suma de ambas contribuciones. Este es el perfil que obtendríamos al graficar el número de impactos en cada posición de la pantalla.

Lanzando ondas

Ahora emplearemos el generador de ondas. Cuando estas llegan a la doble rendija, cada una de estas rendijas actuará como un foco emisor secundiaro. Por lo tanto se crearán dos ondas que interferirán:

                          
En la pantalla detectora veremos como hay regiones con mucha intensidad (interferencia constructiva de la ondas) y otras regiones con poca intensidad (interferencia destructiva de las ondas).  Esto es lo que llamamos patrón de interferencia.

Si queremos graficar este patrón, la figura que obtenemos es:




Está claro que este patrón y el producido por las partículas son muy diferentes.

Doble rendija a lo cuántico
Supongamos ahora que repetimos este experimento pero lanzando electrones. Los electrones son partículas elementales que se han de describir según las leyes de la mecánica cuántica. Para realizar el experimento seguiremos las siguientes pautas:
  1. Lanzaremos un electrón y esperaremos a que llegue a la pantalla detectora.
  2. Seremos cuidadosos de no tener nunca más de un electrón en vuelo.
Estos experimentos ya han sido realizados. Os dejo una referencia clásica al respecto.

Donati, O, Missiroli, G F, Pozzi, G (1973). An Experiment on Electron Interference. American Journal of Physics 41:639–644 doi:10.1119/1.1987321

Siguiendo estas simples reglas obtenemos lo siguiente:




  1. Lo primero que vemos es que los electrones llegan a la pantalla y colisionan con ella en regiones localizadas. Esto nos lleva a pensar que se comportan como electrones.
  2. Si dejamos que el experimento avance, conforme se van acumulando tales colisiones vemos algo asomboroso. Se comienza a formar un patrón de franjas con áreas de mucha intensidad y areas de poca intensidad. Estamos recostruyendo un patrón de interferencias. Parece lógico que el electrón, cuando ha estado en vuelo desde las rendijas hasta la pantalla, se ha comportado como una onda.
Aquí tenemos el meollo de la cuestión. Los electrones forman un patrón de interferencia (ondas) y colisionan con la pantalla en puntos localizados (partículas).

Pero aún hay más. En este experimento se ponen sobre la mesa una serie de cuestiones:

  • Solo hay un electrón en vuelo en cada impacto en la pantalla. Podríamos suponer que ha pasado por una de las dos rendijas.
  • Sin embargo, se ha comportado como una onda, así que estamos obligados a pensar que ha pasado por las dos rendijas a la vez.
  • Mientras que se desarrolla el experimento no podemos determinar la trayectoria que sigue un electrón dado.
¿Podemos determinar si un electrón pasa solo por una o por ambas rendijas a la vez?

La respuesta que nos da la cuántica es un magnífico y rotundo 'NO'.

Según la cuántica, si intentamos saber la rendija por la cual pasa un electrón o seguir su trayectoria el patrón de interferencia desaparece.  De hecho, si en mitad del experimento tapamos una de las rendijas el patrón de interferencia desaparece. 

Esto implica que la naturaleza se niega a decidirse entre ondas y partículas, esa es una clasificación que hemos hecho nosotros.  Si forzamos el experimento para saber la trayectoria o la rendija por la que pasa un electrón se pierde el patrón de interferencia. Así que, si queremos identificar propiedades de partículas las encontraremos, pero el precio a pagar es perder las características de onda del sistema bajo estudio.

¿Qué han hecho en el nuevo experimento?
El 13 de marzo (2013) se publicó el siguiente artículo:
Controlled double-slit electron diffractionRoger Bach et al 2013 New J. Phys. 15 033018
En este artículo se describe cómo por primera vez era posible observar qué pasa cuando tapas dos rendijas, una o ninguna, en tiempo real. Y lo que se encuentra, a pesar de ser lo esperado, no deja de sorprenderme:




En la esquina superior izquierda se muestra la posición de una pestaña que puede controlar el número de rendijas abiertas. El resultado es espectacular, se ve cómo se forma y se pierde el patrón de interferencia al pasar de una a dos rendijas abiertas y viceversa.
Señores y señoras, esto es cuántica en estado puro.

Concluyendo
La cuántica nos ha ofrecido muchas sorpresas y muchos dolores de cabeza, y estoy seguro de que seguirá así por mucho tiempo. Sin embargo, en pleno siglo XXI la cuántica forma parte de nuestras vidas y pasa de forma totalmente desapercibida. Sin mucho exagerar, se puede decir que todas las tecnologías de los últimos 60 años están relacionadas de un modo u otro con la cuántica. Podríamos hablar de la importancia de la cuántica en la estabilidad de la materia, el origen del universo, etc. Pero gracias a la cuántica supimos manejar semiconductores, lo que nos llevó a una revolución en la electrónica. También gracias a ella podemos hacer cosas tan cotidianas como calentar nuestra leche en el microondas en cada desayuno. Cosas como los PET o las resonancias magnéticas no hubieran llegado a nuestros hospitales sin haber entendido la naturaleza cuántica de las cosas.
Está claro que no tiene sentido que todos seamos doctores en física, y sería muy aburrido, pero a estas alturas una formación científica solvente asegura poder entender el desarrollo y evolución de nuestra sociedad. Además de que nos protege contra los nuevos magos que se están revistiendo de palabrejas cientifoides para embaucar a los que no poseen información al respecto.
Todos somos capaces de entender la cuántica en especial y la física en general. No hace falta controlar todos los aspectos técnicos y matemáticos, pero es importante quedarse con la idea y sorprenderse de lo asombroso que es este universo que nos cobija. Una buena información científica nos asegurará estar mejor preparados para el futuro que está por llegar.


Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros


viernes, 1 de febrero de 2019

Potentes técnicas de TPM Predictivo para apoyar la revolución Industria 4.0


Estimad@s Clientes y/o amantes del LEAN:


Dentro de las herramientas clave de la Industria 4.0 se sitúan las técnicas de TPM Predictivo
Hoy me gustaría hablar de tres vías de diagnóstico precoz que se han convertido en reinas de las Metodologías de Mantenimiento Preventivo/ Predictivo, debido a la enorme cantidad de ahorros que suponen, al evitar costosísimas paradas :
                -Saber cómo va degenerando el aceite que engrasa dispositivos clave
                -Detectar sobrecalentamientos y todo tipo de defectos, vía Termografía
                -Detectar vibraciones anormales
Buscando por ahí por Internet, he aquí lo más significativo que he encontrado sobre estos tres temas ( como siempre, no puedo dar detalles de nuestros proyectos específicos, por razones obvias de confidencialidad

Detección estado aceite












Detección de sobrecalentamientos y todo tipo de defectos, vía Termografía











Detección de vibraciones anormales

La transformada de Fourier como método de descubrir la causa raíz de defectos en los sistemas rotativos:

1    Holguras en elementos rotativos





2. Desalineación en rodamientos y cojinetes
Independientemente de que exista una buena alineación en el acoplamiento, puede existir una desalineación entre el eje y el rodamiento. La desalineación puede tener su origen en una distorsión en la máquina o en un montaje inadecuado. Si una de las patas de la máquina no está en el mismo plano que las otras o si la bancada no está plana, al apretar los pernos de anclaje se generará una deformación y como consecuencia una desalineación. Otro ejemplo de desalineación en rodamientos tiene lugar en ventiladores de gran tamaño donde están montadas las cajeras de los rodamientos sobre la estructura metálica del ventilador. Si la estructura metálica no tiene la rigidez suficiente, se deformará bajo condiciones de carga y originará una desalineación. Generalmente, la mayor deformación se suele producir en el rodamiento próximo al rodete, originando una desalineación axial.

Los rodamientos de bolas o rodillos desalineados se caracterizan por presentar vibración axial independientemente del estado de equilibrado. La vibración puede aparecer a 1x, 2x, 3x RPM o al número de bolas o rodillos del rodamiento por la velocidad de giro.

La desalineación de cojinetes antifricción presentan vibración radial y axial, normalmente a 1x y 2x RPM de la velocidad de giro. La desalineación de cojinetes suele venir acompañada por desequilibrios del rotor, por lo que un equilibrado del rotor disminuirá la vibración radial y axial.
Síntomas:
  • Fuerte vibración axial en 1x RPM posiblemente con armónicos en 2x y 3x.
  • El armónico 2x RPM en dirección axial puede alcanzar un valor igual o incluso superior a 1x.
  • Las lecturas de fase axial en la parte inferior, izquierda, superior y derecha del rodamiento aparecen desfasadas 90°.




Ver un post que dediqué a mi querida Transformada de Fourier, base teórica de este tipo de análisis, al permitir pasar del dominio de la acústica al de la frecuencia, mucho más útil para el diagnóstico que buscamos:  
Mensajes amables de fin de semana: una ecuación de casi 200 años, la transformada de Fourier, en la punta de lanza para resolver problemas de última generación del Siglo XXI


1.       Escuchas música en 'streaming' gracias a esta fórmula matemática del siglo XIX
La transformada de Fourier, que data de 1822, hace posible la música en 'streaming', la compresión de las imágenes en JPG e incluso se emplea para ajustar la cancelación del ruido en los cascos.




La música en 'streaming' le debe mucho al hijo de un sastre. Jean-Baptiste-Joseph Fourier, que fue revolucionario en la Francia de 1789 y posteriormente acompañó como consejero científico a Napoleón en su expedición a Egipto, creó en una fórmula matemática cuyo impacto está muy presente en nuestros días.
En 1822 Fourier ya había vivido más de medio siglo de vida intensa, incluyendo la orfandad a la edad de diez años, el activismo revolucionario y la cárcel acompañada de un vislumbre de la guillotina, además de expediciones científicas y puestos de responsabilidad académica. Aquel año publicó ‘Théorie analytique de la chaleur’ y en este tratado se encuentra la llamada transformada de Fourier.

El texto explica los descubrimientos del científico en torno a la forma en que el calor fluye dentro de los materiales y a su alrededor. La conclusión más destacada es que las señales complejas pueden representarse en una serie de señales más sencillas. Con ondas sinusoides, esto quiere decir que se pueden sumar varias ondas regulares, que ascienden y descienden de forma constante para formar una irregular más compleja.




La física del siglo XIX, aplicada a internet
La transformada de Fourier ha sido útil en diferentes ámbitos científicos, tecnológicos y en el campo de la ingeniería. En la era de internet también se ha aprovechado, y se ha exprimido especialmente en el terreno de la música. La fórmula permite distinguir, por ejemplo, entre tres sonidos que se producen a la vez, separando cada onda que forma el resultado final.
Cuando se graba una canción en un estudio, todas las frecuencias de la pista se conservan intactas en el disco. Sin embargo, una canción así pesa demasiado como para transmitirse a través de la Red, y eso haría que el 'streaming' fuera tan aparatoso que en cuanto la conexión flaqueara mínimamente el sonido se cortaría. No hay problema, la transformada de Fourier acude a echar una mano.
La compresión del formato MP3 está basada en esta función matemática. Aplicándola a una canción descubrimos que algunos componentes de la frecuencia son muy dominantes y otros apenas quedan registrados. Para comprimir el archivo de música solo hay que extraer las ondas que no influyen de forma relevante en el sonido final. Quitando estas y las frecuencias que el oído humano no percibe o percibe muy livianamente se obtiene un archivo que pesa diez veces menos que el original.
El resultado es que la calidad del sonido apenas se ve malograda –dejando aparte a los melómanos de oído fino– y de esta forma los archivos se pueden transmitir sin usar tanta banda ancha.
El formato que usa Spotify, Ogg Vorbis, se crea a partir de una versión computacional de la transformada de Fourier.


1. Shazam, el milagro de descubrir el título de la canción que está sonando
El funcionamiento de Shazam, la aplicación para descubrir qué canción está sonando, también se sirve de esta fórmula para comparar la onda extraída con su base de datos, facilitando así el proceso de búsqueda.


2. La compresión de imágenes en JPG
De la misma forma que el formato MP3 comprime los archivos musicales, las imágenes en JPG son una compresión obtenida con la transformada de Fourier. En este caso los píxeles, cuando apenas varían, se agrupan en una sola clase de píxel, con su color, brillo y detalle. De esta forma, para un conjunto más o menos homogéneo solo hay que guardar información de un solo píxel. De nuevo, los sentidos humanos –en este caso la vista– no son capaces de apreciar la diferencia.
De vuelta al sonido, la cancelación del ruido que producen algunos auriculares o los programas de edición de audio también se basa en esta fórmula matemática de casi 200 años: podemos evitar el rugido de los coches o el resoplido del viento en una grabación gracias al señor Fourier, quien por cierto fue el primero en explicar científicamente el efecto invernadero. Pero eso es ya otra historia.


3. Las cardioecografías de la arteria carótida
Los ultrasonidos de alta frecuencia en la región de 7-12 MHz., se usan para obtener imágenes de alta resolución de las arterias que se encuentran cerca de la superficie del cuerpo, tales como la arteria carótida. Utilizando una velocidad del sonido nominal en el tejido de 1540 m/s, puede obtenerse la longitud de onda del sonido en el tejido, de una onda de 7 MHz, a partir de la relación de onda v = fλ.






Usando el principio general de imagen, de que no se puede ver nada más pequeño que la longitud de onda, tenemos entonces un límite de 0,2 mm de resolución.
Además de imágenes de las paredes arteriales, las técnicas de ultrasonido haciendo uso del efecto Doppler, pueden medir la velocidad del flujo sanguíneo. El ultrasonido reflejado está desplazado en frecuencia de la frecuencia de la fuente, y esa diferencia en la frecuencia, puede ser medida con precisión mediante la detección de la frecuencia de batido entre las ondas incidente y reflejada. La frecuencia de batido es directamente proporcional a la velocidad del flujo, por lo que el registro continuo de las frecuencias de batido de las diferentes partes de la arteria, da una imagen del perfil de la velocidad del flujo sanguíneo en función del tiempo.




Los bocetos anteriores son sólo conceptuales; no se ha intentado escala de velocidades ni colores precisos. Pero se espera que ilustre el uso de imágenes en falso color, para dar una visión instantánea de la distribución de las velocidades presentes. La parte inferior de la ilustración contiene un espectro de energía modulada por la intensidad, en el que la frecuencia de batido y por lo tanto la velocidad de la sangre está en el eje vertical. Tales espectros son producidos por el análisis de los ultrasonidos reflejados, mediante un proceso matemático llamado una transformada rápida de Fourier (FFT), en la cual se extrae la distribución de potencia reflejada como función de la frecuencia. Esto se hace de manera repetitiva y los resultados se representan gráficamente como una función del tiempo (eje horizontal). La distancia vertical desde el eje indica la frecuencia de batido y por lo tanto la velocidad del flujo. La cantidad relativa de potencia reflejada a un valor dado de velocidad, se indica por el brillo de la pantalla en ese punto. Una velocidad uniforme de flujo único daría una simple línea brillante, por lo que la pantalla indica en cualquier momento, una gama considerable de velocidades presentes en el flujo. Nótese que en el momento de los picos, esencialmente la totalidad de la sangre tiene una velocidad bastante alta, puesto que la parte del espectro cerca del eje horizontal es oscuro.





Imagen de la Carótida
Este ejemplo de una imagen clínica de la carótida se tomó durante el período de relativa calma entre los picos. Nótese que el rojo indica un flujo más lento que el azul, pero en la misma dirección, ya que el flujo de la carótida no se invierte. Así que la implicación de rojo y azul no es la misma que el desplazamiento al rojo de la luz de las estrellas en astrofísica. Nótese el fondo de escala de grises de la imagen que se forma a partir de los datos de los intervalos pulso-eco.

Si se toma literalmente la imagen de arriba, podría sugerir una velocidad de flujo bastante uniforme en toda la sección transversal de la arteria. Pero esta no es la naturaleza del flujo laminar esperado, en el que se suponía un perfil de velocidad en el cual la línea central tendría la velocidad mas alta y luego caería a cero conforme se acerca a las paredes. Supongo que el rango rojo de la imagen a falso color está puesto para incluir un amplio rango de velocidades bajas.
Una frecuencia de ultrasonidos superior como 12 MHz, da una longitud de onda más corta y por lo tanto, mayor resolución, pero esa ventaja es parcialmente cancelada por el hecho de que las mayores frecuencias son mas atenuadas en el tejido. Así que se debe tomar una decisión sobre las ventajas relativas de una penetración más profunda (baja frecuencia), versus una resolución más alta (mayor frecuencia).
Las fuentes de ultrasonidos son generalmente obleas de cerámica templada de un material tal como PZT, que son excitados por la aplicación de un voltaje de corriente alterna a la frecuencia de diseño. La tensión provoca vibración mecánica por el efecto piezoeléctrico.
Los escáneres de ultrasonido pueden detectar la acumulación de placas en las arterias. Además de la imagen directa del estrechamiento del vaso, la información Doppler puede ser convertida en imágenes en falso color, que puede perfilar la velocidad del flujo. El flujo en una región de obstrucción, debe estar a una velocidad más alta para mantener el caudal de flujo, y esa información de velocidad es la confirmación de un estrechamiento del vaso.

Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros