domingo, 28 de febrero de 2016

Mensajes amables de fin de semana: sorprendentes noticias sobre costes, modelos energéticos y avances científicos en el campo de las energías renovables



Estimad@s Clientes y/o amantes del LEAN:


Genero el presente escrito con el objetivo de divulgar el trabajo de dos grandes especialistas, uno de ellos, Emilio de las Heras, habla desde el punto de vista estrictamente de la evolución de los costes de las diferentes energía y el otro, Mark Jacobson, explica lo que sale en sus simulaciones sobre el cambio global, con resultados que, como él dice, le han sorprendido a él mismo
Por último, para dar un toque de optimismo, hago mención a una noticia científica sorprendente: un nuevo material convierte el CO2 en un combustible limpio, con una eficiencia sin precedentes

Solar y Eólica más baratas que Gas, Carbón o Nuclear
(Escrito de Emilio de las Heras, publicado en Expansión)


Durante 2015, el 99% de todas las nuevas instalaciones de generación de electricidad en los EEUU ha sido renovable:



La gráfica siguiente muestra la tendencia de esos costes LCOE del Megawatio x hora eólico terrestre y solar fotovoltaico, desde 2008 a 2016. Con datos de los EEUU, el KWh eólico en la mejor localización sale a 3,3 céntimos y el del fotovoltaico a 5,8 y bajando exponencialmente, de un año para otro.


La gráfica siguiente muestra la comparación actualizada de los LCOE de las diferentes energías. Arriba, las renovables, abajo las convencionales.


La convencional más barata, Gas natural en ciclo combinado, sale entre 5,2 y 7,8 céntimos/KWh. El carbón, entre 6,5 y 15 céntimos. Y la nuclear, entre 9,7 y 13,6. Todo ello sin contar ni las subvenciones ni los costes externos. Remarco aquí los costes externos de las fósiles estimados en billones en coste sanitario y daños por cambio climático y los costes externos de la nuclear, como son el seguro de accidentes y los costes de desmantelamiento.
Como sea, la energía más barata es la que no se consume: Eficiencia, entre 0 y 5 céntimos el KWh, luego la eólica terrestre, entre 3,2 y 7,7 y la solar fotovoltaica industrial ("utility scale"), entre 4,3 y 7 céntimos.
El que tenga interés en ver las gráficas con todo detalle puede verlas en el documento Lazard LCOE 9.0, disponible en internet.
'Un mundo de energía 100% limpia es posible'
( Entrevista con Mark Jacobson, director del programa de Atmósfera y Energía de la Universidad de Stanford)
Mark Jacobson, profesor de Ingeniería Civil y Medioambiental y Director del Programa de la Atmósfera/Energía en la Universidad de Stanford (EEUU), ha creado un modelo para lograr la transformación energética del mundo en 2050, sin necesidad de utilizar fuentes fósiles o nucleares, y sin aumentar el número de plantas hidroeléctricas.
Jacobson, que creó su primer modelo en 2001, se considera un optimista gracias a la información que ha podido recopilar a lo largo de los años. «Hemos estudiado 139 países en el mundo para convertir sus fuentes de energía en 100% eólica, hidráulica y solar y hemos llegado a la conclusión de que sí es posible. Es económica y técnicamente factible. El coste es muy modesto y salvará vidas, eliminará emisiones que contribuyen al cambio climático, estabilizará los precios de la energía y creará empleo; sí, habrá un balance positivo neto de empleos».
Jacobson cree que además de reducir la contaminación y las emisiones de CO2, disminuirá los riesgos de ataques terroristas por la descentralización de la energía. «Se reducirá la necesidad de importar energía, y los conflictos internacionales por fuentes de energía. Estoy tan seguro que soy muy optimista. La cuestión no es cómo, sino cuándo».
El estudio ha sorprendido al propio Jacobson, cuyos modelos informáticos tridimensionales de la atmósfera-biosfera-océano han servido para simular contaminación de aire, clima, y energía renovables. «Descubrimos que al electrificar todo, reducimos la demanda de energía considerablemente. En el sector del transporte se puede reducir la demanda entre un 60 y 80%. En todos los sectores la demanda se reduce en un 35% de media en todo el mundo sólo con electrificar; sin cambiar tus costumbres puedes ahorrar energía. En España, si se convierte al 100% para 2050 y se realizan modestas mejoras en eficiencia energética, reducimos la demanda en un 38%».
Aunque el coste por kilovatio sea mayor con energía limpia, como se consume menos, el coste final es menor. «Un coche eléctrico puede costar más que su equivalente de gasolina, pero si es conducido 24.000 kilómetros al año durante sus 15 años de vida, la media de EEUU, se ahorran unos 18.000 euros en combustible. El coche tendría que costar 18.000 euros más que uno de gasolina para que no tuviera sentido».
También fue sorprendente descubrir que no hace falta tanto terreno para la conversión total. En EEUU necesitaría 0,5% de su terreno para plantas solares de gran escala, y para todo lo demás, porque la energía eólica prácticamente no ocupa suelo.
Los resultados del estudio se han difundido en el marco de la reciente Cumbre del Clima de París con la ayuda de Solutions Project, la organización que Jacobson fundó junto con el actor Mark Ruffalo y el apoyo financiero de Leonardo DiCaprio. «Definitivamente esperamos cambiar la conversación mostrando cómo puede hacerlo cada país. Este no es el único camino, pero es un camino. Podemos conseguirlo. Nosotros mostramos lo que se necesita, el coste, el número de empleos que se generan, las reducciones en la contaminación y los ahorros conseguidos por la reducción del cambio climático». Y todo utilizando tecnología actual, desde vehículos de hidrógeno por célula de combustible a aviones propulsados por hidrógeno criogénico como el space shuttle.
Con que EEUU se pasara a la electricidad al 100%, el mundo se ahorraría 3,1 billones de euros en gastos derivados del cambio climático cada año. «Los ahorros de gastos relacionados con el cambio climático a nivel mundial son unos 14 billones de euros al año. Según unos estudios recientes, el coste social del carbono es mucho más alto de lo que antes se pensaba. Antes eran 30 euros por tonelada de CO2. Ahora son 250 por tonelada de CO2».
En cuanto al empleo, Jacobson explica que no hay pérdida de puestos de trabajo, sino una transferencia de empleos, de la industria de energía fósil a la energía limpia, con un balance positivo. En España, por ejemplo, se crearían 182.000 empleos «para construcción y operación de energías limpias durante 40 años después de reconvertir los empleos perdidos».
Además se eliminaría la contaminación del aire en España. «Estimamos, según los cálculos que combinan concentraciones actuales de contaminantes, población y riesgo relativo, que las muertes prematuras por contaminación en España son unas 27.000 al año; por enfermedades cardiovasculares, respiratorias y complicaciones causadas por asma. El coste total de la contaminación del aire en España es de unos 92.000 millones de euros, o un 7,7% del PIB. Se eliminaría este coste, unos 1.825 euros por persona. Además, cada persona ahorraría 140 euros al año en electricidad. El ahorro en gastos relacionados con el cambio climático sería de otros 1.825 euros al año».
Eso en España. Cuando EEUU se electrifique al 100%, los ahorros climáticos serán de 7.300 euros por estadounidense. «La idea es que cuando los estados y los países empiecen a adoptar este tipo de planes, avergüencen a otros países y estos empiecen a actuar más rápido, porque se darán cuenta de los beneficios. California y Nueva York ya han adoptado el 60% de nuestro plan de 2030 porque para entonces serán 50% viento, agua y sol. Hawai también va hacia el 100% en el sector de energía eléctrica, un quinto de la energía total, pero aún así un sector completo, para 2045. Y según haya más países que sigan este plan, los demás se darán cuenta que no se quieren quedar atrás, porque van a ahorrar en gastos, mejorar la salud y aumentar ingresos. Los que se queden atrás estarán subdesarrollados».

New material converts CO2 into clean fuel with unprecedented efficiency
A new material made from microscopic layers of cobalt can convert carbon dioxide gas into formate - a fuel that can be burned with no toxic byproducts and used as a clean energy source.
Developed by a team of researchers in China, the material could be one way to deal with the 36 gigatonnes of CO2 we release into the atmosphere each year due to fossil fuel use. Scientists have been struggling for decades to come up with an energy-efficient way to transform CO2 into something useful, and early testing points to this new material as being one of the most promising options we’ve seen so far.
"This represents a fundamental scientific breakthrough," Karthish Manthiram, a chemical engineer from the California Institute of Technology who was not involved in the research, told William Herkewitz at Popular Mechanics. 
"Certainly it will be a years-long process before this is worked into a successful, commercial device. But at this stage of development, by all conceivable metrics, this reaction looks very positive."
The material is just four atoms thick, and is made up of ultra-thin layers of pure cobalt metal and a cobalt oxide-cobalt metal mix. When it undergoes the process of electroreduction, which involves feeding a small electric current through the material to change the molecular structure of the CO2 inside, it produces a clean-burning fuel.
As Herkewitz explains, when an electric current is applied to the cobalt nanomaterial, it causes the molecules inside the material to interact with the CO2 molecules that are running freely through it. This causes hydrogen atoms to attach to carbon atoms from the CO2, prompting an extra electron to be propelled into one of its oxygen atoms. "With that, the CO2 becomes CHOO-, or formate," he says.
Lab tests with the material confirmed that it can maintain "stable current densities of about 10 milliamperes [of formate] per square centimetre over 40 hours, with approximately 90 percent formate selectivity at an overpotential of only 0.24 volts".
I know you want to, but don’t freak out about what all that actually means just yet.
This "overpotential" is the amount of energy lost due to the slowness of electrochemical reactions sustained by electrodes such as this one. The smaller the overpotential, the better, but in order to make something efficient, it has to maintain that small overpotential while also keeping the rate of fuel production up. This is where many attempts at CO2 electroreduction have fallen short in the past.
Manthiram, who is himself working on his own CO2 electroreduction solutions,told Popular Mechanics that not only can this new material sustain that low overpotential while also achieving a high rate of formate production, it manages to keep everything stable too. "It's very rare and difficult to find a material that satisfies all three of those constraints," he said, adding that this material is "the best we've seen" so far.
The team, from China's Hefei National Laboratory for Physical Sciences, describes the material in the journal Nature. The next step will be to demonstrate how it can be incorporated into commercial technology so we can start using up some of the CO2 that's floating around in our atmosphere, causing trouble
Read these next:


Que disfrutéis lo que queda del fin de semana
Un cordial saludo
Alvaro Ballesteros

El pez rápido se come al lento..tenemos que aprender a desaprender en poco tiempo: aprendamos LEAN jugando


Estimad@s Clientes y/o amantes del LEAN:

Es un dicho conocido que, en los tiempos actuales, ya no es tan cierto aquello de que “El pez grande se come al chico”…ahora es mucho más verdad que “El pez rápido se come al lento”
Lo que tienen de común muchas historias de éxito que todos conocemos es que, una vez dibujada la visión, algunos son mucho más veloces que otros a la hora de abordar el cambio
Si tuviera que resumir en una frase lo que he visto en multitud de clientes acerca de fracasos/éxitos en el cambio hacia el nuevo paradigma, es que las Compañías que lo consiguen gestionan de manera estructurada ( y por tanto, apoyados en una buena Metodología ) lo que es la clave para el éxito rápido, sólido y fiable:

Aprender a desaprender

Tanto aprender como desaprender no es fácil: en ambos casos, es educar
Ya sabemos que cada psicólogo es un mundo, teorías por aquí, teorías por allá, con la dificultad añadida de que no es fácil demostrar de forma convincente quién tiene razón y quién no, pero hay un tema en el que consiguen una rara unanimidad:
Una de las mejores maneras de aprender es jugando

En DIT Consultoría nos hemos puesto manos a la obra con ello; nos basamos en dos patas, una la Metodología de Gestión del Cambio Cultural, con una sistemática que se desarrolla cubriendo siete etapas, y una segunda herramienta, que se llama LEAN WINNING, en la que, en “unas jornadas jugando” se enseña a los involucrados los principios del nuevo paradigma

Metodología de Gestión del Cambio Cultural




No solamente es una Metodología para gestionar los “stakeholders” sino que también hemos metido herramientas clave que introdujeron los creadores del LEAN con sus famosos Equipos Integrales de Proceso KAIZEN:
GEMBA/GENCHI GENBUTSU/CÍRCULO DE OHNO
NEMAWASHI
HOSHIN KANRI
HANSEI

Formación LEAN WINNING
Una parte muy importante de la implantación del pensamiento Lean y el éxito de su desarrollo en una compañía, es el  papel que juegan las personas que trabajan en la empresa, su formación y su involucración en el sistema.
Se dice que en la vida, la mejor manera de involucrarse y aprender, es jugando y con LEAN WINNING se consiguen ambas cosas desde el primer minuto. El curso se lleva a cabo instalando una pequeña "fabrica" en el aula de formación donde los operarios y los managers del negocio, son los propios alumnos del curso.
En la  primera jornada, se enseña a los alumnos los conceptos fundamentales del pensamiento Lean.  Durante ese tiempo, se explican gran cantidad de ejemplos prácticos para ayudar a comprender el origen y las áreas de aplicación de los mecanismos Lean que se utilizan en los procesos de manufactura y cadenas de suministro de empresas como Toyota, Amazon o Inditex: kanban, 5S, Poka-yoke, sistema Pull, SMED, Muda, Jidoka, flujos de valor, etc….

En la segunda jornada, los alumnos aprenden "jugando" de manera directa con LEAN WINNING trabajando en la "fabrica" que se ha montado en el aula de formación. Los asistentes pueden comprobar  por si mismos y “en directo”, los resultados positivos que se obtienen al aplicar los mecanismos Lean aprendidos durante el primer día del curso. 
En el transcurso del desarrollo del juego, el equipo de alumnos de la “fabrica”, tiene que suministrar productos a un "exigente" cliente. A lo largo de  tres partidas consecutivas, se pasa de una situación Push a la implantación de un sistema Pull con la utilización de kanbans. 
Los resultados del negocio aprendiendo con LEAN WINNING, deben ir mejorando, partida a partida. La meta es ganar dinero, cumplir con la demanda del cliente y hacer que la empresa sea rentable, justo a tiempo, siempre eliminando el desperdicio y siempre mejorando...

Para aquellas compañías que quieren formar e involucrar a su gente en los métodos y el pensamiento Lean, el curso de formación LEAN WINNING es un sistema muy atractivo, fácil y divertido de aprender Lean jugando.


Quedamos a vuestra disposición para reflexionar conjuntamente sobre cómo aplicar estas herramientas de Gestión del Cambio a vuestro caso concreto


Que disfrutéis lo que queda del fin de semana
Un cordial saludo
Alvaro Ballesteros

viernes, 26 de febrero de 2016

Bases LEAN para migrar de fabricar productos a ofrecer Proyectos/Servicios



Estimad@s Clientes y/o amantes del LEAN:


En un escrito anterior, comentábamos la necesidad de dominar el Proceso de Industrialización como la última clave para la supervivencia de las Empresas en un entorno tan competitivo como el actual: de manera especial, subrayábamos el peligro de deslocalización que se cierne sobre las Empresas españolas que se encuentran dentro de Multinacionales
Afirmábamos que, según nuestra experiencia de muchos años de consultoría, las que mejor luchan contra esa amenaza son las que, aunque no sean Centros de Diseño, son capaces de hacer rápidas modificaciones de producto para mejorar la productividad/calidad y reducir los costes de los productos existentes    
Concluíamos que:  ¡!! Industrializar bien es todo!!!

Por otro lado, hay muchas empresas que ven su futuro estratégico en migrar desde una oferta de Productos a otra oferta mucho más poderosa de Proyectos/Servicios
Esta migración exige ser capaz de controlar/gestionar muchos más indicadores/variables
En este escrito vamos a profundizar un poco en el caso de una Empresa que ofrece Proyectos bajo pedido, concretamente Parques Termosolares

Describiremos por encima el flujo de Valor asociado a la gestión de un Parque determinado, y después sentaremos las bases para una rápida ejecución de un Proyecto de este tipo








Permitidme que no publique el resto del escrito, por temas de propiedad intelectual

A los interesados, por favor mandadme una solicitud y os lo enviaré gustosamente

Que disfrutéis cada hora del fin de semana
Un cordial saludo
Alvaro Ballesteros



sábado, 20 de febrero de 2016

Migrar hacia el flujo LEAN en el Proceso de Industrialización/Ofertas no es algo ajeno a mí, !!!es mi futuro!!!


Estimad@s Clientes y/o amantes del LEAN:

Vamos a dedicar este escrito a reflexionar sobre la excelencia LEAN en el Proceso de Industrialización
Cuando hablamos de industrialización, hay muchas Empresas que dicen “ese no es mi problema”, porque nosotros industrializamos nuevos productos muy de tarde en tarde, los centros de decisión están lejos de aquí y no podemos hacer nada, etc.
Pero nada más lejos de la realidad
Industrializar es sugerir modificaciones de producto para ser más baratos y/o dar plazos más cortos, es calcular costes y plazos en productos bajo pedido, es sugerir modificaciones para hacer más fácil la fabricación, es dar ideas para mejorar la productividad ….. ¡!Industrializar es todo!!!  
Sirva un caso como ejemplo: las fábricas que hacen producción bajo pedido, en el fondo están siempre industrializando; se nos preguntará por qué, la respuesta es fácil, cada vez que llega una nueva oferta, tenemos que penetrar lo suficiente en el producto para conocer lo siguiente:
-Si el producto se puede fabricar
-En caso positivo, cuánto cuesta hacerlo, o lo que es lo mismo, cuales son los costes
-Para saber los costes, hay que definir con cierta precisión las rutas y los tiempos
-Por último, pero no menos importante, sobre todo si nos estamos jugando la vida en ello, tenemos que dar, en medio de la marabunta de nuestra producción, una fecha de entrega corta y fiable
Nos gustaría insistir un poco en este último punto: para dar una fecha fiable, tenemos que estar seguros de que podemos hacer las pruebas, en producción, con suficiente rapidez para que la fecha no se nos vaya del plazo que el Mercado considera como estratégico
Y aquí está la madre de todas las batallas: nuestra experiencia de muchos años en Consultoría nos dice que la calve para que muchas Empresas españolas ( dentro de estructuras de Multinacional ) eviten la deslocalización es que sean capaces de industrializar en un tiempo mínimo……por supuesto, con calidad y costes competitivos
Pero no es tan fácil ser bueno industrializando. Para ello, debemos haber sentado los cimientos sólidos en los dos Procesos Clave de Negocio anteriores, el de Fabricación y el de Gestión de Pedidos

Mucho de vosotros ya conocéis el camino que recomendamos para la migración hacia la  Excelencia LEAN ENTERPRISE:



En este escrito nos estamos centrando en la tercera etapa
Ello quiere decir que ya hemos creado flujo en Fabricación y en Gestión de Pedidos
Por tanto, ya hemos conseguido aproximarnos, entre otras cosas, a los cero defectos, a los cero retrasos y a los cero papeles
Ahora vamos a ver cómo conseguimos los cero bucles de iteración por fallos en la primera industrialización: en una palabra, cómo conseguir una buena industrialización al primer intento
Evidentemente, sino no sería Metodología/enfoque LEAN, lo que buscamos es crear flujo en todos los protagonistas involucrados en la industrialización
Pero aquí no estamos hablando de flujos físicos sino de flujos de información
Eso pasa por definir claramente dónde deben residir las distintas funcionalidades asociadas a los diferentes Sistemas de Información implicados en el Proceso de Industrialización
 ¿Dónde hay que gestionar las modificaciones de diseño, las versiones sucesivas de diseño, las diferentes vistas/formas de gestión que se necesitan a lo largo del Ciclo de Vida de un Producto/Servicio, etc.?
¿Cómo se comunican entre sí  los módulos relacionados con el diseño con los módulos del ERP?
Estamos hablando de acertar en la fusión ERP y los distintos Sistemas asociados a las funcionalidades PLM (relacionadas con el Ciclo de Vida de los Productos/Servicios)
En estos casos, una decisión no correcta de dónde tiene que estar cada cosa, probablemente nos esté condicionando no solamente la productividad de los propios departamentos involucrados sino también las capacidades estratégicas de toda la Empresa

La experiencia de muchos casos diagnosticados nos indica que la falta de flujo en esa parte crucial de la Cadena de Valor de muchos Clientes es consecuencia de dos razones fundamentales:
-En el momento de la concepción del ERP (o en su desarrollo posterior, vía actualizaciones/parches), se creó ahí una Catedral pre-LEAN que, en sí misma, es la fuente del atasco, porque la burocracia/tiempo necesarios para hacer las cosas vía el ERP existente (en la mayoría de los casos el SAP) se convierte en sí mismo en Cuello de Botella
-Las funcionalidades PLM relacionadas con el Ciclo de Vida del Producto no se hablan entre sí, por lo que la imprescindible integridad de los datos se ha de llevar a cabo con esfuerzos ímprobos de los diferentes departamentos, lo que, en sí, es limitante a la hora de abordar nuevos Proyectos, nuevos diseños o nuevas ofertas   

Las Empresas que realmente aciertan en esta fusión ERP+PLM+LEAN consiguen unas mejoras, respecto a las que no lo hacen, bastante significativas:  
-Un 50% más de Proyectos abiertos (caso de empresas que hacen Proyectos bajo pedido)
-Un 30% más de diseños (con acortamientos muy significativos de los plazos de lanzamiento de Nuevos Productos)
-Un 50% más de ofertas (incrementando de forma sustancial las operaciones de Alto Valor Añadido de la Fuerza Comercial)  

En algún escrito anterior hemos reflexionado sobre las arquitecturas óptimas para crear flujo en Industrialización/modificaciones de Producto/Ofertas en Empresas que diseñan y/o fabrican productos de elevada complejidad que están sometidos a modificaciones constantes, ya sea por necesidades de personalización de los clientes o por modificaciones propias de diseño

Los conceptos clave de la arquitectura de Sistemas que buscamos son los siguientes:
-Las bases de datos empleadas para el diseño deben estar fuera del SAP
-Las aplicaciones que se emplean para diseñar el producto ( tipo CAD, PRO/ENGINEER, etc. ) deben estar fuera de SAP
-Tiene que haber un software que gestione el Ciclo de Vida del Producto, y debe estar, por supuesto, fuera de SAP
-Este Software debe ser capaz de presentar, bajo petición, las diferentes vistas que se necesitan del Producto: la forma como ve el producto la Ingeniería de Diseño no tiene nada que ver con la forma en que lo visualiza la Ingeniería de Producción, y ambos nada que ver con cómo lo necesita Mantenimiento, o cómo se necesita para la correcta instalación en Obra, o la forma de ver el producto que manejan los comerciales para hacer ofertas, etc.
-En cuanto alguien hace modificaciones en su vista, el software de Ciclo de Vida debe ser capaz de modificar automáticamente el resto de las vistas de todos los involucrados citados
-Las ofertas, su gestión, la rápida generación de nuevas ofertas, el rápido y preciso cálculo de coste, la fecha de entrega fiable.. y corta, debe estar también fuera del SAP
-Hacer ofertas no es nada más que otra fase del Ciclo de Vida del Producto; el PLM nos presenta la información básica, actualizada, que se precisa en este caso para calcular el nuevo coste, según la nueva BOM 
-Para disminuir el No Valor/burocracia de las ofertas, nos apoyamos en configuradores de ofertas, que, al igual que lo ya comentado en los configuradores de producto, nos ayudan, con sistemas poka-yoke a prueba de fallos al 100%, a evitar incompatibilidades/incongruencias en la oferta generada   


Todos los puntos anteriores piden una arquitectura de Sistemas como la siguiente:


El pilar fundamental de todo esto está en los sistemas PLM (Product Life Management) y sus interconexiones con los Sistemas de Diseño, Producción y Documentales
Diseñamos en CAD, PRO/ENGINIEER, etc., sacamos las BOM del PLM, y devolvemos ahí los resultados del nuevo diseño
Las nuevas BOM se mandan a SAP, que solamente trabaja con las BOM actualizadas
En los Sistemas de diseño tenemos configuradores de Producto que ayudan a diseñar más rápido productos parecidos y a diseñar a prueba de fallos, vía formularios/plantillas inteligentes que nos ayudan a evitar diseños incompatibles ( poka-yokes a prueba de fallos al 100%, que aseguran que si se mete una opción no se puede poner esta otra, …) : estos configuradores ayudan a mejorar enormemente la productividad del Departamento de Ingeniería de Diseño
El CAD se comunica automáticamente con el PLM
El PLM se comunica automáticamente con el SAP
El PLM actualiza automáticamente la documentación de los nuevos BOM en los Gestores Documentales

En fin, reitero, tanto para sobrevivir dentro de una Multinacional contra los enemigos internos (los más peligrosos, que están en los países de bajo coste) como para hacerlo dentro del propio país compitiendo con Empresas mucho más grades (y casi siempre más lentas a la hora de reaccionar), es totalmente fundamental crear flujo LEAN en el Proceso de Industrialización(Modificaciones/Ofertas
Argumentos: ya conocéis de sobra los míos...TOYOTA, la creadora del LEAN, hoy por hoy diseña en la mitad de tiempo que la competencia
Los que se plantean migrar hacia la excelencia LEAN en el Proceso de Industrialización/Modificaciones/Ofertas no van hacia esa meta por moda…van al futuro

Que disfrutéis cada hora del fin de semana
Un cordial saludo
Alvaro Ballesteros

Del telescopio de Galileo al interferómetro láser LIGO, la maravilla técnica que ha permitido la detección de ondas gravitacionales


Estimad@s Clientes y/o amantes del LEAN:

El anuncio de la pasada semana de la detección de ondas gravitacionales, aparte de la enorme trascendencia del hecho en sí, ha puesto todos los focos en la maravilla de la técnica que lo hahecho posible, el LIGO
Sirve este escrito como un humilde homenaje a tod@s los que lo han hecho posible

Partiremos de los principios básicos de un telescopio (especialmente los relacionados con su poder de resolución), de ahí pasaremos a describir lo que es la interferencia y terminaremos con una breve descripción de este interferómetro láser tan especial que es el LIGO

Apertura

Diámetro del objetivo ( lente en un telescopio refractor o espejo en uno reflector ). Se suele expresar en milímetros o en pulgadas. ( 1 pulgada = 25.4 mm )

Distancia focal


Distancia entre el objetivo y el punto en el plano focal en que convergen los rayos de luz. (suele expresarse en milímetros)


Relación focal (razón focal)

Distancia focal / Diámetro
También conocido como número f. Por ejemplo para un telescopio con una Distancia focal de 650 mm. y un diametro de 130 mm, su relación focal sería f/5
Es un indicador de la luminosidad del telescopio: cuanto más corta es la distancia focal F y más grande el diámetro D, más luminoso será el telescopio. Sólo para astrofotografía, no aplicable a observación visual.
Muchas veces es llamada la "velocidad" del telescopio: se dice que es un telescopio rápido cuando su razón focal es baja (es rápido porque necesita menos tiempo en recolectar la misma cantidad de luz que otros telescopios con una razón focal más alta). Esto es especialmente importante en la astrofotografía, donde se pueden reducir sustancialmente los tiempos de exposición si se utilizan telescopios de relaciones focales F/D bajas.
Algunos tipos de telescopios suelen utilizar un sistema óptico llamado reductor de focal, que reduce la relación focal de un equipo. Por ejemplo se puede pasar de f/10 a solo f/6.3

Poder de resolución

Se llama resolución (o poder separador) a la capacidad de un telescopio de mostrar de forma individual a dos objetos que se encuentran muy juntos, es el llamado "límite de Dawes". Esta medida se da en segundos de arco y está estrechamente ligada al diámetro del objetivo, dado que a mayor diámetro mayor es el poder separador del instrumento.
Cuando se dice que un telescopio tiene una resolución de 1 segundo de arco se está indicando que esa es la mínima separación que deben poseer dos objetos puntuales para ser observados de forma individual. Hay que destacar que no depende de la ampliación utilizada, o sea que no se aumenta la resolución por utilizar mayores aumentos, un instrumento posee cierto poder separador intrínseco definido por las características técnicas que lo componen.
Para calcular la resolución de un telescopio se utiliza la siguiente fórmula:
R ["] = 4.56 / D [pulgadas]
o
R ["] = 115.82 / D [mm]
En donde R es la resolución en segundos de arco y D es la apertura (diámetro del objetivo).
Es importante aclarar que el resultado del calculo es totalmente teórico, dado que el poder separador de cualquier instrumento se ve reducido de forma importante por la  influencia de la atmósfera. Así, un telescopio de 114 mm de diámetro (4.5 pulgadas), posee una resolución teórica de aproximadamente 1 segundo de arco, pero en la practica esta se ve disminuida muchas veces a mas de la mitad.

Interferómetros

El interferómetro
Información sobre la plantilla
Interferoportada.jpeg
interferómetro de Fizeau compacto Intellium™ Z100 series.
Se trata de aparatos ópticos o radioastronómicos que, con diversos métodos, aprovechan el fenómeno de Interferencia de las radiaciones electromagnéticas para diferentes tipos de medidas astronómicas. El interferómetro es un instrumento que emplea la interferencia de las ondas de luz para medir con gran precisión longitudes de onda de la luz misma.
Hay muchos tipos de interferómetros, en todos ellos se utilizan dos haces de luz que recorren dos trayectorias ópticas distintas, determinadas por un sistema de espejos y placas que, finalmente, convergen para formar un patrón de interferencia
Técnicas interferometría
Una de las técnicas de interferometría, tanto óptica como radial, consiste en la observación de la propia fuente estelar con dos telescopios (o bien con dos radiotelescopios) distantes entre sí de manera que haya un desfase en las señales que llegan. A partir de este desfase, a través de una elaboración electrónica de las señales recibidas, se puede llegar a la exacta posición y al diámetro angular de una estrella, o bien, en el caso de estrellas dobles, al valor de su separación angular.
Interferómetros ópticos
Uno de los interferómetros ópticos más avanzados se encuentra en el observatorio de Narrabi, en Australia, a unos 400 km al nordeste deSidney, y consiste en dos reflectores de 6,5 metros de diámetro, cada uno formado por 251 pequeños elementos reflectores que son conectados a distancias de hasta 200 metros el uno del otro.
En el caso de los radiotelescopios, se ha perfeccionado desde hace algunos años la interferometría sobre líneas de base muy grandes, que consiste en conectar entre sí grandes antenas parabólicas distantes millares de kilómetros. El poder resolutivo de instrumentos así unidos equivale al de una única e inmensa antena de diámetro igual a la longitud de la línea de base.
Los interferómetros usados en el laboratorio, se sirven de una única fuente real para producir dos fuentes virtuales coherentes a partir de ella.
Clasificación
Los interferómetros se clasifican en dos grupos según la forma en que producen las fuentes virtuales: división de frente de onda y división de amplitud.
En el primer caso, se usan porciones del frente de onda primario, bien sea directamente como fuentes secundarias virtuales o en combinación con otros dispositivos ópticos.
En el segundo caso, el haz primario se divide en dos haces secundarios, los cuales viajan por diferentes caminos antes de recombinarse e interferir.
Medición de la longitud de onda de la luz
Para medir la longitud de onda de un rayo de luz monocromática se utiliza un interferómetro dispuesto de tal forma que un espejo situado en la trayectoria de uno de los haces de luz puede desplazarse una distancia pequeña, que puede medirse con precisión, con lo que es posible modificar la trayectoria óptica del haz.
Cuando se desplaza el espejo una distancia igual a la mitad de la longitud de onda de la luz, se produce un ciclo completo de cambios en las franjas de interferencia. La longitud de onda se calcula midiendo el número de ciclos que tienen lugar cuando se mueve el espejo una distancia determinada.
Medición de distancias
Cuando se conoce la longitud de onda de la luz empleada, pueden medirse distancias pequeñas en la trayectoria óptica analizando las interferencias producidas. Esta técnica se emplea, por ejemplo, para medir el contorno de la superficie de los espejos de los telescopios.
Medición de índices de refracción
Los índices de refracción de una sustancia también pueden medirse con un interferómetro, y se calculan a partir del desplazamiento en las franjas de interferencia causado por el retraso del haz.
El interferómetro en Astronomía
En astronomía el principio del interferómetro también se emplea para medir el diámetro de estrellas grandes relativamente cercanas como, por ejemplo, Betelgeuse. Como los interferómetros modernos pueden medir ángulos extremadamente pequeños, se emplean también en este caso en estrellas gigantes cercanas para obtener imágenes de variaciones del brillo en la superficie de dichas estrellas. Recientemente ha sido posible, incluso, detectar la presencia de planetas fuera del Sistema Solar a través de la medición de pequeñas variaciones en la trayectoria de las estrellas. El principio del interferómetro se ha extendido a otras longitudes de onda y en la actualidad está generalizado su uso en radioastronomía.
Interferómetro de Michelson
El interferómetro de Michelson consiste básicamente en una fuente láser divergente, la cual, al encontrarse un divisor de haz, es separada en dos frentes de onda idénticos, propagándose en direcciones perpendiculares. Estos haces se reflejan en sendos espejos planos, volviéndose a recombinar tras el divisor de haz. Si los espejos estuviesen situados a la misma distancia del divisor de haz, entonces, despreciando las diferencias debidas al espesor del espejo, los haces se recombinarían en fase, y no se obtendría ningún patrón de interferencia.





Si se alejan los espejos, entonces las diferencias de camino óptico producirá franjas de interferencia, que dependerán tanto de la distancia entre los espejos como de la longitud de onda de la radiación utilizada. Por esta razón, el interferómetro se utiliza tanto para determinar distancias como para determinar longitudes de onda. La mejor forma de analizar el interferómetro de Michelson es considerar el esquema "equivalente", formado por las imágenes que de la fuente láser determinan los espejos, y alinear el sistema. Los puntos F,F' son las imágenes que el sistema óptico determina para la fuente cuando se contempla desde la pantalla, siendo d la diferencia de camino (de ida y vuelta) entre los dos brazos del interferómetro.

INTRODUCCIÓN A LIGO Y A LAS ONDAS GRAVITACIONALES

INTRODUCCIÓN



 
A lo largo de la historia, los humanos se han valido de diferentes formas de luz (ondas electromagnéticas) para observar el universo. Hoy en día, nos encontramos a las puertas de una nueva frontera en astronomía: la astronomía de ondas gravitacionales. Las ondas gravitacionales transportan información acerca del movimiento de los objetos en el universo. Puesto que el universo ya era transparente a la gravedad momentos después del Big Bang y mucho antes de serlo a la luz, las ondas gravitacionales nos permitirán observar la historia del universo hasta instantes mucho más remotos. Y dado que las ondas gravitacionales no se absorben o se reflejan en la materia del resto del universo, podremos “ver a través” de los objetos que se encuentren entre la Tierra y la fuente de ondas gravitacionales. Pero, sobre todo, las ondas gravitacionales contienen la promesa de lo desconocido. Cada vez que los humanos hemos mirado al cosmos con nuevos “ojos” hemos descubierto algo inesperado que ha revolucionado la forma en la que vemos el universo y nuestro lugar en él. Hoy en día, con el detector estadounidense de ondas gravitacionales (LIGO) y sus homólogos internacionales, nos estamos preparando para mirar el universo con un nuevo par de ojos que no dependen de la luz. - See more at: http://www.ligo.org/sp/science/overview.php#sthash.GIHEQn2m.dpuf

DETECCIÓN DE ONDAS GRAVITACIONALES



 
Las ondas gravitacionales interaccionan con la materia comprimiendo los objetos en una dirección y estirándolos en la dirección perpendicular.  Por tanto, los más modernos detectores de ondas gravitacionales tienen forma de L y miden las longitudes relativas de sus brazos por medio de la interferometría, que observa los patrones de interferencia producidos al combinar dos fuentes de luz.  Dos de estos interferómetros están en los Estados Unidos - uno en Hanford, Washington, y otro en Livingston, Louisiana - y se llaman LIGO (siglas en inglés de Observatorio de Ondas Gravitacionales con Interferómetro Láser).  LIGO es el mayor de los detectores de ondas gravitacionales, con sus brazos de 4 km de longitud (un poco menos de 2.5 millas); Otros detectores son VIRGO en Italia, GEO en Alemania y TAMA en Japón. - See more at: http://www.ligo.org/sp/science/GW-Detecting.php#sthash.hOQKoEhz.dpuf

USO DE MÚLTIPLES DETECTORES

Se necesitan múltiples interferómetros para detectar y ubicar las fuentes de ondas gravitacionales (excepto las señales continuas) con confianza, dado que no se pueden realizar observaciones direccionales con un único detector como LIGO, que es sensible a grandes porciones del firmamento al mismo tiempo.  Las ondas gravitacionales viajan a una velocidad finita, que se supone que es la velocidad de la luz.  Esto provoca un retraso (de unos 10 milisegundos) en la detección entre los dos detectores de LIGO.  Utilizando este retraso y el retraso entre LIGO y sus socios internacionales se puede ayudar a encontrar la ubicación exacta de la fuente de ondas gravitacionales en el firmamento.   El uso de múltiples detectores también puede ayudar a distinguir candidatos a ondas gravitacionales causados por fuentes locales, como árboles que caen en el bosque o incluso un técnico al que se le cae un martillo en el emplazamiento del detector.   Claramente, estos acontecimientos no son ondas gravitacionales, pero puede que se parezcan mucho a ellas.  Si un candidato a onda gravitacional se observa en un detector pero no en los otros dentro del tiempo que tarda la luz en viajar de uno a otro, el candidato se rechaza. - See more at: http://www.ligo.org/sp/science/GW-Multiple.php#sthash.syuTR1qm.dpuf

UN INTERFERÓMETRO



Para medir la longitud relativa de los brazos, un haz de luz láser es separado en dos en la intersección de los dos brazos.  La mitad de la luz del láser se transmite a un brazo mientras que la segunda mitad se desvía al segundo brazo.  Cerca del divisor de rayos y al final de cada brazo se encuentran los espejos suspendidos como péndulos. La luz láser dentro de cada brazo rebota una y otra vez en los espejos y, finalmente, regresa a la intersección, donde interfiere con la luz del otro brazo.  Si las longitudes de los brazos no han cambiado, entonces las ondas de luz, al combinarse, deberían restarse completamente (interferencia destructiva) y no se observará nada de luz en la salida del detector.   Por el contrario, si una onda gravitacional estirara un brazo y comprimiera el otro ligeramente (más o menos 1/1000 del diámetro de un protón), los dos haces de luz no se restarían completamente el uno del otro, produciendo patrones de luz en la salida del detector.  Codificada en estos patrones de luz se encuentra la información del cambio relativo de longitud entre los dos brazos, que a su vez nos informa sobre lo que produjo las ondas gravitacionales.

Numerosos factores terrestres causan constantes y minúsculos cambios en la longitud relativa de los brazos de LIGO.  Estas omnipresentes señales terrestres se consideran ruido (y de hecho suenan como un sonido estático si la señal se envía a un altavoz).  En lenguaje científico se define el ruido como aquella señal espuria que el detector registra de forma no deseada.  En este caso, LIGO trata de medir el cambio en la longitud de sus brazos causado por una onda gravitacional y no por los incesantes pequeños movimientos de los componentes de LIGO provocados por el ambiente.  Para ayudar a minimizar los efectos locales en el detector, LIGO ha realizado muchas mejoras sobre el diseño de un interferómetro básico (además de requerir que los dos detectores detecten la misma señal dentro del tiempo que tarda la luz en viajar entre ellos). - See more at:
http://www.ligo.org/sp/science/GW-IFO.php#sthash.bYx1LvUP.dpuf

EL INTERFERÓMETRO LIGO



Una mejora es la colocación de los componentes ópticos de LIGO en el vacío. En principio, esto evita que las corrientes de aire perturben los espejos (incluso en un sistema bien aislado y cerrado, las diferencias de temperatura a lo largo de los brazos del detector pueden provocar vientos) pero fundamentalmente el vació asegura que la luz láser pueda viajar a través de una línea recta en los brazos. Leves cambios de temperatura en el brazo provocan que la luz se curve debido a la dependencia del índice de refracción (una medida de cuánto se curva la luz cuando atraviesa un medio) con la temperatura. Incluso una pequeña desviación de la luz en los brazos provoca que el láser choque contra las paredes del tubo, que tiene un diámetro de aproximadamente 1.2 metros en sus 4,000 metros de longitud. LIGO es el mayor sistema de vacío sostenido del mundo (8 veces el vacío del espacio), y mantiene 300,000 pies cúbicos (aproximadamente 8,500 metros cúbicos) a una presión de una billonésima de la atmósfera terrestre.

Otra mejora son los sistemas internos y externos de aislamiento sísmico de LIGO. En el interior se encuentran unos imanes minúsculos sujetos al dorso de cada espejo. Las posiciones de estos imanes se detectan por las sombras que producen cuando se iluminan con fuentes de luz LED. Si los espejos se mueven demasiado, un electroimán crea un campo magnético en contra que empuja o tira de los imanes hasta colocar el espejo de vuelta en su posición. Este método no sólo contrarresta el movimiento de los espejos debido a vibraciones locales, sino que también contrarresta la fuerza de marea que el sol y la luna ejercen sobre los espejos, de forma similar a como afectan al agua del océano. En el exterior se encuentran los sistemas hidráulicos que contrarrestan las vibraciones de la superficie terrestre (medidas por los sismómetros cercanos) antes de que provoquen vibraciones en los componentes internos de LIGO. - See more at:
http://www.ligo.org/sp/science/GW-Enhance.php#sthash.fXAsvSc3.dpuf

EL POTENCIAL DE LAS ONDAS GRAVITACIONALES

Las ondas gravitacionales marcarán el inicio de una nueva era en astronomía.  La mayor parte de la astronomía en el pasado se ha basado en distintas formas de radiación electromagnética (luz visible, ondas de radio, rayos X, etc.), pero las ondas electromagnéticas se reflejan y son absorbidas muy fácilmente por la materia existente entre la fuente y nosotros.  Incluso la luz que se observa proveniente del firmamento normalmente ha sido transformada en su viaje hasta nosotros.  Por ejemplo, cuando la luz atraviesa nubes de gas o la atmósfera de la Tierra, algunos de sus componentes son absorbidos y no pueden ser observados.

Las ondas gravitacionales transformarán la astronomía porque el universo es casi transparente a ellas: la materia y los campos gravitacionales ni absorben ni reflejan las ondas gravitacionales de forma significativa.  Los humanos seremos capaces de observar objetos astrofísicos que de otro modo habrían permanecido ocultos, así como los mecanismos internos de fenómenos que no producen luz.   Por ejemplo, si las ondas gravitacionales estocásticas realmente provienen de los primeros instantes después del Big Bang, entonces no solamente observaremos el universo hasta instantes mucho más remotos que los conocidos hasta ahora, sino que estaremos viendo esas señales exactamente como eran en el momento en el que fueron originalmente producidas.

La física que dio lugar a la creación de las ondas gravitacionales está codificada en la misma onda.  Para extraer esa información, los detectores de ondas gravitacionales operarán del mismo modo que una antena de radio - exactamente igual que las antenas extraen la música codificada en las ondas de radio que reciben, LIGO recibirá ondas gravitacionales que, al ser descodificadas, permitirán extraer información acerca de su origen físico.  En este sentido, LIGO realmente es un observatorio, incluso aunque no albergue un telescopio tradicional.  Sin embargo, el análisis de datos que se requiere para buscar ondas gravitacionales es mucho más minucioso que el que se asocia a los telescopios ópticos tradicionales, así que, probablemente, la detección de ondas gravitacionales en tiempo real no será posible.   Por ello, LIGO crea un registro de los datos del detector.  Esto supone una ventaja cuando se coopera con observatorios tradicionales, porque LIGO tiene una 'tecla de rebobinado' que los telescopios no poseen.  Si se piensa en una supernova que sólo se observa después del comienzo de la explosion, los investigadores de LIGO pueden recuperar los datos pasados y buscar ondas gravitacionales en los instantes próximos al tiempo de comienzo de la supernova.

La astronomía de ondas gravitacionales ayudará a explorar algunas de las grandes cuestiones de la física: ¿Cómo se forman los agujeros negros?  ¿Es la relatividad general la descripción correcta de la gravedad?  ¿Cómo se comporta la materia bajo las condiciones extremas de temperatura y presión de las estrellas de neutrones y las supernovas? - See more at:
http://www.ligo.org/sp/science/GW-Potential.php#sthash.EdrK8xro.dpuf

Que disfrutéis cada hora del fin de semana
Un cordial saludo
Alvaro Ballesteros