sábado, 27 de marzo de 2021

Maravillas de la Ingeniería de Fabricación: un robot de seis ejes Fanuc manejando un coche

 

Estimad@s Clientes y/o amantes del LEAN:


Una maravilla de la Ingeniería: un robot Fanuc levantando a sus lomos un coche:


                                      https://www.youtube.com/watch?v=69RtLBImXiU


Que disfrutéis cada hora del fin de semana
Un cordial saludo
Álvaro Ballesteros 

viernes, 19 de marzo de 2021

Igual que la luz eléctrica no llegó como consecuencia de la mejora continua del método de las velas, nuestras fábricas deberían pasar de hacer Mejora Continua a implantar Mejoras Radicales LEAN

 Estimad@s Clientes y/o amantes del LEAN:

La historia de la civilización nos ha enseñado que, a veces, es necesario dejar atrás las enseñanzas de las soluciones existentes para seguir avanzando

Caso típico, el mensaje de esta diapositiva: !!!!!la luz eléctrica no llegó como consecuencia de ir mejorando la solución de las velas!!!!!





!!!Mensaje sencillo donde los haya, pero enormemente clarificador!!!

Cuando hablo de este tipo de reflaxiones, cómo no recordar lo que decía Lord Kelvin, máxima autoridad científica a finales del siglo XIX, cuando proclamaba, en un discurso a la Royal Society: ya no hacen falta más generaciones de físicos, porque todo lo que queda es añadir decimales a las leyes físicas existentes.......... !!!Y entonces llegaron la Mecánica Cuántica y la Teoría de la Relatividad y dieron un golpe tremendo encima de la mesa !!!!!....el resto es historía

El caso es que, a veces, muchos Directivos creen que por haber implantado en sus Empresas las bases metodológicas de la Mejora Continua, ya eso les permitirá ir optimizando poco a poco sus parámetros clave relacionados con costes/plazos/calidad…. pero eso, en la mayoría de los casos, no es suficiente, porque básicamente, la supervivencia en el mundo actual es un problema de velocidades, de cómo de grande es la derivada, como diría un matemático

Me explicaré con algunos casos:
-Si nuestros procesos con mayor Mano de Obra están a cinco turnos, lo crítico es encontrar una solución que permita bajar cuanto antes a tres turnos…..y eso es un salto cuántico, porque el porcentaje de mejora es de dos dígitos; pero lo peor no es eso, lo malo es que si no lo hacemos en plazos muy cortos de tiempo (probablemente tres meses, seis máximo), la Empresa pasará por problemas muy serios de costes, y por tanto de pedidos, y por tanto de cash-flow

Para mí la solución para este caso es clara:
-Virar hacia Proyectos de Mejora Radical LEAN, como solución de urgencia a la dinámica de Mejora Continua existente hasta ese momento  
-Aterrizaje en la Empresa de expertos que pongan encima de la mesa rápidamente Best Practices sobre las que toda la Organización pueda ponerse a pensar para conseguir la reducción de cinco/cuatro turnos a tres en nuestro caso concreto
-Dar un plazo máximo de seis meses para que esa reducción esté funcionando de manera estable y sin trampas, con su reflejo correspondiente en la Cuenta de Resultados

La misma argumentación que es aplicable para este caso de reducción de número de turnos valdría si queremos abordar proyectos orientados a :
-Cero Retrasos, en el 100% de los Clientes, en el 100% de las líneas de pedido
-Reducción drástica de plazos de entrega: muchos Clientes basan en este indicador su estrategia…. los que así lo hacen se ponen como objetivo reducciones del lad time de, como mínimo, un 70%
-Calidad en origen, al 100%, a la primera 

El problema que plantea la diapositiva de cabecera es que, tradicionalmente, podemos llegar a pensar que para conseguir estos cambios drásticos en tan poco tiempo, basta con abrir unos PDCA basados en la Metodología de Mejora Continua tradicional

La respuesta es que probablemente solo con la Mejora Continua eso no es posible

Yo estoy en el mercado hace muchos años; es difícil hacerse un hueco en esto de la Consultoría, pero poco a poco mis Clientes me van identificando con la Mejora Radical LEAN

Uno de mis Clientes favorito, cuando le preguntan, suele responder: estamos en tiempos en que los que se basen en la Mejora Continua simplemente están muertos, aunque ellos aún no lo sepan

Mi Cliente concluye: incluso si crees que la Mejora Continua LEAN debe continuar como siempre, pues sigue con la Consultora que te montó el sistema, pero no te quedes quieto:  arranca, urgentemente, en paralelo, una dinámica de Proyectos de Mejora Radical LEAN, porque es la única manera de saltar rápidamente etapas de transición, y para eso no lo dudes: contrata a un experto en Mejora Radical LEAN

Este querido Cliente, al que admiro profundamente, por cierto con puesto de Managing Director en una Multinacional de gran prestigio, le lanzó este mensaje a todos sus Equipos:
“Cuanto peor nos vaya, más Proyectos de Mejora Radical LEAN hay que abordar”

Es claro que esa Mejora Radical LEAN se puede hacer internamente, pero muchas veces el ejemplo viene de otros sectores, por lo que es necesario traer una mente fresca externa que ayude a los Equipos internos a alumbrar esas soluciones tan rompedoras 

Eso me hace recordar a un gran Director de Proyecto en una empresa emblemática del País Vasco, que cuando le protestó alguien de su Equipo diciendo que para qué hacen falta expertos externos cuando él tenía más de 20 años de experiencia, Iñaki le contestó: “Tú no tienes 20 años de experiencia, tienes 2 x 10……!!!que no es lo mismo!!!”. Se lo decía con todo el cariño del mundo, pero le estaba argumentando a su querido colaborador que él siempre había estado en ese tipo de fabricación en esos 20 años, que realmente solo había aprendido algo nuevo los 2 primeros años, que el resto de años era más de lo mismo y que eso podría ser limitante a la hora de conocer Best Practices de sectores totalmente diferentes, de las que se pudiera sacar una idea de aplicación en su caso   
   
Concluiré el presente escrito cerrando el círculo argumentativo abierto por la diapositiva de cabecera: estamos en un momento en que la implantación de una Metodología de Mejora Continua en nuestra Empresas simplemente no es suficiente, y solo un enfoque de Mejora Radical puede asegurar una velocidad de crucero suficiente para sobrevivir a un mundo tan complejo como el actual

Una última reflexión personal: probablemente el no haberse enfocado desde el principio en Proyectos de Mejora Radical pueda ser una de las razones de que el LEAN que han ofrecido algunas consultoras pueda haber perdido gran parte de su atractivo

Que disfrutéis cada hora del fin de semana
Un cordial saludo
Álvaro Ballesteros

domingo, 14 de marzo de 2021

CInco sencillas ecuaciones para revolucionar nuestra civilización


Estimad@s amantes del LEAN:

He vuelto a leer el libro : Cinco ecuaciones que cambiaron el mundo, de Michael Guillen, editor científico del programa Good morning, America, de la cadena de televisión ABC


Es todo un alegato a favor de la ciencia
Me sigue pareciendo lo más increíble del mundo que una simple ecuación matemática sea capaz de explicar tantas cosas.......!!!!ciencia pura de oliva!!!!!
Ahí van cinco ecuaciones maravillosas
Feliz lectura


-Ley de la Gravitación Universal:

 
Como preparación para el envío de tres hombres a la luna, la NASA había enviado a un grupo de astronautas, entre los que se encontraban Neil Armstrong, al observatorio de Flagstaff ( Arizona ) para que vieran por primera vez la Luna de cerca. Podrían haber ido a cualquier otro observatorio de Estados Unidos pero tenía un significado especial que la NASA hubiera elegido precisamente ese-

El observatorio lo había fundado en 1894 Percival Lowell, un excéntrico rico que deseaba tener un telescopio para buscar vida en Marte. Aunque nunca encontró ningún “hombrecillo verde” su observatorio se convirtió en uno de los más prestigiosos del país para estudiar el sistema solar.

Cuando se inauguró el observatorio Lowell, todo el mundo creía que el sistema solar constaba de siete planetas ( además de la Tierra ). Estaban los cinco que Copérnnico conoció, más otros dos ( Urano y Neptuno ) que los astrónomos habían descubierto desde entonces.

Además, los astrónomos habían descubierto que la órbita de Urano no era perfectamente elíptica, violando así una de las leyes de Kepler. Aquello había llevado a muchos ( entre ello a Lowell ) a atribuir esas aberraciones del tirón gravitatorio a un planeta cercano aún sin descubrir-

Sin más armas que la ecuación gravitatoria de Newton y su flamante telescopio, Lowell había predicho la localización probable de aquel hipotético planeta. No vivió para verlo, pero en 1930 su ayudante Clyde Tombaugh había descubierto el planeta a solo seis grados del lugar que había previsto Lowell; a renglón seguido, los astrónomos lo llamaron Plutón

 -Ley de la Presión Hidrodinámica:


En su época, Bernouilli había afrontado la cuestión de cómo medir la presión de la sangre. En ese momento, Zhukovski afrontaba una cuestión muy distinta, provocada por el éxito de los planeadores de Cayley: ¡Cómo era posible que volara un avión? ¿ Qué era exactamente lo que lo elevaba del aire y, en aparente desafío a la gravedad, lo mantenía sin caer?

Después de terminar su formación, Zhukovski fue nombrado profesor de la Universidad de Moscú, después de lo cual se aplicó a la tarea de responder esas cuestiones trscendentales. Después de años de súplicas, en 1891 había conseguido incluso convencer a la universidad de que le construyeran un pequeño túnel de viento.

En esa época, dos años después del sorprendente logro de los hermanos Wright, el propio Zhukovski, de cuarenta y cuatro años, estaba a punto de entrar volando en los libros de historia. Los aviones eran capaces de volar, debido a la ecuación del flujo de fluidos de Bernouilli.

Para poder comprender lo que había descubierto Zhukovski solo hacía falta imaginarse un ala de avión desmontada dentro de un túnel de viento que tuviera el techo y el suelo planos. El perfil del ala era el característico, con una superficie inferior plana y una superficie superior redondeada.

La sección transversal de un ala típica, efectivamente, parece la mitad superior de una lágrima alargad que hubiera sido dividida longitudinalmente. Dentro del túnel de viento, como ocurre en el vuelo, el borde romo de esa semigota corta el aire mientras que la cola más afilada queda por detrás.

Dentro del túnel de viento, el ala rompe inevitablemente la corriente de aire en una corriente superior y otra inferior. La corriente superior circula entre la superficie superior del ala y el techo plano del túnel. La corriente inferior queda limitada por la superficie inferior del ala y el suelo plano del túnel. ( En efecto, el “techo” del túnel tiene el papel de la parte alta de la atmósfera, y el “suelo” el de la tierra)

Zhukovski se había dado cuenta de que la corriente superior de aire era ligeramente más estrecha que la inferior. Y ello sencillamente porque la superficie superior del ala era redondeada, estrechando así el espacio que había entre el ala y el techo del túnel.

Según la Ley de la Continuidad de Leonardo da Vinci, razonón Zhukovski, la corriente superior ( más estrecha ) de aire circulaba más deprisa que la corriente inferior ( más ancha ) de aire. Era exactamente la misma razón por la que las aguas de un río se aceleran bruscamente al llegar a un cuello de botella.

Según la ecuación de flujo de fluidos de Bernouilli, Zhukovski había llegado a la conclusión de que la corriente inferior ( más lenta ) de aire ejercía más presión que la corriente superior ( más rápida ). Es decir, la presión del aire que empujaba el ala hacia arriba era mayor que la presión del aire que empujaba hacia abajo.

¿Resultado final?. Que los aviones volaban porque la presión bajo las alas sobrepasaba la presión sobre ellas. O dicho de otro modo : los aviones se levantaban del suelo porque la relativa alta presión del aire que pasaba por debajo de las alas las empujaba hacia arriba. ( O, lo que es lo mismo, los aviones volaban porque sus alas se veían absorbidas hacia arriba por la presión relativamente baja del aire que pasaba por la parte superior de sus alas )

En último extremo, el reconocimiento pertenece a Daniel Bernouilli, cuya obra seminal en la hidrodinámica permitió que Zhukovski y otros hicieran que la especie humana despegara del suelo       

- Ley de la Inducción Electromagnética:


Faraday se había dado cuenta de que el magnetismo que producía una corriente eléctrica siempre desviaba una aguja de brújula de la misma manera: imaginemos la brújula colocada sobre una mesa y la corriente que fluyera desde el suelo hasta el techo: la aguja siempre se movía ligeramente en sentido contrario a las agujas del reloj, nunca en el sentido de las agujas. Faraday no estaba seguro de qué significaba eso pero después de someter su artículo sobre la historia de la electricidad y el magnetismo a los Annals of Philosophy se dispuso a avarigurlo.Concentrándose, se le fue haciendo clara una imagen mental que explicaba el experimento original de Orsted. Al igual que ua corriente de aire caliente a veces se convierte en un torbellino, conjeturaba Faraday, una corriente de electricidad ascendente bien podía producir vientos espirales de magnetismo ocasionando ua pequeña rotación de una brújula cercana.

Era más que una conjetura y menos que una teoría, cosa de la que Faraday se daba cuenta, pero había un modo de comprobarlo: si una corriente eléctrica producía un torbellino magnético, entonces los vientos giratorios serán capaces de hacer girar continuamente cualquier objeto magnético y no simplemente un poco como ocurría con la brújula de Orsted. La cuestión estaba en cómo conseguirlo.

Después de trastear con su equipo día y noche a lo largo de varias semanas, la respuesta le llegó a Faraday a principios de Septiembre. En primer lugar, cogió una barrita imantada y la lastró en uno de sus polos. De ese modo, colocada en un recipiente de mercurio la barrita imantada flotaba verticalmente, como si se tratara de una boya diminuta.

Luego, puso un cable vertical dentro del recipiente e hizo pasar por él ua corriente eléctrica de abajo arriba. El resultado fue que ocurrió una cosa notabilísima: la boya imantada comenzó a rotar en torno al alambre como si la arrastrara una corriente invisible en sentido contrario a las agujas del reloj.

Con este único experimento, Faraday había descargado un magnífico puñetazo doble. Había confirmado la teoría del torbellino magnético y, al mismo tiempo, había creado el primer motor eléctrico del mundo.     

 Años después, en el Laboratorio Faraday trabajaba para encontrar la respuesta a una pregunta que le había intrigado desde su descubrimiento del motor eléctrico. Si la electricidad era capaz de producir magnetismo, ¿por qué no habría de ser cierta la inversa…. Por qué el magnetismo no podría producir electricidad?

El 29 de Agosto de 1831, Faraday descubrió un filón. Comenzó por enrollar un trozo largo de alambre en torno a una media rosquilla de hierro, haciendo luego lo mismo en torno a la otra media rosquilla, colocada justamente enfrente. Si los alambres hubieran sido vendajes habría parecido como si hubieran vendado los brazos redondos de la rosquilla en posiciones enfrentadas.

Como era habitual, el proyecto de Faraday era muy directo: mandaría una corriente eléctrica a través del primer vendaje de alambre produciendo un viento magnético que formaría torbellinos a través de toda la rosquilla. Siesa tormenta magnética producía una corriente eléctrica en el otro vendaje de alambre, entonces Faraday habría descubierto lo que todos buscaban: el magnetismo crearía electricidad.

Faraday anticipaba que si aquello ocurría, entonces probablemente la corriente eléctrica así producida sería muy pequeña: de lo contrario, casi con seguridad otros ya la habrían detectado hacia mucho tiempo. En consecuencia, Faraday colocó en el segundo enrollamiento de alambre un medidor que detectaría hasta el paso más insignificante de corriente eléctrica; con eso estaba listo para lo que pudiera ocurrir, o para que no ocurriera nada.

Mientras Faraday electrificaba el primer arrollamiento de alambre conectándolo a ua pila voltaica miraba esperanzado el medidor de corriente eléctrica. ¡La aguja se movía!. “Oscilaba -garabateó Faraday histéricamente en su cuaderno de laboratorio-, y se colocó finalmente en su posición inicial”

Durante un rato, Faraday miró estupefacto la aguja. ¡Volvería a moverse? A los pocos minutos de esperar en vano, renunció. Sin embargo, al desconectar la batería Faraday se quedó atónito al ver que volvía a haber “una perturbación en la aguja”.

El resto de la noche se lo pasó Faraday conectando y desconectando la rosquilla de hierro; cada vez que lo hacía, la aguja de su medidor de corriente eléctrica se agitaba espasmódicamente. Finalmente, se le ocurrió una idea y en aquel momento volvió a ser como aquel joven que había saltado de alegría una víspera de Navidad de hacía veinte años.

La corriente eléctrica que pasaba por el primer arrollamiento de alambre producía un torbellino magnético; ese torbellino, a su vez originaba una segunda corriente eléctrica que fluía por el otro arropamiento de alambre, pero solo cuando la intensidad del torbellino aumentaba o disminuía. Aquello explicaba el comportamiento espasmódico de la aguja: siempre que Faraday conectaba o desconectaba la pila, el torbellino magnético se iniciaba o se interrumpía súbitamente, produciendo aquel efecto. Entre esos dos momentos, y siempre que los torbellinos atravesaran establemente la rosquilla de hierro, no ocurría nada

Finalmente, en 1831, aquella persona prodigiosa de cuarenta años y perteneciente a la Real Institución, fue capaz de sintetizar su histórico descubrimiento en una única frase:

“Siempre que una fuerza magnética aumenta o disminuye, produce electricidad; a mayor rapidez de aumento o disminución, mayor cantidad de electricidad produce”

Tres largas décadas pasarían hasta que en 1865 un joven físico escocés, James Clark Maxvell, publicaría su gran obra “ A Dynamical Theory of the Electromagnetic Field”, en la que traduciría a una ecuación matemática el descubrimiento tan sencillamente afirmado por Faraday            

 -Segunda Ley de la Termodinámica:


Clausius se preguntó: ¿Cómo podría averiguar la entropía total del Universo? ¡Tendría que tener en cuenta todos los cambios de energía y de temperatura en cualquier momento dado!

Sin desalentarse, Clausius decidió intentarlo, creando primero un sistema sencillo de registro: todos los cambios naturales ( cambios de energía y de temperatura que se daban espontáneamente en toda la naturaleza, sin coerción alguna ) se considerarían cambios positivos de la entropía. Poe ejemplo, siempre que el calor se escapara de una casa caliente hacia el exterior más o menos frío, o que una taza de café caliente se fuera enfriando progresivamente ( comportamiento que era el natural del calor ) Clausius diría que la entropía se incrementaba.

A la inversa, todos los cambios antinaturales ( cambios de energía y de temperatura que ocurrían solamente cuando se obligaba a la Naturaleza mediante algún tipo de máquina )serían considerados como cambios negativos de la entropía. Por ejemplo, siempre que una máquina de vapor trocara el calor en trabajo o que un refrigerador forzara al calor a ir de un sitio frío a otro más o menos caliente, Clausius diría que la entropía de esos lugares disminuía

Clausius reflexionó que nuestro Universo estaba lleno de máquinas imperfectas, fueran animadas y minúsculas, como las células de nuestro cuerpo, o inanimadas u gigantescas, como las galaxias espiral de los cielos. El nuestro era un universo en el que la energía se conservaba pero no se aprovechaba con sublime eficiencia….. un universo, además, regido por la desigualdad de una misteriosísima Ley de la No Conservación de la Entropía  

-La Teoría de la Relatividad Especial


Era como si la percepción de los diferentes turistas del espacio y del tiempo cambiara de acuerdo con sus movimientos individuales, de tal manera que la velocidad de la luz ( y solo la velocidad de la luz ) siempre paracía ser la misma.

Según esta interpretación, el universo de Einstein se basaba en una ilusión óptica a escala universal cuyos efectos, los que inducían a confusión, eran universales. Independientemente de lo deprisa que se moviera una personas, su cálculo de un centímetro y de un segundo cambiaban de tal manera que ¡no se modificaba su cálculo de la velocidad de la luz!

Según descubrió Einstein, conforme una persona aumentaba su velocidad, su percepción de un centímetro y de un segundo disminuían en un factor que solo abarcaba dos cantidades: su velocidad v y la constante que era la velocidad de la luz c, medida en el impoluto vacío del espacio

Expresada en términos precisos, imponía un poco:

Factor de disminución de Einstein = (1-v2/c2) exp1/2

Sin embargo, tenía la forma conocidad de un factor de disminución elemental muy familiar:

(1-s) exp N

En consecuencia, resultaba posible que Einstein la simplificara utilizando la receta de aproximación que había aprendido hacía muchos años :

Factor de disminución, aprox igual a 1-1/2v2/c2

¿Cuál era la fórmula de la tasa de cambio que relacionaba la masa y la energía?

Descubrió que la respuesta podía obtenerse subiendo a bordo del Expreso Estelar por última vez. Lo único que tenía que tener en cuenta durante aquel último viaje impulsivo era que, según su teoría, la masa del Expreso se incrementaría o disminuiría conforme su velocidad aumentara o disminuyera.

Por ello era bastante sencillo que si el Expreso tenía que aminorar su velocidad entonces su masa ( representándola por la letra M) disminuiría en una cantidad dada por el conocido factor de disminución de Einstein:

1-1/2v2/c2

Einstein recordó que este factor era meramente una manera de decir que cierta cantidad quedaba disminuida en una cierta fracción equivalente a 1/2v2/c2.

En nuestro caso era la masa del Expreso ,M , la que disminuía como resultado de la aminoración de la velocidad: disminuóa en una fracción equivalente a 1/2v2/c2. En consecuencia, la pérdida de masa sería igual a M x 1/2v2/c2

En cuanto escribió aquello, el agudo ojo de Einstein se dio cuenta de la similitud entre esta fórmula y otra, bien conocida, sobre la energía cinética ( la energía del movimiento) que había aprendido de joven:

Energía cinética = m x 1/2v2

La pérdida de masa del Expreso era matemáticamente equivalente a esa energía cinética dividida entre c2:
Energía cinética/c2 = m x 172v2/c2 = masa perdida

En esencia :

Energía / c2 = Masa

Entonces se seguía que :

Energía = Masa x c2

He ahí la importantísima tasa de cambio que había buscado. Se quedó aliviado y también gratificado porque la relación entre la masa y la energía hubiera resultado tan sencilla, tan elegante; por extraño que fuera su universo relativista, era mucho más sencillo filosóficamente que el viejo universo.

Un cordial saludo
Alvaro

sábado, 13 de marzo de 2021

Poka Yoke basado en Realidad Aumentada: un homenaje a los creadores del LEAN, esos maravillosos ingenieros de Toyota Ohno y Shingo

 

Estimad@s Clientes y/o amantes del LEAN:

Como todos sabemos, los Poka-yokes fueron uno de los pilares fundadores del LEAN que crearon en TOYOTA esos maravillosios Ingenieros que se llamaban Ohno y Shingo

Desde el principio dijeron que, dado que el mandamiento número 1 que habían recibido del dueño de Toyota era que había que hacer producción mezclada ( la famosa orden: quiero hacer modelos nuevos en líneas viejas), sin sistemas a prueba de fallos todo el resto del edificio LEAN NO tenía sentido

El presente escrito es para rendir homenaje a estos pioneros, vía uno de los mejores Poka-Yokes que nos puede brindar la Visión Artificial / Realidad Aumentada........estoy seguro que Ohno y Shingo se emocionarían si vieran esto

Tras el videoclip, añado el contenido de un antiguo post que escribí en este blog, "Historias del LEAN", sobre el nacimiento de esta página tan bonita que escribieron TOYOTA para los ciclos cortos del automóvil, y Kawasaki Heavy Industries para los ciclos largos de fábricas de material ferroviario, aviones, barcos,estc., para sentar las bases del nuevo paradigma que llevaría a alcanzar la Excelencia en Operaciones Industriales

Feliz lectura


Poka Yoke ayudado apoyado en Realidad Aumentada para evitar errores en el montaje de Motores 



https://youtu.be/0m67O1Em7dY

De Toyota a Kawasaki Heavy Industries, un paseo por los hitos más emblemáticos de la historia del LEAN

https://historiasdellean.blogspot.com/2018/11/de-toyota-kawasaki-heavy-industries-un.html

Voy a dedicar el presente post a resumir, según mi humilde opinión, los hitos más emblemáticos de la historia del LEAN, desde su nacimiento en TOYOTA, evidentemente para ciclos cortos ( sector del automóvil ) hasta su consolidación definitiva cuando KAWASAKI HEAVY INDUSTRIES ( el fabricante del Tren Bala japonés ) demostró que se podía hacer producción mezclada unitaria, a ciclo de la demanda, para una cosa tan complicada como es el ensamblaje, pintura y montaje de unidades ferroviarias de todo tipo

1º Creación del sistema en TOYOTA

Al final de la 2ª guerra mundial, las infraestructuras industriales de Japón estaban totalmente destruidas
Las “Big Three” americanas, General Motors,Ford y Chrysler, se disponían a volver a invadir Japón, esta vez industrialmente hablando
EN TOYOTA, hay una reunión a la que asisten el presidente, Toyoda, y los que sentarían las bases del sistema, Ohno y Shingo







El presidente les dice: si seguimos los mismos métodos que los americanos, nos machacarán. Necesitamos inventar algo realmente nuevo…. 

El presidente hace dos observaciones:
1º Cada vez que hacemos un nuevo modelo, cuesta más la obra civil e instalaciones que se necesitan que el propio nuevo modelo, porque partimos del supuesto “Modelo Nuevo en línea nueva”……..a partir de ahora,….. ¡!Modelo Nuevo en línea vieja!!
2º Tenemos que encontrar una forma de conseguir beneficios que dependa solo de nosotros y no de que el mercado nos compre más  

Basados en esta petición, Ohno y Shingo sentaron las bases del Toyota Production System ( TPS ): 

-Problema nº1 : se producirán fallos de calidad debido a que esa producción mezclada necesita diferentes componentes al mismo tiempo
-Solución : POKA-YOKES ( Sistemas a prueba de fallos al 100% ) 

Problema nº2 : habrá grandes stocks en curso de diferentes referencias, a pie de línea
Solución : SMED ( reducción de tiempos de cambio en Prensas, desde 10 horas, a 10 min. ) y KANBAN ( la verdadera razón de la creación del KANBAN fue delimitar un espacio físico para cada referencia : “todo el sitio destinado para esa referencia es ese….no hagan más stock porque no cabe más en ese espacio”) 

Problema nº3: la burocracia de los flujos de información será compleja y los datos para reaccionar llegarán tarde
Solución: pondremos ANDONES ( paneles visuales ) en los sitios clave, y los alimentaremos en tiempo real en el propio puesto de trabajo 
 
-Problema nº4: llegarán tsunamis al montaje final, que serán difícil de gestionar
-Solución: tenemos que nivelar la producción en toda la fábrica, con filosofía HEIJUNKA. El montaje final debe ser suficientemente flexible para admitir cualquier modelo, en lotes unitarios
Una vez flexibilizado el proceso final, tenemos que flexibilizar los procesos de “aguas arriba”, hasta conseguir que todo el proceso productivo admita lotes unitarios
El proceso final debe tirar de los procesos anteriores, PULL en vez del clásico PUSH, donde las “catedrales pre-LEAN” lanzan aguas abajo piezas que nadie espera y no lanzan las que se necesitan
De ahí nació la famosa frase del Just in Time : “Lo que se necesita, cuando se necesita y con la calidad que se necesita”

-Problema nº5: mejorar beneficios sin esperar a que el mercado nos compre más
-Solución : definición de “LOS  7 DESPILFARROS” (identificaron las Operaciones de No Valor que no paga el Cliente y , crearon una metodología para su detección, cuantificación y eliminación)

Guinda a todo el Sistema:
Vamos a aprovechar todo el potencial de los trabajadores, integrándolos en Equipos capaces de ver procesos completos y dotándolos de metodología KAIZEN y de herramientas de detección de causa raíz, 5 Por qués y Diagramas de Espina de Pescado 

2º. Universalización del Sistema en el Automóvil
 
En la crisis del petróleo de los años 70, todas las empresas del automóvil tuvieron una bajada espectacular de beneficios excepto TOYOTA
Dos especialistas en Industria del MIT, Womack y Jones, iniciaron una visita por los principales fabricantes de todo el mundo para hacer un estudio comparado de productividades
TOYOTA tenía algo raro….ganaba más dinero que las seis siguientes juntas
Las conclusiones las expusieron en un libro de lectura apasionante: ” La máquina de cambió el mundo”
Más tarde, hicieron una síntesis de todas las herramientas en otro segundo libro : LEAN THINKING”, la verdadera biblia del LEAN, de lectura obligada para todos los que quieran iniciar este camino en sus Operaciones Industriales
Womack y Jones , como no podían llamar a este método de mejora ” Sistema de Producción de TOYOTA”, inventaron la palabra LEAN: significa “magro, sin grasas”…..la grasa es el despilfarro por excelencia a eliminar, el stock 

3º. Extensión del LEAN a la fabricación bajo pedido y ciclos largos…..Rendición definitiva de los “resistentes al cambio” 

Los detractores de este sistema siempre argumentaban: eso solo se puede aplicar al automóvil, para ciclos de una pieza por minuto…y, además, esto no es una fábrica de automóviles 
KAWASAKI HEAVY INDUSTRIES hace un acuerdo con TOYOTA para transferencia tecnológica de conocimientos LEAN. Seis especialistas de KAWASAKI reciben entrenamiento  en TOYOTA durante casi un año
KAWASAKI HEAVY INDUSTRIES lo aplica, para la fabricación bajo pedido, en sus fábricas de locomotoras (donde producen el Tren Bala japonés ), piezas de avión, barcos, estructuras gigantes para puentes, maquinaria de obras públicas, etc.
El sistema responde perfectamente a la fabricación bajo pedido y a ciclos largos, del orden de  una pieza al día / a la semana

4º. Evolución del Sistema desde el ámbito de Producción a los Procesos de Gestión de Pedidos y de Industrialización de Nuevos Productos 

TOYOTA ha extendido el LEAN , desde el Proceso de Fabricación, hacia los otros grandes procesos industriales, Gestión de Pedidos e Industrialización de Nuevos Productos
Frase del presidente de TOYOTA :
“Nuestra estrategia es la gestión de procesos robustos
Conseguimos resultados brillantes, con gente normal que maneja procesos robustos
Vemos que nuestros competidores consiguen resultados mediocres, con gente brillante que maneja procesos pobres.”

 4.1 Proceso de Gestión de Pedidos:

En el Proceso de Gestión de Pedidos, TOYOTA ya ha conseguido, técnicamente hablando, lo siguiente  ( en su fábrica matriz de Japón ):
Un viernes llega un Cliente a un concesionario, pide un coche con una serie de opciones y el siguiente viernes lo puede recoger en ese concesionario…. Todo ello sin trucos, ni almacenes ocultos…….no me preguntéis por qué no lo hacen aquí……solo sé que han logrado flexibilizar toda su Cadena de Suministro para que, técnicamente hablando, el plazo de una semana se pueda conseguir ( por supuesto, en este plazo hay que incluir las operaciones logísticas ) 

4.2 Proceso de Industrialización de Nuevos Productos

Basados en el enorme poder que le da la estrategia de gestión y eliminación de despilfarros, hace tiempo el presidente de TOYOTA convocó a sus Departamentos de Marketing, Compras, Calidad e Ingeniería de Diseño y de Fabricación. Les llevó a una sala donde tenía despiezado un Mercedes y les dijo tres frases:
“ Como éste, de mejor calidad, más barato y que consuma menos”
“Les doy un plazo de treinta años” 
“Se llamará LEXUS”
¡! Llevan más de veinte años……!!
TOYOTA ha dado un salto cualitativo en un campo que parecía agotado, el motor, con la creación del Híbrido
Hoy por hoy, TOYOTA necesita dos años para industrializar un nuevo Modelo……la competencia emplea cuatro
Sirva este escrito como mi humilde homenaje a la figura de Ohno, por su visión del nuevo paradigma y su liderazgo decisivo para asegurar el éxito en la implantación   

Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:

Que disfrutéis cada hora del fin de semana
Un cordial saludo
Alvaro Ballesteros


    

domingo, 7 de marzo de 2021

Mensajes amables de fin de semana: los microtúbulos presentes en nuestras neuronas, gracias a sus propiedades cuánticas, nos conectan con el resto del Universo

 Estimad@s Clientes y/o amantes del LEAN:


La hipótesis de la “Reducción Objetiva Orquestada” (“Orch OR”), propuesta por Roger Penrose Y Hameroff, propone que la consciencia depende de procesos cuánticos que se llevan a cabo en los microtúbulos.
Los microtúbulos son minúsculas estructuras tubulares situadas dentro de las neuronas del cerebro.  
Esa actividad cuántica de las neuronas sería capaz de conectarse con otros procesos de autoorganización externos al cerebro. Es decir, que nuestro cerebro podría estar conectado a estructuras externas cercanas a él.
Esa conexión se daría a través de mecanismos bien establecidos por la teoría cuántica como el entrelazamiento cuántico (que vincula a partículas entrelazadas más allá del espacio-tiempo) o el efecto túnel cuántico (que se da cuando una partícula cuántica viola los principios de la mecánica clásica, al atravesar una barrera de potencial imposible de saltar para una partícula clásica).   
Basándose en esta teoría de la “Reducción Objetiva Orquestada”, los científicos Dirk K F Meijer y Hans J.H. Geesink de la Universidad de Groninga, en Holanda, dan un paso más y teorizan que nuestro cerebro, si estas posibilidades cuánticas son ciertas, podría intercambiar información no solo con estructuras externas cercanas a él sino…….. ¡!!con el resto del Universo!!!!.

Según estos científicos holandeses, a dicho nivel, nuestro cerebro estaría conectado con campos cósmicos como el de la gravedad, el de la energía oscura, el de la energía punto cero o el de las energías de los campos magnéticos de la Tierra.



El presente post está estructurado de la forma siguiente:
-Breve descripción de los microtúbulos
-Teoría de la “Reducción Objetiva Orquestada” de Penrose y Hameroff sobre las posibilidades de los microtúbulos para establecer conexiones cuánticas de los procesos cerebrales con otros procesos de auotoorganización fuera del cerebro
-Teoría de Meijer y Geesink sobre el intercambio de información de nuestro cerebro con el resto del Universo, vía campos cósmicos como la gravedad, la energía oscura o el campo magnético terrestre; todo ello se lelvaría a cabo vía entrelazamiento cuántico y efecto túnel
-Termino este post con dos videoclips bastante didácticos sobre qué es el entrelazamiento cuántico y el efecto túnel


1.       Microtúbulos

Los microtúbulos son formaciones cilíndricas, en forma de tubo, huecas, de unos 25 nm  de diámetro, cuya pared está formada por la proteína globular tubulina.
Se pueden encontrar dispersos en el citoplasma o formando parte de los cilios, flagelos y centriolos.





Funciones de los microtúbulos
Los microtúbulos están dispersos por el citoplasma, cumpliendo las siguientes funciones:
  • Intervienen en el movimiento de la célula formado la parte estructural del centrosoma, los cilios y los flagelos.
  • Transporte intracelular de vesículas a través del citoplasma. Los microtúbulos también transportan, asociados a ellos, algunos orgánulos, como las mitocondrias que se desplazan por el citosol.
  • Forman del huso mitótico al comienzo de la cariocinesis y se encarga de controlar el movimiento de los cromosomas. Desaparece al terminar la división celular.
  • Organizan los componentes del citoesqueleto, incluidos microfilamentos y filamentos intermedios.
Colaboran en el mantenimiento de la forma celular.




Figura 9. Los microtúbulos del axón de una célula nerviosa apuntan en la misma dirección, con sus extremos más hacia la terminal del axón, actuando de guía para el transporte direccional de materiales sintetizados en el cuerpo celular y que son necesarios en a terminal del axón. Además de este tráfico al exterior (puntos rojos) existe un tráfico hacia el interior (puntos azules) de materiales capturados por el extremo del axón o producidos por la hidrólisis de proteínas o de otras moléculas que se dirijan al soma celular.

  1. Teoría de la Reducción Objetiva Orquestada: la Consciencia depende de procesos cuánticos orquestados



En los años 90 del siglo XX, dos científicos, Sir Roger Penrose (Profesor Emérito de Matemáticas en la Universidad de Oxford) y Stuart Hameroff‎ (anestesista y profesor de la Universidad de Arizona) hicieron pública una teoría que señalaba que la conciencia se deriva de la actividad de las neuronas del cerebro en la escala más mínima, la escala cuántica o subatómica.

La así llamada hipótesis de Reducción Objetiva Orquestada (“Orch OR”) proponía, más concretamente, que la consciencia depende de procesos cuánticos biológicamente orquestados (es decir, trabajando sincronizadamente) en series de microtúbulos situados dentro de las neuronas del cerebro. Los microtúbulos son componentes principales de toda estructura celular.

También señalaba que dichos procesos cuánticos regulan la membrana y la sináptica neuronales –la actividad normal de las neuronas-; y que la evolución de cada uno de ellos culmina gracias a la llamada “Reducción Objetiva”, un concepto estrechamente vinculado al colapso de la función de onda‎ de la mecánica cuántica. 

Actividad cuántica en microtúbulos demostrada

Desde su publicación, la Orch OR fue muy criticada porque se consideraba que no explica cómo surge la experiencia subjetiva y, por tanto, sustituye un misterio por otro. También porque se piensa que el cerebro es demasiado “caliente, húmedo y ruidoso” como para albergar procesos cuánticos, publica la revista Physorg.

Pero estudios recientes han señalado que los delicados procesos cuánticos sí se dan en la biología, por ejemplo, en sistemas y procesos como la fotosíntesis de los vegetales, la orientación de los pájaros, el olfato o los microtúbulos cerebrales.

Teniendo en consideración estos resultados, recientemente, Penrose y Hameroff han publicado en la revista Physics of Life Reviews una serie de revisiones (ver referencias bibliográficas) sobre su teoría. Sobre todo a partir del descubrimiento de vibraciones cuánticas a temperaturas cálidas en los microtúbulos del interior de las células cerebrales. Una prueba que, según ellos, corrobora su hipótesis.

Este hallazgo fue realizado por un grupo de investigación dirigido por Anirban bandyopadhyay, del Instituto Nacional de Ciencias Materiales del Tsukuba, Japón (aunque actualmente trabaja en el MIT). Bandyopadhyay se ha dedicado intensamente a la investigación de los microtúbulos, reproduciendo en el laboratorio su forma de actuar.

Asimismo, el investigador Roderick G. Eckenhoff‎, de la Universidad de Pennsylvania (EEUU), ha hecho algunos descubrimientos en laboratorio que sugieren que la anestesia, que borra de manera selectiva la conciencia al tiempo que mantiene las actividades cerebrales no-conscientes, actúa a través de los microtúbulos de las neuronas del cerebro.

Penrose y Hameroff sugieren en su revisión que las ondas cerebrales también se derivarían de las vibraciones profundas a nivel de los microtúbulos y que, desde un punto de vista práctico, el tratamiento de las vibraciones de los microtúbulos cerebrales podría mejorar condiciones mentales, neurológicas y cognitivas.

Unión entre cuántica y biología

El estudio a escala subatómica del cerebro que realizan Penrose y Hameroff parece buscar, en última instancia, la respuesta a la siguiente cuestión: ¿Evolucionó la conciencia a partir de procesos complejos entre las neuronas del cerebro –como defienden la mayoría de los científicos- o la conciencia es “previa” a los procesos del cerebro –como señalan las corrientes espirituales-?

Según los científicos, “nuestra teoría se acomoda a ambas perspectivas”, porque sugiere que “la conciencia se deriva de las vibraciones cuánticas de los microtúbulos”, unas vibraciones que “gobiernan la función neuronal y sináptica”, pero también “conectan los procesos cerebrales a procesos de auto-organización a escala fina, a la estructura cuántica ‘proto-consciente’ de la realidad”.

Como ha explicado en Tendencias21 el investigador Manuel Béjar, -especialista en la conexión entre física y conciencia en Roger Penrose (y David Bohm)-, la conciencia, la mente y el psiquismo han sido temas generalmente estudiados por los filósofos de la mente y relegados tácitamente del estudio científico, por su afinidad con lo espiritual.

Pero Penrose ha destinado las últimas décadas al estudio de un modelo físico de la conciencia, sentando las bases de una biofísica cuántica de la mente que unificaría una realidad con tres dimensiones: matemática, física y psíquica.


  1. El cerebro estaría conectado con el cosmos a escala cuántica



Era de esperar que los avances del último siglo en física cuántica y la cosmovisión derivada de ellos llevaran a una variación de la definición de “consciencia” y “mente”.

Quizá algún día estos avances ayuden a responder a la inquietante pregunta sobre cómo de los procesos cerebrales (es decir, físicos) puede emerger la consciencia, que es inmaterial.

La relación entre la actividad neuronal (la de las células del cerebro) y la escala cuántica (la de las partículas que conforman los átomos) ya fue abordada en los años 90 por los investigadores Roger Penrose y Stuart Hameroff con una sorprendente teoría que, hace poco y a raíz de nuevos hallazgos, ha sido revisada.

Se trataba de la hipótesis de la “Reducción Objetiva Orquestada u Orch OR”, que propone que la consciencia se deriva de la actividad de las neuronas a escala cuántica o subatómica, es decir, de procesos cuánticos biológicamente orquestados en los microtúbulos o minúsculas estructuras tubulares situadas dentro de las neuronas del cerebro.

Esa actividad cuántica entrañada a un nivel cerebral profundo, además de gobernar la función neuronal y sináptica, conectaría los procesos cerebrales a procesos de autoorganización presentes fuera del cerebro, en la estructura cuántica de la realidad, afirmaban Hameroff y Penrose. Es decir, que nuestro cerebro podría estar conectado a una estructura externa, que de alguna manera sería ‘protoconsciente’.

El cerebro habla con los campos

Hace unos meses, la revista NeuroQuantology publicaba un artículo sobre la consciencia desde una perpectiva cuántica, que va incluso más allá de la propuesta de Hameroff y Penrose.

Firmado por los científicos Dirk K F Meijer y Hans J.H. Geesink de la Universidad de Groninga, en Holanda, teoriza que nuestro cerebro, además de ser un órgano de procesamiento ligado a nuestro organismo, con el que intercambia información continuamente, está vinculado al resto del universo a nivel cuántico.

Según Meijer y Geesink, a dicho nivel, nuestro cerebro estaría conectado con campos cósmicos como el de la gravedad, el de la energía oscura, el de la energía punto cero o el de las energías de los campos magnéticos de la Tierra.

Esa conexión se daría a través de mecanismos bien establecidos por la teoría cuántica como el entrelazamiento cuántico (que vincula a partículas entrelazadas más allá del espacio-tiempo) o el efecto túnel cuántico (que se da cuando una partícula cuántica viola los principios de la mecánica clásica, al atravesar una barrera de potencial imposible de atravesar para una partícula clásica).

La idea nos recuerda a la propuesta en 2008 por un estudio, en el que se relacionaba la capacidad de orientación de las aves migratorias con una posible “conexión cuántica” de estas con el campo magnético terrestre; aunque en aquel caso el campo magnético no “conectaba” con el cerebro de las aves, sino con los electrones presentes en los iones más inestables de sus retinas.
El idioma es una geometría

Meijer y Geesink proponen que el cerebro podría “comunicarse” con esos tipos diversos de campos gracias a una geometría, la conocida como geometría de toro o toroidal, que básicamente está constituida por espirales circunscritas en una esfera (se puede entender imaginando una rosquilla).

Al parecer, el toroide es la forma que tienen los átomos, los fotones y toda unidad mínima constitutiva de la realidad. Pero no solo: Según los investigadores holandeses, nuestro  cerebro se organizaría también siguiendo esta estructura (aquí hemos hablado antes de las geometrías que forma el cerebro en su actividad).

Esa coincidencia geométrica es la que permitiría al cerebro acoplarse a los campos que nos rodean, para recibir de ellos información continuamente en forma de ondas. Gracias a esto, en nuestra mente se actualizaría, de manera continua, un espacio de memoria global simétrica al tiempo.

Además,  el acoplamiento y ajuste continuos del cerebro a los campos externos, afirman Meijer y Geesink, permitirían guiar la estructura cortical del cerebro hacia una mayor coordinación de la reflexión y de la acción, así como hacia una sincronía en red, que es la necesaria en los estados de consciencia.

La mente como campo

Pero los investigadores holandeses van más allá de todo esto en sus postulados. También señalan que la consciencia no es exclusiva del cerebro, sino que surgiría en todo el universo a escala invariante, de nuevo a través del acoplamiento anidado toroidal de varias energías de campos.

Quizá esto pudiera relacionarse con el concepto de “protoconsciencia” de Hameroff y Penrose del que hemos hablado antes; e incluso con la idea de la matriz de información universal del paradigma holográfico propuesto por el físico David Bohm en el siglo XX.

Meijer y Geesink llegan a describir la mente como un campo situado alrededor del cerebro (lo llaman campo estructurado holográfico), que recogería información externa al cerebro y la comunicaría a este órgano, a gran velocidad (no en vano hablamos de procesos cuánticos). Los investigadores aventuran que este hecho podría explicar la rapidez con la que el cerebro registra y procesa información del entorno, a nivel consciente e inconsciente.  

Ese campo estructurado holográfico estaría, según ellos, en la cuarta dimensión o espacio-tiempo, aunque tenga efectos en nuestro cerebro tridimensional e incluso en la manera en que percibimos el mundo en tres dimensiones.

Curiosamente, una idea “parecida” proponía hace unos años el antropólogo Roger Bartran, en su obra Antropología del cerebro: la conciencia y los sistemas simbólicos, aunque en aquel caso la parte de consciencia humana “fuera del cerebro” se ubicaba en los sistemas culturales, con los que algunas regiones cerebrales están estrechamente ligadas.

Implicaciones

Para los científicos holandeses, su hipótesis tiene profundas implicaciones filosóficas: Sugiere que existe una “profunda  conexión de la humanidad con el cosmos” que nos obliga a tener “una gran responsabilidad sobre el futuro de nuestro planeta”, escriben en su artículo.

Asimismo, su teoría podría conllevar un atisbo de respuesta para la pregunta con la que iniciamos este artículo: ¿Cómo los procesos cerebrales (es decir, físicos) dan lugar a la consciencia, que es inmaterial?

Quizá sea que existe un campo mental situado en la cuarta dimensión, allí conectado a otros campos externos mientras, al mismo tiempo, forma parte física de nuestro cerebro. Pero habrá que esperar a que ese campo mental sea una certeza para poder lanzar conclusiones definitivas.

Consciousness in the universe: A review of the ‘Orch OR’ theory


  1. Entrelazamiento cuántico:


                                        https://www.youtube.com/watch?v=7KKYcbwJjeQ


  1. Efecto túnel cuántico:


                                          https://www.youtube.com/watch?v=Px0LHe1074c




                                           https://www.youtube.com/watch?v=mfYhtt2nzPk


Como siempre, he incluido estas reflexiones en mi blog “Historias del LEAN”:


Que disfrutéis cada hora del fin de semana

Un cordial saludo
Alvaro Ballesteros