Estimad@s amantes del LEAN:
Cuando alababan a Einstein por sus descubrimientos, él respondió, parafraseando a Newton: fueron posibles porque caminé a hombros de gigantes
Se refería a Newton, Galileo, Kepler, Faraday, Ampere, Maxwell,etc.
Se refería a Newton, Galileo, Kepler, Faraday, Ampere, Maxwell,etc.
Este post está concebido para que, cuando cojamos un móvil de 2020, seamos conscientes de que lo que podemos hacer con él, por el precio que hemos pagado, ...!!y lo que pesa!!!, solo ha sido posible gracias al ingenio e inspiración de personas que proporcionaron ideas y descubrimientos clave para hacerlo posible
Seguro que no están tod@s, pero ahí van 30 hitos que considero claves:
1º El telégrafo y el código Morse
2º El teléfono y Alexander Bell
3º Las ondas electromagnéticas y Maxwell
4º Hertz produce ondas electromagnéticas en el laboratorio
5º La telegrafía sin hilos y Marconi
6º El triodo, La Foret y la radio
7º A la miniaturización por el Transistor, Shockley, Brattain y Bardeen
8º La Teoría de la Información y el Teorema de Shannon
9º El Teorema de Nyquist y la frecuencia de muestreo
10º La compresión de datos MP3, JPEG, GIF y MPEG 3
11º El sistema de geolocalización GPS
12º Los primeros teléfonos móviles, montados sobre coches, en 1923, por la policía de Victoria (Australia)
13º El sistema de celdas
14º Los multiplexores TDMA y CDMA
15º Hedy Lamarr, la estrella de Hollywood que inventó la tecnología precursora del WIFI
16º El primer circuito integrado de la historia y Jack Kilby
17º La primera llamada y Martin Cooper
18º La primera Operadora de móviles, la japonesa NTT
19º El GSM, primer estándar compartido entre Operadoras
20º El primer móvil capaz de mandar SMS´s, un NOKIA
21º La primera Operadora capaz de conectar un móvil a Internet, la japonesa DoCoMo
22º El primer móvil capaz de soportar el correo PUSH, la BlackBerry 957
23º El primer móvil con cámara, el japonés SHARP J-SH04
24º El primer móvil con pantalla táctil, el APPLE NEWTON
25º La primera tienda de aplicaciones para móviles, APPLE
26º La primera red social, FACEBOOK
27º-30º Desde 1G hasta 4G, las cuatro generaciones de la telefonía móvil
Seguro que no están tod@s, pero ahí van 30 hitos que considero claves:
1º El telégrafo y el código Morse
2º El teléfono y Alexander Bell
3º Las ondas electromagnéticas y Maxwell
4º Hertz produce ondas electromagnéticas en el laboratorio
5º La telegrafía sin hilos y Marconi
6º El triodo, La Foret y la radio
7º A la miniaturización por el Transistor, Shockley, Brattain y Bardeen
8º La Teoría de la Información y el Teorema de Shannon
9º El Teorema de Nyquist y la frecuencia de muestreo
10º La compresión de datos MP3, JPEG, GIF y MPEG 3
11º El sistema de geolocalización GPS
12º Los primeros teléfonos móviles, montados sobre coches, en 1923, por la policía de Victoria (Australia)
13º El sistema de celdas
14º Los multiplexores TDMA y CDMA
15º Hedy Lamarr, la estrella de Hollywood que inventó la tecnología precursora del WIFI
16º El primer circuito integrado de la historia y Jack Kilby
17º La primera llamada y Martin Cooper
18º La primera Operadora de móviles, la japonesa NTT
19º El GSM, primer estándar compartido entre Operadoras
20º El primer móvil capaz de mandar SMS´s, un NOKIA
21º La primera Operadora capaz de conectar un móvil a Internet, la japonesa DoCoMo
22º El primer móvil capaz de soportar el correo PUSH, la BlackBerry 957
23º El primer móvil con cámara, el japonés SHARP J-SH04
24º El primer móvil con pantalla táctil, el APPLE NEWTON
25º La primera tienda de aplicaciones para móviles, APPLE
26º La primera red social, FACEBOOK
27º-30º Desde 1G hasta 4G, las cuatro generaciones de la telefonía móvil
Como Ingeniero de Telecomunicación, siempre había deseado hacer un escrito como éste
Lo iré completando en sucesivas versiones, con ánimo de irle dando mayores dosis de pedagogía con lo mejor que vaya encontrando en Internet
Feliz lectura
Lo iré completando en sucesivas versiones, con ánimo de irle dando mayores dosis de pedagogía con lo mejor que vaya encontrando en Internet
Feliz lectura
1º Hito Clave: El telégrafo y el código Morse
El Primer Telégrafo y Samuel Morse
El problema
El problema con el telégrafo eléctrico era que una corriente eléctrica podía arreglarse de sólo dos maneras. La corriente eléctrica está fluyendo y está “Encendida”, o la corriente no está fluyendo y está “Apagada”. Samuel Morse encontró una forma de usar el flujo de corriente eléctrica para crear un código que podría enviarse a lo largo de los cables.
Samuel Morse y su asistente, Alfred Vail, se dieron cuenta de que si el hombre en un extremo de la línea mantenía presionada la tecla por solo un instante, esta impresión se vería como un punto. Si el hombre lo sostenía por más tiempo, parecería un trazo corto o raya. Samuel Morse combinó estos puntos y rayas en un alfabeto: este es el código Morse.
Al combinar puntos y guiones para representar letras en el alfabeto, se hizo posible enviar mensajes de un remitente a un receptor utilizando el Código Morse. La siguiente etapa fue simplemente agregar más códigos usando puntos y guiones para representar números. El código Morse fue completado. Samuel Morse usó un electroimán para mover un lápiz y marcar una tira de papel en movimiento con marcas cortas y largas, dependiendo de si la llave se mantuvo cerrada por un tiempo corto (puntos) o durante un tiempo prolongado (guiones).
Mensajes en minutos
Antes del telégrafo, la única forma en que las personas podían comunicarse con otras personas en lugares distantes era enviarles cartas o viajar para reunirse con ellas. El telégrafo le permitió a una persona transmitir un mensaje a través de cientos y, finalmente, miles de millas en el espacio de quizás una hora. En la década de 1850 había estaciones de telégrafo en las principales ciudades del este y medio oeste. Los operadores enviaban y recibian mensajes, los decodificaban y los pasaban a los corredores que entregaban personalmente los telegramas. El coste variaba según la ubicación de la estación, pero normalmente se calculaba a veinticinco centavos por cada cien millas por diez palabras o menos a principios de la década de 1850.
Conexión por cable
El problema con el telégrafo era que la comunicación se limitaba a las estaciones conectadas por un cable. El coste de la inversión fue enorme, y el tendido del cable tomó tiempo. Costaba entre $ 100 y $ 200 por milla construir las líneas, y los trabajadores tuvieron que superar las dificultades planteadas por el terreno accidentado. Sin embargo, en octubre de 1861 se completó el primer telégrafo de cable transcontinental.
El primer mensaje se envía en 1838
El primer telegrama en los Estados Unidos fue enviado por Samuel Morse el 11 de enero de 1838, a través de dos millas (3 km) de cable en Speedwell Ironworks, cerca de Morristown, Nueva Jersey. El mensaje decía “Un camarero paciente no es un perdedor”. El Speedwell Iron Works era propiedad del padre de Alfred Vail, que había dado respaldo financiero a los inventores.
El código Morse del ferrocarril y los postes del telégrafo
El código Morse también se conoce como el ferrocarril Morse. Su sistema de comunicación telegráfica ‘línea-tierra’ transportaba señales a través de la tierra por cables soportados por postes de telégrafo. El sistema de telégrafo terrestre usó “sirenas” para permitir que el operador receptor “escuchase” los sonidos de clic del código Morse y los tradujera en letras. Los postes del telégrafo se erigieron junto al ferrocarril de Washington a Baltimore. Esto tenía perfecto sentido ya que la ruta ya se había despejado debido a la construcción del ferrocarril y era fácil instalar postes para transportar los cables del telégrafo. Es una suerte que el desarrollo del telégrafo coincidió con el establecimiento de los ferrocarriles estadounidenses: ver Ferrocarriles en el siglo XIX para obtener datos e información. Las provisiones en las Actas del Ferrocarril del Pacífico se hicieron para las compañías de telégrafos, que acababan de completar el Primer Telégrafo Transcontinental en 1861, para combinar sus líneas con las líneas de telégrafo del Ferrocarril Transcontinental cuando se construyeron.
“Lo que Dios hizo”
Luego de la construcción de la primera línea telegráfica de larga distancia, Samuel Morse instaló una clave de telégrafo en la cámara de la Corte Suprema e invitó a los miembros del Congreso a presenciar el evento. Una joven mujer llamada Annie Ellsworth proporcionó el primer mensaje para ser enviado. El famoso mensaje fue “Lo que Dios hizo” y fue tomado de la Biblia (Números 23:23). El padre de Annie Ellsworth era Henry Leavitt Ellsworth, el comisionado de patentes de los EEUU, que había defendido el invento de Samuel Morse y ayudado a conseguir fondos para ello. El primer mensaje fue enviado por Samuel Morse en Washington el 24 de mayo de 1844 a Alfred Vail en el la estación de Ferrocarril de Baltimore y Ohio en Baltimore, Maryland. Alfred Vail en Baltimore luego preguntó: “¿Cuáles son las noticias en Washington?” Samuel Morse luego telegrafió noticias políticas de la capital que se publicaron como mensajes telegráficos en periódicos de Baltimore.
Importancia del Telégrafo
La invención del telégrafo fue uno de los eventos más significativos en la historia de los Estados Unidos y revolucionó la comunicación en todo el mundo. El Código Morse permitió que los mensajes se comunicaran a razón de diez palabras por minuto.
- El Pony Express se extinguió con la finalización del telégrafo transcontinental en 1861
- Los cables del telégrafo recorrieron la mayoría de las áreas colonizadas de los Estados Unidos en 1850.
- Permitió a las personas comunicarse al instante a distancias que alguna vez requirieron días o semanas de viaje
- El telégrafo llevaba mensajes de noticias y transacciones comerciales
- El primer cable de telégrafo transatlántico fue instalado en 1866
- El telégrafo fue el precursor de los complejos sistemas de comunicaciones inalámbricas actuales, incluidos el teléfono, la radio, la televisión, el FAX e Internet.
- La Guerra Civil anunció el uso de unidades de telégrafos portátiles. – ver a las invenciones y la tecnología de la Guerra Civil
2º Hito Clave: el teléfono y Alexander Bell
Funcionamiento del teléfono de Bell
http://nataliromero.blogspot.com/2008/05/funcionamiento-del-telfono-de-bell.html
La idea de Bell fue inventar un dispositivo que transformara las ondas de sonido que se emiten cuando uno habla en variaciones de una corriente eléctrica, y que la corriente así generada siguiese fielmente las variaciones producidas por el sonido. Una vez lograda, esta corriente podía llegar al lugar receptor a través de un cable conductor.
El receptor tendría un aparato que invirtiera el proceso: transformar las variaciones de una corriente eléctrica en sonido.
Bell concibió su transmisor de la siguiente forma. Pensemos en una porción de un circuito eléctrico en que una batería está conectada a una resistencia. El valor de la corriente eléctrica que circulará por el circuito dependerá del valor de la resistencia: si ésta aumenta, entonces la corriente disminuye y viceversa. Si de alguna manera se conecta una resistencia cuyo valor varíe, entonces el valor de la corriente por el circuito también variará en la misma forma que el valor de la resistencia. Por lo tanto, el problema de Bell se redujo a diseñar un dispositivo que desempeñara el papel de resistencia variable.
Bell concibió su transmisor de la siguiente forma. Pensemos en una porción de un circuito eléctrico en que una batería está conectada a una resistencia. El valor de la corriente eléctrica que circulará por el circuito dependerá del valor de la resistencia: si ésta aumenta, entonces la corriente disminuye y viceversa. Si de alguna manera se conecta una resistencia cuyo valor varíe, entonces el valor de la corriente por el circuito también variará en la misma forma que el valor de la resistencia. Por lo tanto, el problema de Bell se redujo a diseñar un dispositivo que desempeñara el papel de resistencia variable.
Figura 14. Esquema del micrófono inventado por Bell
Después de varios intentos con diferentes tipos de sistemas finalmente utilizó lo que es la base de los micrófonos actuales. Se trata de una membrana conectada a un diafragma (Figura 14) que se puede mover horizontalmente. En el extremo derecho del diafragma se encuentra un recipiente con granos de carbón que ofrecen una resistencia al paso de la corriente eléctrica. El valor de la resistencia depende de qué tan comprimidos estén los granos. Si el diafragma se mueve a la derecha, por ejemplo, entonces comprime los granos, y al variar la densidad de los granos varía su resistencia. Si ahora se conecta el recipiente con los granos al circuito eléctrico mencionado al inicio del párrafo, en el lugar de la resistencia, se logra el dispositivo que buscaba Bell.
Figura 15. Sistema telefónico de Bell
Para el receptor, Bell inventó lo siguiente: el cable por el que se transmite la corriente eléctrica variable que envía el emisor se conecta a un electroimán. El extremo de este electroimán (Figura 15) está unido por medio de una lengüeta metálica a un diafragma. La corriente variable imanta el electroimán en forma variable y éste a su vez atrae la lengüeta en forma también variable, siempre siguiendo las variaciones del sonido original. El diafragma se mueve y va moviendo el aire circundante creando así un sonido. Este receptor es el auricular del teléfono.
3º Hito Clave: las ondas electromagnéticas y Maxwell
El 1 de Noviembre de 2015, escribí un post dedicado a los 150 años que, por aquel entonces, se cumplían de la creación de las ecuaciones que inmortalizaron al genio escocés
http://historiasdellean.blogspot.com.es/2015/11/mensajes-amables-de-fin-de-semana-150.htmlAhí va su contenido:
Este año 2015 se celebra el 150 aniversario de las ecuaciones de Maxwell y de la teoría electromagnética de la luz, acontecimientos que se conmemoran en el «Año internacional de la luz y de las tecnologías basadas en la luz», declarado como tal por la ONU.
El propio Einstein reconoció que su teoría especial de la relatividad debía sus orígenes a las ecuaciones de Maxwell. En un artículo publicado en 1931, con ocasión del centenario del nacimiento de Maxwell, afirmó que «una época científica acabó y otra empezó con Maxwell» y que «el trabajo de James Clerk Maxwell cambió el mundo para siempre» (Einstein, 1931).
Richard Feynman, premio Nobel de Física en 1965, señaló: «con una perspectiva muy amplia de la historia de la humanidad contemplada, pongamos por caso dentro de diez mil años, no cabe la menor duda de que se considerará que el hecho más significativo del siglo xix es el descubrimiento realizado por Maxwell de las leyes del electromagnetismo» (Feynman et al., 1987).
ORÍGENES DEL ELECTROMAGNETISMO MODERNO
A comienzos del siglo xix, electricidad, magnetismo y óptica eran tres disciplinas independientes. Sin embargo, la situación cambió gracias a una invención y a dos descubrimientos. La invención fue la pila eléctrica, una fuente de corriente eléctrica continua, fabricada por Alessandro Volta hacia 1800.
Los dos descubrimientos fueron, por una parte, la demostración de los efectos magnéticos producidos por corrientes eléctricas realizada por Hans Christian Oersted y André-Marie Ampére en 1820; y por otra, el descubrimiento de Michael Faraday en 1831 de la generación de corriente eléctrica a partir de campos magnéticos: la inducción electromagnética. Estas contribuciones pusieron los pilares del electromagnetismo moderno, que culminó en el último tercio del siglo xix con la síntesis de Maxwell de la electricidad, el magnetismo y la óptica. Dicha síntesis representa probablemente la más profunda transformación de los fundamentos de la física desde los tiempos de Newton y es uno de los mayores logros de la ciencia, al unificar los fenómenos eléctricos y magnéticos y al permitir también desarrollar la teoría de las ondas electromagnéticas, incluyendo la luz (Udías, 2004).
LAS ECUACIONES DE MAXWELL
En la sexta parte de su artículo de 1865, titulada «Teoría electromagnética de la luz», Maxwell concluye: «difícilmente podemos evitar la inferencia de que la luz no es otra cosa que ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos». Maxwell demostró que las ecuaciones del campo electromagnético podían combinarse para dar lugar a una ecuación de onda y propuso la existencia de las ondas electromagnéticas. Al calcular la velocidad de propagación de estas ondas obtuvo el valor de la velocidad de la luz, y concluyó que la luz era una onda electromagnética.
Einstein se refirió a ese momento crucial de Maxwell señalando: «¡Los sentimientos que debió experimentar al comprobar que las ecuaciones diferenciales que él había formulado indicaban que los campos electromagnéticos se expandían en forma de ondas a la velocidad de la luz! A muy pocos hombres en el mundo les ha sido concedida una experiencia de esa índole» (Einstein, 1940). Antes de Maxwell, la velocidad de la luz era sólo una velocidad entre muchas. Después de él, la velocidad de la luz se convirtió en una privilegiada, señalando el camino a Einstein y la relatividad.
¿POR QUÉ DEBERÍAS CONOCER A JAMES C. MAXWELL Y SUS ECUACIONES?
¿Sabes lo que sale y entra por la antena de tu móvil? ¿Hay mucha diferencia con la luz que entra por tus ojos? ¿Sabes quienes dieron los primeros pasos hacia la comprensión de los aparatos electrónicos que usamos a diario? Este este señor fue el que descubrió uno de los elementos claves del conocimiento de la humanidad.
Si eres una persona que presumes de tener cierta cultura además de saber quien escribió El Quijote deberías conocer también a este científico. El objetivo de este artículo es presentar las "famosas" ecuaciones de Maxwell explicadas con algo de humor y sin recurrir a las matemáticas, lo cual no deja de ser paradójico e incompleto pues su esencia está ligada al cálculo diferencial.
Si eres una persona que presumes de tener cierta cultura además de saber quien escribió El Quijote deberías conocer también a este científico. El objetivo de este artículo es presentar las "famosas" ecuaciones de Maxwell explicadas con algo de humor y sin recurrir a las matemáticas, lo cual no deja de ser paradójico e incompleto pues su esencia está ligada al cálculo diferencial.
Bien, James Clerk Maxwell fue un escocés nacido en Edimburgo en 1831 a quien le gustaba el noble oficio de recortarse la barba. Era un hombre cultivado, escribía sus propios poemas y los cantaba acompañado de su guitarra. Todo lo compartía con su mujer con quien vivía tranquila y pacíficamente. !Todo un gentleman británico!
Pero aparte eso también fue un excelente físico y matemático, posiblemente el más importante del siglo XIX. ¡Vale! Si, todo muy bonito, pero... ¿Qué descubrió exactamente? Para responder a esto primero tenemos que hacer una pequeña introducción a cuatro leyes de la física que ya existían antes que él publicara su propio trabajo. ¡Cuidado que ahora vamos con cosa muy seria!.
Desde la antigüedad ya en épocas muy lejanas se conocía la electricidad y ciertos fenómenos como los chispazos que se producen cuando te peinas o tocas a otras personas, especialmente los de electricidad estática. Hoy describimos la electricidad como una propiedad de la materia, es decir: algo que existe. Las cosas son así y punto, hay que aceptarlas.
Llegados a este nivel da igual que seas el hombre más listo del mundo o que estés aprendiendo desde cero, la carga eléctrica es como quiera ser. Pero si sabemos que las hay de dos tipos. Las hemos clasificado como positivas y negativas. Se atraen o se repelen según sean distintas o iguales respectivamente, pero no se sabe mucho más acerca de ellas mientras se estén quietecitas. La carga además de existir tiene una influencia alrededor suya que es la propiedad que causa esas fuerzas de atracción o repulsión y la podemos medir. Los físicos la llaman campo eléctrico (E).
Volviendo a tiempos antiguos de nuevo también se conocía el magnetismo. Esto es más fácil, todos hemos experimentado con imanes, y estamos familiarizados con sus fuerzas. La influencia de un imán alrededor suya la experimentamos intuitivamente mucho mejor si le acercamos un objeto de hierro y obviamente también es una propiedad que se puede medir y los físicos la llaman campo magnético (B). Dicho esto sigamos con las leyes.
Carl Friedrich Gauss fue uno de los grandes jefazos de la historia de las matemáticas, más o menos de la misma época de Maxwell y formuló una ley que por sí misma puede explicar cómo es el campo eléctrico alrededor de cualquier forma de cargas que se te pueda ocurrir. Simplemente la encierras en una superficie, piensa una pompa de jabón o un globo imaginario, cuentas las cargas que hay dentro y haces los cálculos como el Sr. Gauss te dice que los tienes que hacer y ya sabrás cual será el campo eléctrico en cualquier sitio de fuera.
Esta ley es totalmente equivalente a la más conocida Ley de Coulomb que enseñan en educación secundaria, de hecho se puede decir que ambas son la misma cosa pero presentadas con distinta ropa.
Ahora nos vamos a los imanes. Esta ley viene a contarnos que no existen imanes sin los dos polos, es decir, que el campo magnético siempre hace trayectorias cerradas, todo lo que sale del polo Norte entra por el Sur. Da igual el empeño que pongas en intentar separarlos, si rompes un imán, tendrás dos más pequeños. Si vas a lo más chico que se te ocurra, también tendrás presentes a los dos polos.
Como dijimos un imán crea un campo magnético y si te pones a hacer pompas de jabón imaginarias a su alrededor de cualquier forma que se te ocurra el campo magnético que "entra" en la pompa es el mismo que el que "sale". Los físicos llaman a esto ausencia de monopolos magnéticos y los cálculos matemáticos con superficies ficticias son la forma que tienen de explicarlo.
Las líneas magnéticas salen del polo Norte de un imán y entran por el Sur. Cualquier superficie cerrada tendrá el mismo número de líneas que entran y que salen. En la ilustración se ha ejemplificado en dos dimensiones.
Michael Faraday fue otro genio, una auténtica rata de laboratorio que pasaba horas experimentando y descubriendo fenómenos físicos. Entre ellos que los imanes pueden generar corrientes (movimientos de cargas eléctricas) Con su astucia llego a la conclusión de que cuando cambias las condiciones magnéticas creas una corriente en cualquier conductor que se encuentre cerca, es decir, el campo eléctrico se puede modificar con movimientos de campos magnéticos.
En este caso las cuentas matemáticas cambian un poco, ahora no hablamos de pompas imaginarias sino de láminas de jabón imaginarias. Faraday vino a decirnos, más o menos, que si tienes un alambre cerrado de cualquier forma y te imaginas una lámina de jabón igualmente de cualquier forma pero que sus bordes estén en el hilo de metal. Moviendo un imán alrededor de este alambre se genera una corriente eléctrica proporcionalmente al movimiento. Esta propiedad es la que permite generar la corriente que llega hasta nuestras casas desde las centrales eléctricas. La ley también hace referencia a Heinrich Lenz, pues fue él quien también descubrió que la tendencia de esta corriente es oponerse el movimiento del imán. De ahí sale el signo negativo de la ecuación.
Te acuerdas que decíamos que poco más se sabe de las cargas mientras están quietecitas. André-Marie Ampère fue otro físico que en el mismo año que nació Maxwell descubrió como una corriente de cargas eléctricas puede crear un campo magnético. Y eso es así, de hecho, los imanes se producen por que en su interior hay muchas cargas eléctricas que se mueven siguiendo una misma orientación y eso produce su efecto magnético a gran escala.
Puedes hacer el experimento con un imán que no te importe romper: Coge un mechero, calienta el imán, deja que se enfríe y verás como ya solo es un pedrusco sin magnetismo. Eso se produce porque el calor hace que las cargas eléctricas de su interior pierdan la orientación que compartían y el efecto ya no se suma, sino que se anula.
Bien, con las dos últimas te habrás dado cuenta de que hay cierta relación: por un lado una carga eléctrica que se mueve crea campo magnético y por el otro una variación de campo magnético crea una corriente eléctrica. Maxwell también se dio cuenta de esto, pero como era un genio le chocaba con ciertas propiedades que previamente conocía acerca de los condensadores eléctricos. Como era un tipo listo se inventó casi por la cara un término para corregir estas diferencias, y posteriormente lo incluyó dentro de la ley de Ampere. Pero es que resulta que ese término existe de verdad. Así que juntó las cuatro leyes anteriores, después añadió el término surgido de su descomunal inteligencia y creo sus famosas ecuaciones, ¡ y ahí ya se montó el pollo!
En un perfecto y refinado ingles colonial Maxwell con sus cuatro leyes vino a decirnos: "a mi me dejáis de tonterías de electricidad y de magnetismo por separado, que aquí solo hay una cosa, el electromagnetismo, así to rejuntao". La segunda gran unificación de la física fue hecha. Todo un hito en la historia de la humanidad. Nuestro protagonista había plantado la semilla para la nueva era de las tecnologías. La radio, los circuitos, el Internet, el wifi, 3g, la fotografía...¡¡¡Hurra por Mawxell!!!.
¿Te pica la curiosidad? La primera gran unificación fue la que hizo Sir Isaac Newton afirmando que el hecho de que se te caiga el iPhone al suelo está causado por la misma fuerza que mantiene en órbita a la Luna o a los planetas alrededor del Sol.
Volviendo al escocés podemos intuir que no se contentó solo con sus preciadas ecuaciones. Igual que un niño que descubre una nueva tienda de caramelos se puso a hacer cálculos con ellas y se percató de que escondían la propagación de unas ondas que implicaban por igual al campo eléctrico y al magnético. ¡Casi nada!. El germen de la radio y las telecomunicaciones había sido descubierto. Pero espera que no acaba aquí la cosa. Haciendo más cálculos volvió a llegar a otra conclusión: estas ondas se propagan a una velocidad sorprendentemente similar a la de la luz.
Bien, vamos rápido, a estas alturas de la historia no nos vamos a asombrar de que el individuo le daba bastante bien al coco, y siguió pensando: "pues si con esto que he calculado llego a que la velocidad es la misma que la de la luz, entonces la luz debe ser también una onda electro-magnética!", y voila, ¡Hágase la luz !. Y el conocimiento de la naturaleza de la luz y de su propagación se hizo accesible para el resto de los mortales!!!. Oh J.C! Oh J.C Superstar!.
Esas ondas son lo que salen y entran en las antenas de nuestro teléfono, wifi o de los mandos a distancia y también son exactamente lo mismo que la luz que nuestros ojos ven, solo que las retinas no están adaptadas para todos los tipos de ondas electromagnéticas. ¿No te lo crees? Coge tu móvil y ponlo en modo cámara como si fueras a echar una foto, luego apunta hacia su lente con el mando a distancia de la televisión y pulsa los botones, así "veras" lo que pasa.
Los años han pasado, y muchos científicos han ido descubriendo muchísimas más cosas como la física cuántica o de partículas, donde las leyes si cambian un poquito, pero lo increíble es que ningún físico ha osado a modificar una sola coma de las Ecuaciones de Maxwell después de tantos años (más de siglo y medio).
Albert Einstein, que tampoco era manco, y con toda la relatividad a sus espaldas no tuvo los suficientes "motivos" para tener que cambiarlas en el más mínimo detalle, es más, todo se construyó para no tener que modificarlas. ¡Toma esa Einstein!. Lo que Maxwell descubrió se adelantó en parte unos 50 años a la teoría del físico alemán cuyas melenas blancas posiblemente harían sulfurar el buen gusto del barbero de nuestro refinado escocés.
“La teoría de la relatividad se debe en sus orígenes a las ecuaciones de Maxwell del campo electromagnético”
Albert Einstein.
“El trabajo de James Clerk Maxwell cambió el mundo para siempre”
Albert Einstein.
Pero espera, no solo trabajó en el ámbito del electromagnetismo, también consiguió logros en ramas como la termodinámica y física estadística y otras tantas disciplinas, pero eso da para otros artículos, pero espera de nuevo ¿Sabes quien creó los fundamentos de la fotografía a color? ¿Sabes quién consiguió hacer la primera fotografía a color? ¿Te lo imaginas?. Pues si, estas en lo cierto. En una ocasión maxwell dijo:
“ El color que percibimos es una función de tres variables independientes, por lo menos son tres las que yo creo suficientes, pero el tiempo dirá si prosperan ”
James Clerk Maxwell
Y estaba en lo cierto, nuestras impresoras funcionan con tres colores, amarillo, cián y magenta. Y nuestros dispositivos de pantalla con rojo, verde y azul.
Así que mira su foto, y cuando salgas de fiesta y tu también te hagas la tuya con tu copa de Gin Tonic. ¡Sonríe a la salud de Maxwell! O si eres quien la recibe mediante ondas electromagnéticas en tu Whastsapp con tu 3g, ¡comparte tu conocimiento la salud de Maxwell también!
Por último, un videoclip que explica de forma de forma muy pedagógica lo que es una onda:
|
Dicho todo lo anterior, podemos decir que un resumen de este momento trascendente de la ciencia sería como sigue:
- Maxwell recopila cuatro leyes y añade un término.
- Descubre que esconden la propagación de una onda.
- Calcula su velocidad y es la de la luz.
- Supone que la luz es una onda electromagnética.
- Posteriormente Heinrich R. Hertz, otro inteligente físico tipo rata de laboratorio, produce y detecta las ondas predichas por Maxwell. Y este paso es también fundamental. Tan importante es llegar a las hipótesis como comprobar que se cumplen. ¡¡Las ondas realmente existen!!
4º Hito Clave: Hertz produce ondas electromagnéticas en el laboratorio
Después de mucho trabajo y de experiencias sin éxito, en 1887 construyó un dispositivo con el que logró su fin. El experimento que realizó fue a la vez genial y sencillo.
Recomiendo de manera vehemente que disfrutéis de la pedagogía del siguiente videoclip a la hora de entender las bases de este experimento
5º Hito Clave: la telegrafía sin hilos y Marconi
.
Realizó su primera educación de una manera privada y estudió física con conocidos profesores italianos, como Vicenzo Rosa.
Desde joven Marconi se sintió atraído por los temas relacionados con la electricidad y en 1894, estando de vacaciones en los Alpes, leyó un obituario de Heinrich Hertz en el que se describían sus experimentos con las ondas electromagnéticas.
A raíz de esta lectura le surgió la idea de la telegrafía sin hilos, idea que se convertiría en su obsesión durante años.
De vuelta en casa, se la comentó a Augusto Righi, profesor de la universidad de Bolonia y amigo de la familia. Este había llevado a cabo sus propios experimentos con las ondas hertzianas y de hecho era el autor del obituario que había inspirado a Marconi, pero Righi no fue muy optimista respecto a las ideas de Marconi, no creía que pudiese lograr grandes avances en este campo.
Marconi comenzó sus experimentos en la buhardilla de su vivienda familiar de Villa Grifone. En un principio se dedicó a repetir los de Hertz y posteriormente realizó diversas mejoras.
En 1895 construyó un transmisor que estaba compuesto por una bobina de Ruhmkorff como generador de las oscilaciones, una batería que alimentaba esta, las dos esferas clásicas de los aparatos de Hertz y una plancha de metal que actuaba como antena, además el circuito iba puesto a tierra.
El receptor lo componían una plancha metálica similar a la del transmisor, una batería de alimentación, un cohesor del tipo inventado por Édouard Branly y un timbre. Cuando el cohesor recibía las ondas electromagnéticas bajaba su resistencia y dejaba pasar la tensión de la batería, que llegaba al timbre haciéndolo sonar.
La distancia a la que podía detectar las ondas electromagnéticas iba en aumento, y llegó el momento de patentar sus aparatos y por otro lado conseguir el interés de alguna institución pública para que le prestase ayuda financiera y poder así llevar sus inventos a la práctica.
Marconi intentó convencer al gobierno italiano para que le prestase el apoyo necesario, pero la respuesta fue negativa, así que pensó en conseguir este apoyo en Inglaterra.
La madre de Marconi, Annie Jameson, había nacido en Irlanda y tenía parientes en Londres así que les escribió dándoles cuenta de la situación en que se encontraba su hijo.
En febrero de 1896 Marconi y su madre llegaron a Londres, en donde les esperaba un sobrino de esta, Henry Jameson-Davis.
El primer paso de Davis fue el poner a su primo en contacto con un agente de patentes. En junio Marconi solicitó su primera patente.
El paso siguiente fue el de presentar a su primo a A. A. Campbell Swinton, conocido ingeniero eléctrico. A Swinton le parecieron de gran interés los experimentos de Marconi y le escribió una carta de recomendación para William H. Preece, ingeniero jefe del Post Office, que estaba muy interesado en la telegrafía sin hilos.
Preece le recibió con entusiasmo y en seguida acordaron llevar a cabo una demostración ante directivos e ingenieros del Post Office, cosa que ocurrió, con notable éxito, a finales de julio de 1896. Después de esta demostración Preece designó a George S. Kemp como ayudante de Marconi. Kemp permanecería al lado del inventor durante más de treinta años.
Con el apoyo del Post Office y del War Office, emprendió una serie de demostraciones públicas de su invento, primero en septiembre en Salisbury Plain consiguió una comunicación a 3 km y en marzo de 1897, en el mismo escenario, la logró a 7 km.
En uno de estos experimentos el transmisor era del tipo convencional con su manipulador Morse y la antena iba colgada de una cometa.
El receptor estaba compuesto del clásico cohesor e incorporaba un impresor Morse, la antena iba también colgada de una cometa.
En mayo de ese mismo año estableció una comunicación con la isla de Flat Holm en el canal de Bristol, llegando a los 14 km. de distancia.
Los progresos de Marconi fueron noticia en los diarios de numerosos países y su nombre se iba volviendo popular.
A finales de junio de 1897 Marconi volvió a Italia para mostrar su sistema a las autoridades del Ministerio de la Marina, dejando a su primo Davis ocupado en la creación de una compañía para explotar comercialmente sus inventos.
De esta manera mientras Marconi aun estaba en Italia, en julio de 1897 Davis formalizó la Wireless Telegraph and Signal Co. Ltd., convirtiéndose en el primer director de la misma.
En marzo de 1899 Marconi logró otro gran éxito al conseguir por primera vez la conexión entre Gran Bretaña y Francia por medio de la radiotelegrafía. Las estaciones estaban situadas en el faro de South Foreland cerca de Dover y en la pequeña localidad francesa de Wimereux.
La repercusión de esta nueva experiencia fue muy grande y puso a Marconi en inmejorable situación para el despegue comercial de su compañía que en febrero de 1900 pasó a denominarse Marconi’s Wireless Telegraph Co. Ltd. La principal actividad de la compañía era la instalación de equipos a bordo de buques y las consiguientes estaciones costeras en diversos países.
En marzo de este mismo año Marconi solicitó, la quizás más importante de todas sus patentes, la famosa 7777 que introducía la resonancia de los circuitos emisores y receptores, o lo que es lo mismo, la sintonía.
El próximo reto que se marcó Marconi, primordial para el desarrollo de su compañía, fue el de la unión radiotelegráfica de América y Europa, que era para muchos científicos imposible debido a la curvatura de la Tierra.
Pero Marconi, que más que un científico era un experimentador comenzó rápidamente a llevar a la práctica su idea, que consistía en la construcción de dos estaciones gemelas con un potente transmisor y una gran antena para poder así establecer una comunicación completa entre los dos continentes. Lo primero era la elección de los dos puntos en donde ubicar las estaciones.
La estación inglesa se instaló en Poldhu, cerca de Mullion, en Cornualles y la americana cerca de South Wellfleet, en Cape Cod, estado de Massachusetts.
El progreso en la construcción de las estaciones fue rápido, terminándose primero la de Poldhu, y a continuación siguió la construcción de la americana. Pero la suerte de Marconi sufrió un rápido giro, en septiembre de 1901 una galerna derribó la antena de Poldhu y poco después, en noviembre sucedió otro tanto con la de Cape Cod.
Marconi tuvo que replantearse todo el esquema. Mandó construir una nueva antena en Poldhu, de menor envergadura y que sería empleada como emisora. En América abandonó la estación de Cape Cod, y se dirigió al norte, a Canadá, buscando el punto más cercano a Europa.
El sitio al fin elegido fue una colina, próxima a la ciudad de St. John’s en Terranova, que era conocida como Signal Hill.
El propósito de Marconi era el transmitir señales desde Poldhu para ser recibidas en Signal Hill.
Con la ayuda de Kemp y de Percy W. Paget, otro estrecho colaborador, y con un simple equipo receptor, cometas y globos para poder elevar la antena, comenzó las pruebas a principios de diciembre.
Desde Poldhu se transmitía una señal consistente en la letra “S” que en código Morse se traducía en 3 puntos, durante un período de cuatro horas, todas las tardes.
El transmisor fue diseñado con el asesoramiento de John A. Fleming y consistía en un Alternador que era alimentado por medio de Baterías, cuya tensión era regulada por un Reóstato. El alternador entregaba una tensión de 2.000 V al siguiente circuito, que pasaban a través de un Interruptor general y llegaban al Manipulador Morse, de aquí al primario de un Transformador de alta tensión que los convertían en 20.000 V. En el circuito secundario la señal pasaba a través de dos Bobinas de alta tensión y un Condensador hasta llegar al primario de otro transformador “Jigger”. En el secundario de este transformador la señal llegaba al Espinterómetro “spark gap” mediante una Bobina Variable que con un segundo Condensador ajustaba la resonancia. Un segundo “Jigger” entregaba la señal a la antena para ser radiada.
Según una conferencia de Marconi en la Royal Institution en 1908, la longitud de onda generada por este transmisor era de 366 m (820 kHz). Por aquella época no existían instrumentos que pudiesen medir la frecuencia, así que otros científicos calcularon posteriormente que en realidad la longitud de onda era de unos 2.000 m (150 kHz). La potencia del transmisor, según Fleming, estaba en torno a los 15 kW.
El dispositivo receptor en Canadá era muy sencillo y constaba de una antena elevada por una cometa o globo, un detector de mercurio y un auricular telefónico. Marconi hacía constantes cambios en el circuito para intentar mejorar la recepción.
De esta forma, al fin, el 12 de diciembre de 1901 Marconi anotó en su cuaderno de notas la recepción por primera vez de una señal de radio que atravesaba el océano Atlántico.
Aunque la noticia del logro fue recibida con cierta incredulidad, poco a poco fue calando la transcendencia de tal hecho y Marconi se convirtió en un auténtico héroe popular.
La explicación científica certera de como las señales de radio salvaron la curvatura de la tierra, la darían al año siguiente Oliver Heaviside en Inglaterra y Arthur E. Kennelly en los Estados Unidos, pero esta teoría no sería comprobada científicamente hasta dos décadas después, por Edward V. Appleton y otros.
A partir de aquí tanto la carrera de Marconi como la de su compañía recibieron el empuje definitivo. Los progresos fueron continuos y en octubre de 1907 se inauguró el primer servicio comercial de radiotelegrafía entre Europa y América. Las estaciones estaban situadas en Clifden, Irlanda y Glace Bay, Canadá.
La Marconi’s Wireless empezó a crear empresas subsidiarias en los principales países del planeta para enlazar mediante radiotelegrafía todas la capitales y establecer un cuasi monopolio.
En 1909 Marconi recibió el Premio Nobel de Física, que compartió con Ferdinand Braun.
En 1910 la compañía recibió un nuevo impulso al ser nombrado director de la misma Godfrey Isaacs.
Marconi se convirtió en el primer embajador de su empresa y al mismo tiempo continuaba interviniendo directamente en nuevos desarrollos técnicos y la supervisión de las principales instalaciones.
En 1914 fue nombrado senador de Italia y con el estallido de la I Guerra Mundial usó su escaño en el Senado para influir en el gobierno de su país, a fin de que Italia se aliase con Gran Bretaña y Francia. Después de que esto sucediera se enroló en el ejército italiano como encargado de la supervisión de diversos asuntos relacionados con la radiotelegrafía militar y al mismo tiempo realizó diversas misiones diplomáticas.
Al terminar la guerra Marconi decidió continuar los experimentos que había comenzado durante esta, relativos a las comunicaciones por onda corta. En 1919 adquirió un yate que bautizó como Elettra y que se convertiría en su segundo hogar.
Marconi estaba convencido de que el futuro de las radiocomunicaciones tenía que pasar por la onda corta, que poseia la gran ventaja de necesitar menos potencia en los transmisores. Con la colaboración de Charles S. Franklin realizó importantes investigaciones sobre esta materia y en su laboratorio a bordo del yate llevó a cabo experimentos sobre la propagación de las ondas cortas a gran distancia.
A partir de 1928 Marconi abandonó su participación directa en los asuntos de la compañía y tomó otras responsabilidades en su país nativo, del que recibió el título nobiliario de Marchese en 1929.
En 1931 prestó apoyo al papa Pio XI en la instalación de la emisora de onda corta Radio Vaticano y en 1933 estableció un enlace telefónico mediante microondas entre el Vaticano y la residencia veraniega papal de Castel Gandolfo.
Así mismo Marconi ejerció como presidente de la Academia Real y del Consejo Nacional de Investigación Científica, en donde bajo su dirección se llevaron a cabo los primeros experimentos sobre el radar. Como senador y miembro del partido fascista, prestó su apoyo incondicional a Mussolini.
A partir de 1935 los problemas de corazón de Marconi deterioraron progresivamente su salud hasta su fallecimiento en 1937.
6º Hito Clave: el triodo, De Forest y la radio
El descubrimiento de Hertz no tuvo resultados prácticos a corto plazo, ya que la distancia a que se podía transmitir con los medios de que se disponían en la época eran muy escasos y había mucho camino que recorrer.
Hubo científicos que salieron a la palestra con mejoras importantes al sistema hertziano. El físico ruso Alexander Stepánovich Popov inventó la antena, lo que propició que el alcance del sistema aumentara considerablemente. El ingeniero austrohúngaro Nikola Tesla y posteriormente el italiano Guillermo Marconi acabaron de impulsar el invento.
Con el tiempo, tanto los emisores como los receptores y las antenas mejoraron bastante, y por fin las transmisiones inhalámbricas de miles de kilómetros se hicieron realidad. A grandes rasgos, podemos resumir la transmisión inhalámbrica de ondas hertzianas de la siguiente manera:
Por un lado tenemos el emisor, que se compone de un generador de corrientes alternas de alta frecuencia el cual se conecta por una parte a un hilo conductor aislado del suelo llamado antena, y por la otra a una toma de tierra. Por otro lado tenemos el receptor, que a su vez se compone de una antena y una toma de tierra similares a las del emisor y de los circuitos necesarios para procesar la señal recibida de acuerdo a la aplicación final que vaya a dársele.
Las ondas electromagnéticas que parten de la antena emisora y viajan a la velocidad de la luz alcanzan la antena receptora e inducen en ella unas corrientes eléctricas que son idénticas a las producidas por el generador original. Una vez que hemos recepcionado dicha señal, la cuestión es procesarla adecuadamente y usarla de acuerdo a nuestros propósitos.
En el caso del telégrafo sin hilos y muy esquemáticamente, podemos imaginarnos que intercalamos el manipulador entre la antena y el transmisor para así dejar pasar la señal al ritmo de sus pulsaciones. En la parte receptora, en vez de usar un aro abierto para que salten chispas, usamos un electroimán con un lápiz y el papel móvil autodesplazable, similar al que se utiliza en la telegrafía con hilos.
Lógicamente este proceso es mucho más complicado de lo que sucintamente hemos esbozado hasta ahora, pero nos sirve a la perfección para hacernos una idea básica de como funcionaba el sistema de telegrafía sin hilos.
Otra historia era la transmisión de los sonidos, la cual comenzó su auge a partir de 1906 cuando Lee De Forest inventó el triodo. Gracias a esta válvula termoiónica, elemento fundamental en los comienzos de la radiotelefonía, la técnica de la palabra radiada se vió impulsada definitivamente y comenzó a configurarse el modelo que podemos disfrutar hoy dia.
Las ondas sonoras de baja frecuencia (B.F.) recogidas por el micrófono pudieron transformarse, gracias al triodo y a los circuitos y componentes electrónicos asociados a él, en corrientes de alta frecuencia (A.F.) que una vez aplicadas a la antena se transmitían en forma de ondas electromagnéticas. Estas ondas electromagnéticas, una vez captadas por la antena receptora, sufrían una transformación inversa a la ocurrida en el emisor y se convertían de nuevo en señales eléctricas de B.F. que, aplicadas a unos auriculares, reproducían los sonidos originales recogidos por el micrófono.
Por supuesto, los procesos y la circuitería que intervienen en la transmisión y recepción de estas señales radioeléctricas no son algo que podamos llegar a entender en cuatro o cinco minutos leyendo este artículo, ya que obviamente su complejidad no es precisamente escasa. Si Otra historia era la transmisión de los sonidos, la cual comenzó su auge a partir de 1906 cuando Lee De Forest inventó el triodo. Gracias a esta válvula termoiónica, elemento fundamental en los comienzos de la radiotelefonía, la técnica de la palabra radiada se vió impulsada definitivamente y comenzó a configurarse el modelo que podemos disfrutar hoy dia.
Las ondas sonoras de baja frecuencia (B.F.) recogidas por el micrófono pudieron transformarse, gracias al triodo y a los circuitos y componentes electrónicos asociados a él, en corrientes de alta frecuencia (A.F.) que una vez aplicadas a la antena se transmitían en forma de ondas electromagnéticas. Estas ondas electromagnéticas, una vez captadas por la antena receptora, sufrían una transformación inversa a la ocurrida en el emisor y se convertían de nuevo en señales eléctricas de B.F. que, aplicadas a unos auriculares, reproducían los sonidos originales recogidos por el micrófono.
Por supuesto, los procesos y la circuitería que intervienen en la transmisión y recepción de estas señales radioeléctricas no son algo que podamos llegar a entender en cuatro o cinco minutos leyendo este artículo, ya que obviamente su complejidad no es precisamente escasa. Sin embargo, siguiendo la máxima del "divide y vencerás" y con los conocimientos adquiridos hasta el momento, deberíamos de ser perfectamente capaces de entender ambos sistemas mediante lo que se llama un "diagrama de bloques". n embargo, siguiendo la máxima del "divide y vencerás" y con los conocimientos adquiridos hasta el momento, deberíamos de ser perfectamente capaces de entender ambos sistemas mediante lo que se llama un "diagrama de bloques".El diagrama de bloques podemos hacerlo todo lo simple o todo lo complejo que queramos. Por ejemplo, si queremos algo muy sencillo podemos representar tanto el emisor como el receptor por un solo bloque, con lo que en principio tenemos el diagrama completo pero, eso sí, no muy explicativo ni detallado que digamos. Para empezar, y para hacer las cosas más fáciles, vamos a dividir la información en dos apartados: primero hablaremos del emisor y posteriormente tocaremos el receptor. ¡Comenzamos!.
EL EMISOR
Como ya sabemos, en el emisor se generan las corrientes de A.F. (Alta Frecuencia) a las cuales tenemos que conseguir "implantarle" la señal de B.F. (Baja Frecuencia) procedente del micrófono. Una vez hecho esto, dicha señal se lanza al espacio para que viaje y pueda ser recibida por el receptor. Este es el proceso básico. Ahora vamos a desgranarlo ¿te parece?.
Como ya sabemos, en el emisor se generan las corrientes de A.F. (Alta Frecuencia) a las cuales tenemos que conseguir "implantarle" la señal de B.F. (Baja Frecuencia) procedente del micrófono. Una vez hecho esto, dicha señal se lanza al espacio para que viaje y pueda ser recibida por el receptor. Este es el proceso básico. Ahora vamos a desgranarlo ¿te parece?.
Aunque en un párrafo anterior hemos hablado de "transformar" la señal de B.F., y como seguramente habrás deducido, no se trata de una transformación propiamente dicha. El proceso exacto en el emisor es tan sencillo y a la vez tan complejo como lo siguiente:
Se recoge la señal de B.F. a través del micrófono, pero como ésta por sus propios medios no es capaz de viajar ni tan rápido ni tan lejos como una onda electromagnética, lo que hacemos es ponerla a "cabalgar" sobre una señal de A.F. y ésta última, una vez que hemos conseguido "implantarle" la información de B.F., es la que aplicamos a la antena emisora la cual convierte estas corrientes de A.F., que contienen la información de B.F., en ondas electromagnéticas que son las que se radian al espacio.
La señal de A.F. recibe el nombre de "portadora" ya que es la que "transporta" a la señal de B.F., que es la que nos interesa, hasta los receptores. Una vez que llega al receptor, la señal de B.F. se procesa para recuperar su estado original y la señal de A.F. se desecha y, valga la expresión, se tira. Dicho así todo parece muy fácil, pero no lo es en realidad. Como ya hemos comentado, la complejidad existente en un emisor de radio es notable, sin embargo en principio vamos a sintetizar su composición en solo tres o cuatro bloques.
Como ya sabemos, el emisor necesita un generador de señal de alta frecuencia (A.F.) que produzca la portadora. Este generador se llama "OSCILADOR", o más exacta y completamente "OSCILADOR DE RADIOFRECUENCIA (R.F.)" o también "OSCILADOR DE ALTA FRECUENCIA (A.F.)", y se trata del primer bloque de nuestro diagrama. El oscilador de A.F. suministra una señal cuya amplitud es constante. Ahora necesitamos otro bloque que "monte" encima de la señal de A.F. la señal de B.F. procedente del micrófono. Este segundo bloque recibe el nombre de "MODULADOR", y de nuevo aludimos a la exactitud denominándolo "MODULADOR DE AMPLITUD". Esta fué la primera forma de modulación descubierta y puesta en práctica.
Al modulador de amplitud le llega por un lado la señal de A.F. de amplitud constante producida por el oscilador y por otro la señal de B.F. procedente del micrófono. En su salida tenemos disponible la señal de A.F. modulada en amplitud, la cual ya está lista para aplicársela a la antena y ser radiada al espacio. Queda claro que al proceso de incorporación a la señal de A.F. del oscilador de la señal de B.F. procedente del micrófono se le llama "MODULACIÓN", y en este caso concreto "MODULACIÓN DE AMPLITUD". Por lo tanto, la señal aplicada a la antena es la señal de A.F. producida en el oscilador pero con la particularidad de que su amplitud se va modificando en conformidad con la señal de B.F. del micrófono, es decir, una vez modulada.
Hasta aquí todo perfecto. Sin embargo hemos de decir que la señal del oscilador generalmente es de una potencia muy escasa, por lo que estaría bién que antes de llevarla a la antena le aumentáramos su potencia para que su alcance sea mayor. Este aumento de potencia se refleja en un aumento de la amplitud de la señal, conservando siempre, claro está, la modulación característica producida por la señal de B.F. recogida por el micrófono. A este bloque que aumenta la amplitud de la portadora modulada se le llama "AMPLIFICADOR DE A.F." o "AMPLIFICADOR DE R.F." y es el tercer bloque del diagrama del emisor (por supuesto muy resumido).
Para no pecar de incompletos hemos de decir que aún nos queda un cuarto bloque. Claro está que los tres bloques anteriores no funcionan porque sí. Necesitan una fuente de energía eléctrica a la cual llamaremos "FUENTE DE ALIMENTACIÓN". La fuente de alimentación puede estar compuesta únicamente por baterías, sin embargo estas se suelen usar solo en los equipos transmisores portátiles. En los transmisores fijos, como fuente de alimentación se usan equipos que transforman la corriente alterna de la red eléctrica de 220 voltios en corriente contínua similar a la de las baterías. Pasemos ahora al receptor.
EL RECEPTOR
Una vez que hemos recogido la señal de A.F. modulada en amplitud en la antena receptora, necesitamos a toda costa recuperar la señal de B.F. que ha cabalgado sobre ella y desechar la portadora de A.F., porque esta última ha realizado su trabajo y ya no nos sirve para nada. Para llevar a cabo este trabajo existe un dispositivo en el receptor que podríamos decir es el inverso del modulador en el emisor, es decir, extrae la señal de B.F. presente en la portadora modulada y desecha esta última que solo ha servido como vehículo de alta velocidad al sonido que transportaba. Este bloque se llama "DETECTOR" o también "DEMODULADOR".
Ya tenemos completo nuestro receptor más elemental el cual estaría formado por el sistema antena-tierra para recibir la señal, el detector o demodulador para extraerle la señal de B.F. a la portadora y eliminar esta última, y por último un auricular para convertir la señal eléctrica de B.F. de nuevo en sonido audible. Antena, tierra, detector y auricular formarían nuestro receptor. Sin embargo, este receptor adolecería de varios inconvenientes muy graves.
El primero que observamos es que no dispone de ningún elemento para seleccionar la emisora deseada. Efectivamente, el sistema antena-tierra recibe las señales de todas las emisoras que quedan a su alcance al mismo tiempo. El detector las demodula todas a la vez y por lo tanto la audición se convertiría en una verdadera "jaula de grillos". El resultado sería que oiríamos mezclados los sonidos de todas las emisoras al mismo tiempo y no tendríamos ninguna posibilidad de seleccionar solo una de ellas para poder oirla con comodidad. Necesitamos un elemento que nos permita "seleccionar" la señal de una emisora determinada, aquella que más nos interese oir en ese momento. A ese elemento, usado para seleccionar una sola emisora, lo vamos a llamar "SELECTOR DE FRECUENCIAS" o simplemente "SELECTOR".
El selector lo debemos colocar inmediatamente después de la antena para que deje pasar hacia el detector solo la señal de la emisora que nos interesa oir, impidiendo el paso al resto de señales que recibe la antena. Queda claro que la función del selector es dejar pasar únicamente la señal de una sola emisora en función de la frecuencia de su onda portadora, rechazando las demás. Aquí podemos introducir el concepto de "SELECTIVIDAD" del receptor, término que se entiende como la mayor o menor efectividad que posee el selector de frecuencias para separar una emisora concreta de las demás.
Cuando decimos que hemos "SINTONIZADO" una emisora indicamos que hemos colocado el selector de frecuencias de manera que solo deja pasar la señal de esa emisora que queremos oir, impidiendo que las demás señales, cuyas frecuencias no corresponden con la seleccionada, pasen hacia el detector. ¿De acuerdo?.
Parece que ya tenemos nuestro receptor completo. Sin embargo nos hemos dado cuenta de que le falta algo. Efectivamente... este receptor solo es capaz de recibir las emisoras cercanas. Resulta que las que están más lejos llegan con una señal tan débil que ni siquiera las llegamos a oir. Tenemos que conseguir aumentar la amplitud de esas ondas portadoras muy débiles para poder oirlas igual que las que nos llegan fuertes. Para ello tenemos que colocar justo después del selector de frecuencias un "AMPLIFICADOR DE ALTA FRECUENCIA" o abreviadamente "AMPLIFICADOR DE A.F." para aumentar el nivel de esas portadoras. Éste elemento hará que las señales débiles recibidas aumenten considerablemente su amplitud, de manera que cuando las apliquemos al detector podamos oirlas a través de nuestro auricular.
Observa que el amplificador de A.F., al que podemos llamar también "AMPLIFICADOR DE RADIO FRECUENCIA" o de forma abreviada "AMPLIFICADOR DE R.F.", solo amplifica la señal que ha dejado pasar el selector de frecuencias. Aprovechamos este momento para introducir un nuevo concepto. Se trata de la "SENSIBILIDAD" de nuestro receptor, que no es ni más ni menos que la capacidad del amplificador de R.F. de nuestro receptor para amplificar las señales débiles. Entre dos receptores, el que tiene mayor sensibilidad será aquél que permita oir las emisoras más débiles estando en igualdad de condiciones.
Ahora parece que esto ya se ha terminado. Sin embargo nos percatamos de algo que antes no habíamos notado. Resulta que, a pesar de haber colocado el amplificador de R.F. aún existen emisoras que llegan con un nivel tan bajo que, una vez que las hemos demodulado haciendolas pasar por el detector, apenas las podemos oir en nuestro auricular. Tenemos que subir el nivel de ese sonido tan bajito. Introducimos entonces el "AMPLIFICADOR DE BAJA FRECUENCIA" o "AMPLIFICADOR DE B.F." entre el detector y el auricular, el cual permite elevar la amplitud de la señal de baja frecuencia (B.F.) demodulada antes de aplicarla al auricular. Ello nos permite oir los sonidos débiles, correspondientes a las ondas portadoras que nos llegan con menor amplitud, con un volumen mayor y más adecuado.
¡¡Ahora si que si!!. Esto se terminó... ¡Pués NO!. Aún nos falta algo, algo que tu conoces perfectamente puesto que ya hemos hablado de ello en este mismo artículo. Se trata de la fuente de alimentación que suministre la energía eléctrica necesaria a todos los elementos del receptor, bién sea en forma de baterías o bién en base a la transformación de la corriente alterna de la red en corriente continua. Nos adelantamos un poco en este sentido comentando que esta transformación la lleva a cabo un dispositivo llamado "RECTIFICADOR" fabricado a base de unos componentes llamados "DIODOS", de los cuales ya conocemos algo por artículos anteriores, y otros llamados "CONDENSADORES" de los que hablaremos pronto.
Ahora parece que esto ya se ha terminado. Sin embargo nos percatamos de algo que antes no habíamos notado. Resulta que, a pesar de haber colocado el amplificador de R.F. aún existen emisoras que llegan con un nivel tan bajo que, una vez que las hemos demodulado haciendolas pasar por el detector, apenas las podemos oir en nuestro auricular. Tenemos que subir el nivel de ese sonido tan bajito. Introducimos entonces el "AMPLIFICADOR DE BAJA FRECUENCIA" o "AMPLIFICADOR DE B.F." entre el detector y el auricular, el cual permite elevar la amplitud de la señal de baja frecuencia (B.F.) demodulada antes de aplicarla al auricular. Ello nos permite oir los sonidos débiles, correspondientes a las ondas portadoras que nos llegan con menor amplitud, con un volumen mayor y más adecuado.
¡¡Ahora si que si!!. Esto se terminó... ¡Pués NO!. Aún nos falta algo, algo que tu conoces perfectamente puesto que ya hemos hablado de ello en este mismo artículo. Se trata de la fuente de alimentación que suministre la energía eléctrica necesaria a todos los elementos del receptor, bién sea en forma de baterías o bién en base a la transformación de la corriente alterna de la red en corriente continua. Nos adelantamos un poco en este sentido comentando que esta transformación la lleva a cabo un dispositivo llamado "RECTIFICADOR" fabricado a base de unos componentes llamados "DIODOS", de los cuales ya conocemos algo por artículos anteriores, y otros llamados "CONDENSADORES" de los que hablaremos pronto.
Hasta aquí este artículo, al que quizás hemos dedicado más páginas de lo normal. Hemos estudiado los bloques que componen tanto el emisor como el receptor de radio. Ahora debemos continuar e investigar como están compuestos internamente cada uno de estos bloques. A partír del próximo artículo nos dedicaremos a ello tomando como ejemplo el receptor más simple conocido, el cual no necesita fuente de alimentación para funcionar, ya que usa la propia energía implícita en la señal de A.F. recibida. No te lo pierdas.
7º Hito Clave: a la miniaturización por el Transistor, Shockley, Brattain y Bardeen
Sin la aparición de los semiconductores, estaremos de acuerdo en que la telefonía móvil no hubiera sido posible…más que nada por el peso que supondría llevar una radio de válvulas a la espalda
En el año 1956 el premio Nobel de física fue compartido por tres grandes científicos: William Bradford Shockley, John Bardeen y Walter Houser Brattain por el que es considerado como el mayor desarrollo tecnológico del siglo XX: el transistor. La historia de cómo se inició la carrera por la miniaturización de los dispositivos tecnológicos que aún no ha terminado en nuestros días me parece fascinante. Llena de brillantez, peleas y afán de superación.
Colocando triodos a lo largo de la línea telefónica se podía amplificar la señal lo suficiente como para poder hacer llamadas a larga distancia. El triodo está compuesto de tres partes: un cátodo que emite electrones, un ánodo que los capta y una rejilla situada entre los dos a la que se puede aplicar tensión. Variando ligeramente la tensión de la rejilla podemos variar enormemente el flujo de electrones entre el cátodo y el ánodo, en esto consiste la amplificación de la señal eléctrica en la que se ha traducido la señal sonora.
Los tubos de vacío producían mucho calor, necesitaban mucha energía y debían ser reemplazados continuamente.
Era necesario otro método para amplificar la señal. Buscando respuestas la compañía creó en 1926 un centro de investigación conocido como Laboratorios Telefónicos Bell (Bell Labs), responsable de descubrimientos tan importantes como el lenguaje de programación C, la astronomía radial, el sistema operativo Unix, y lo que nos atañe, el transistor.
El pensador, el experimentador y el visionario
Después de finalizada la Segunda Guerra Mundial el director del laboratorio Mervin Kelly buscó un grupo de científicos que dieran con la solución a los problemas que causaba el tubo de vacío y tenía algo en mente para reemplazarlo: los semiconductores. ¿Qué es un semiconductor? Un elemento que en determinadas condiciones puede conducir la electricidad (por ejemplo, a una temperatura alta), pero si cambiamos esas condiciones deja de permitir el paso de electrones. Los más importantes son el silicio (Si) y el germanio (Ge).
El director del nuevo equipo de investigadores fue William Shockley, un visionario capaz de ver la importancia de los transistores antes que nadie, Walter Brattain, un físico experimental capaz de construir y reparar prácticamente cualquier cosa y John Bardeen, capaz de ir más allá en la comprensión de los fenómenos aparentemente complejos y exponerlos de la manera más sencilla posible. Tres personajes con una marcada personalidad, lo que les llevaría a alguna que otra confrontación, lo que se manifestó a la hora de repartirse los méritos.
En 1947, durante el conocido como "Mes milagroso" entre el 17 de noviembre y el 23 de diciembre realizaron infinidad de pruebas para mejorar el dispositivo hasta llegar a conseguir su objetivo: el primer transistor de contacto puntual, hecho con dos púas de metal (oro) que se presionan sobre la superficie de material semiconductor (germanio) en posiciones muy próximas entre sí.
Funcionamiento de un transistor MOSFET
Un buen videoclip de la Universidad de Granada
8ª Hito clave: La Teoría de la Información y el Teorema de Shannnon
Una de las principales ventajas de la tecnología digital es que permite el intercambio de datos sin pérdida de información. Aun así, estos datos transitan la mayoría del tiempo sobre canales no fiables, sufriendo varias interferencias y por lo tanto se mezclan con el ruido. Entonces, ¿cómo se pueden eliminar los errores de transmisión? La solución consiste en introducir cierta redundancia en los mensajes emitidos por la fuente con el fin de que el receptor pueda corregir los errores, de tal forma que el mensaje sea compuesto por símbolos, en donde es la cantidad de símbolos que aportan información sobre el mensaje original (aquel que el emisor transmitió), y es la cantidad de símbolos de redundancia, mismos que le servirán al receptor para corregir los errores que el canal ruidoso haya introducido en el mensaje, cabe recordar que estos símbolos de redundancia también están sujetos a deformaciones debido al ruido del canal. A este tipo de código se le llama código corrector.
El Segundo Teorema de Shannon demuestra la existencia de un código corrector cuyo cumple lo dicho anteriormente, con una probabilidad de interpretar un mensaje de forma errada muy pequeña, y con una velocidad de transmisión que se aproxima a la capacidad del canal.
El tiempo necesario para enviar un símbolo por la línea r, el símbolos llamado. Dentro de la símbolos la señal sigue siendo el mismo.
Con dos símbolos definidos (Nsymbols = 2), por lo tanto, Nsymbols transportados, en 8-PSK tres bits y en QAM-64, seis bits.
Teorema (Shannon, 1948):
- 1. Para cualquier canal discreto sin memoria, la capacidad de canal.2
- Tiene la siguiente propiedad. Para cualquier ε> 0 y R <C, para N bastante grande, existe un código de longitud N y una tasa ≥ R y un algoritmo de descodificación, de forma que la probabilidad máxima de error de bloque es ≤ ε.
- 2. Si la probabilidad de error de bits pb es aceptable, las tasas de transmisión hasta R (pb) son alcanzables, donde
- y es la función entropía binaria
- 3. Para cualquier pb, las tasas de transmisión más grandes que R (pb) no son alcanzables.
https://es.wikipedia.org/wiki/Segundo_teorema_de_Shannon
Ver en el siguiente videoclip cómo, a pesar de “estropear” un CD, las técnicas matemáticas presentes permiten la reconstrucción de la información de una forma eficiente
Ver en el siguiente videoclip cómo, a pesar de “estropear” un CD, las técnicas matemáticas presentes permiten la reconstrucción de la información de una forma eficiente
Teorema de Shannon
Declaración del teorema
Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal C es:1
C=B x log2 (1 + S/N)
donde:
- es el ancho de banda del canal en Hertz.
- es la capacidad del canal (tasa de bits de información bit/s)
- es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
- es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la señal útil.
9º Hito Clave: el Teorema de Nyquist y la frecuencia de muestreo
Según el teorema de muestreo de Nyquist-Shannon, para poder replicar con exactitud (es decir, siendo matemáticamente reversible en su totalidad) la forma de una onda es necesario que la frecuencia de muestreo sea superior al doble de la máxima frecuencia a muestrear
Frecuencias de muestreo para audio y vídeo
En audio, la máxima audiofrecuencia perceptible para el oído humano joven y sano está en torno a los 20 kHz, por lo que teóricamente una frecuencia de muestreo de 40000 sería suficiente para su muestreo; no obstante, el estándar introducido por el CD, se estableció en 44100 muestras por segundo. La frecuencia de muestreo ligeramente superior permite compensar los filtros utilizados durante la conversión analógica-digital.
Hay que tener en cuenta que no todas las fuentes sonoras se aproximan a los 20 kHz que corresponden a esta frecuencia máxima; la mayoría de los sonidos está muy por debajo de ésta. Por ejemplo, si se va a grabar la voz de una soprano, la máxima frecuencia que la cantante será capaz de producir no tendrá armónicos de nivel significativo en la última octava (de 10 a 20 kHz), con lo que utilizar una frecuencia de muestreo de 44100 muestras por segundo sería innecesario (se estaría empleando una capacidad de almacenamiento extra que se podría economizar).
El estándar del CD-Audio está fijado en 44100 muestras por segundo, pero esto no significa que esa sea la frecuencia que utilizan todos los equipos. Los sistemas domésticos de baja calidad pueden utilizar tasas de 22050 muestras por segundo o de 11025 muestras por segundo (limitando así la frecuencia de los componentes que pueden formar la señal). Además, las tarjetas de sonido de los equipos informáticos utilizan frecuencias por encima o por debajo de este estándar, muchas veces seleccionándolas en función de las necesidades concretas (sobre todo, en aplicaciones de audio profesional).
Algunas frecuencias de muestreo típicas en sistemas de audio y vídeo aparecen resumidas en tablas, más arriba.
Vídeo
En vídeo digital, la frecuencia entre fotogramas es utilizada para definir la frecuencia de muestreo de la imagen en lugar del ritmo de cambios de los píxeles individuales. La frecuencia de muestreo de la imagen es el ritmo de repetición del período de integración del CCD. Dado que el periodo de integración puede ser significativamente más corto que el tiempo entre repeticiones, la frecuencia de muestreo puede diferir de la inversa del tiempo de muestreo.
http://telefonia.blog.tartanga.eus/shannon-nyquist-fourier-y-otros/el-teorema-de-nyquist/
http://telefonia.blog.tartanga.eus/shannon-nyquist-fourier-y-otros/el-teorema-de-nyquist/
10º Hito Clave: la Compresión de Datos MP3, JPEG, GIF y MPEG 3
El presente trabajo es una revisión de qué es MPEG (Moving Picture Experts Group) y de los estándares que se usan hoy en día; lo podemos considerar de actualidad, ya que este formato está en operación para la codificación de señales de video, además que es un de lo más utilizados porque los videos que son compactados en este estándar son pequeños en tamaño. Por eso es que en muchas personas hoy en día prefieren utilizar MPEG, debido a que les ahorra espacio en disco y en caso de que se quiera transmitir, debido a su tamaño nos resulta mucho más rápida la transmisión.
La reproducción de vídeo en un ordenador, pese a su aparente sencillez, constituye una de las tareas que más recursos consume. De hecho, con los ordenadores actuales que podemos encontrar en el mercado, todavía no es posible reproducir un vídeo con calidad VHS -ya de por sí, bastante baja-, a pantalla completa.
Para que una sucesión de imágenes produzca el efecto óptico del movimiento, es necesario que se sucedan a una determinada velocidad, que suele girar en torno a los 30 fps, es decir, 30 imágenes o fotogramas por cada segundo. Si se reduce este valor, el vídeo se reproduce a saltos, disminuyendo la sensación de continuidad. El problema es que el proceso de imágenes mediante una tarjeta gráfica es una de las tareas que más tiempo consume, de manera que, para transmitir al monitor tal cantidad de imágenes por segundo, es necesario disponer de un procesador y una tarjeta gráfica muy potentes. o bien reducir la calidad de la imagen con la que estamos trabajando.
Puesto que lo primero todavía no está al alcance de todos los usuarios, la mayor parte de los fabricantes han optado por la segunda opción, es decir, han ideado sistemas de compresión que reducen sensiblemente la calidad y el tamaño de la imagen.
El sistema de compresión de vídeo más conocido es, sin duda, el formato AVI utilizado por el sistema operativo Windows. La calidad de la imagen es bastante aceptable en ordenadores no demasiado potentes, pero sólo en una pequeña ventana y con un número reducido de colores.
Para superar estas limitaciones, un grupo de personas crearon el Grupo de Expertos en Imágenes en Movimiento -Moving Pictures Experts Group-, más conocido como MPEG.
Es muy importante el desarrollo de los algoritmos de compresión ya que permiten disminuir el tamaño de un archivo con el fin de ser transportado o almacenado y al ocupar menos espacio, el transporte es mas rápido y dichos algoritmos son aplicados principalmente al audio y video, debido a que son los archivos que mas cantidad de bytes ocupan, de esta manera, las imágenes obtenidas ocupan un menor espacio, sin perder demasiada calidad. El único inconveniente es que también se necesita un ordenador potente y una tarjeta especializada para proceder a la descompresión.
OBJETIVOS
- conocer la evolución de los algoritmos de compresión de video y las investigaciones precedentes.
- Identificar las aplicaciones modernas mas importantes que utilizan la tecnología de MPEG .
- Analizar el mecanismo para comprimir y descomprimir información de video.
- Aprender los conceptos mas importantes acerca de los algoritmos de compresión.
1. INTRODUCCIÓN A LA COMPRESIÓN DE VIDEO
La compresión de video surge de la necesidad de transmitir imágenes a través de un canal que contenga un ancho de banda aceptable. A continuación se examinarán cuales son los métodos más utilizados que permiten obtener este resultado, y las diferentes normas que se utilizan hoy día.
Estos métodos de compresión, recurren a los procedimientos generales de compresión de datos, aprovechando además la redundancia espacial de una imagen (áreas uniformes), la correlación entre puntos cercanos y la menor sensibilidad del ojo a los detalles finos de las imágenes fijas (JPEG) y, para imágenes animadas (MPEG), se saca provecho también de la redundancia temporal entre imágenes sucesivas.
La Figura 1 muestra que cuando las imágenes individuales son comprimidas sin referencia a las demás, el eje del tiempo no entra en el proceso de compresión, esto por lo tanto se denomina codificación intra (intra=dentro) o codificación espacial. A medida que la codificación espacial trata cada imagen independientemente, esta puede emplear ciertas técnicas de compresión desarrolladas para las imágenes fijas. El estándar de compresión ISO (International Standards Organization) JPEG (Joint Photographic Experts Group), está en esta categoría. Donde una sucesión de imágenes codificadas en JPEG también se usan para la televisión, esto es llamado "JPEG en movimiento".
Figura 1. Codificación intra o espacial, explora la redundancia dentro de la imagen
Se pueden obtener grandes factores de compresión teniendo en cuenta la redundancia entre imágenes sucesivas. Esto involucra al eje del tiempo, la Figura 2 muestra esto. Este proceso se denomina codificación inter (inter=entre) o codificación temporal.
Figura 2. Codificación inter o temporal, explora la redundancia entre imágenes
La codificación temporal permite altos factores de compresión, pero con la desventaja de que una imagen individual existe en términos de la diferencia entre imágenes previas. Si una imagen previa es quitada en la edición, entonces los datos de diferencia pueden ser insuficientes para recrear la siguiente imagen. El estándar ISO MPEG (Motion Pictures Experts Group) utiliza esta técnica.
Ver explicaciones adicionales sobre MP3, JPEG, GIF, MPEG, etc. en los siguientes enlaces:
https://www.youtube.com/watch?v=rLjwYZIxe-E
Un videoclip muy interesante sobre los diferentes sistemas de Compresión, hecho por la UPV:
https://www.youtube.com/watch?v=HUVkLFBNFdY
Un videoclip muy interesante sobre los diferentes sistemas de Compresión, hecho por la UPV:
https://www.youtube.com/watch?v=HUVkLFBNFdY
11º Hito Clave: el Sistema de Geolocalización GPS
Ver mi escrito dedicado al tema
1. Principios de funcionamiento del GPS:
1. Triangulación. La base del GPS es la "triangulación" desde los satélites
2. Distancias. Para "triangular", el receptor de GPS mide distancias utilizando el tiempo de viaje de señales de radio.
3. Tiempo. Para medir el tiempo de viaje de estas señales, el GPS necesita un control muy estricto del tiempo y lo logra con ciertos trucos.
4. Posición. Además de la distancia, el GPS necesita conocer exactamente donde se encuentran los satélites en el espacio. Órbitas de mucha altura y cuidadoso monitoreo, le permiten hacerlo.
5. Corrección. Finalmente el GPS debe corregir cualquier demora en el tiempo de viaje de la señal que esta pueda sufrir mientras atraviesa la atmósfera.
6. Fuentes de error.
Detalles en el link:
Para los más perezosos con esto de la tecnología, este videoclip lo explica en pocas palabras:
Los escarabajos peloteros se orientan por las estrellas
Sus ojos son demasiado débiles para distinguir las constelaciones, pero el animal puede captar el degradado de claro a oscuro emitido por la Vía Láctea para asegurarse de que lleva su bola de estiércol en línea recta y de que no retrocede frente a sus competidores, según explican los investigadores de la Universidad de Wits en Sudáfrica y la de Lund en Suecia.
Durante la investigación, los científicos pusieron unas 'gorras' a estos insectos para que fueran incapaces de detectar la luz. Los escarabajos reaccionaron subiéndose a sus bolas de excrementos y realizando su 'baile' de orientación en busca de la luz que les faltaba. En otro experimento, llevado a cabo en el planetario de Wits bajo un cielo estrellado simulado, los escarabajos actuaron de la misma manera, pero esta vez después del 'baile' bajo las estrellas, encontraron el camino a seguir.
Las mariposas monarca llegan con enorme precisión a su destino ayudadas por una brújula solar
Por estas fechas, se inicia uno de los espectáculos más impresionantes del mundo, el vuelo de las mariposas monarca
La temporada de la mariposa monarca y su llegada al hábitat de invierno (la Reserva de la Biósfera Mariposa Monarca) inicia durante los últimos días de octubre, estableciendo agrupaciones numerosas o colonias hibernantes que permanecen ahí hasta los primeros meses del año siguiente (mediados de marzo) cuando ya comienza a elevarse la temperatura. Es así como las monarca interrumpen su pausa para madurar sexualmente y comienzan a aparearse para luego, regresar hacia los territorios del norte del continente.
Para muchos esta migración está considerada como "uno de los eventos biológicos más importantes en este planeta". ¿Queréis conocer mas sobre este extraordinario y único fenómeno de la naturaleza? Pues continuad leyendo.
Cada otoño millones de mariposas monarca comienzan su migración desde Canadá hacia el sur buscando climas mas cálidos. Hasta aquí no parece nada sorprendente, pero si tenemos en cuenta que estos pequeños individuos, que no llegan a pesar el gramo, viajan desde Canadá hasta los bosque de Oyamel de México y los árboles del sur de California, ¿cómo os quedáis?. Pero lo realmente sorprendente de esta migración es que por lo general hacen falta tres o cuatro generaciones de mariposas para completar un ciclo de migración completa, es decir ida y vuelta desde el santuario Monarca de México hasta Canadá. De hecho uno de los grandes misterios de la ciencia es ¿cómo saben las sucesivas generaciones de mariposas donde tienen que ir?
Las mariposas monarca emigran hacia México en otoño desde varios lugares de EE.UU. y Canadá ayudadas por una brújula solar. Este mecanismo de navegación, también empleado por muchos pájaros, usa un reloj circadiano para compensar los cambios en la posición del Sol en el cielo conforme transcurre el día. ¿Dónde se encuentra este mecanismo de navegación? Se pensaba que en el cerebro de las mariposas, pero se acaba de publicar en Science que en realidad se encuentra en sus antenas. Una función desconocida hasta ahora de las antenas de las mariposas y quizás de otros insectos (como las abejas). En español lo podéis leer en María José Puertas, “El GPS de las mariposas,” El Mundo, 24 septiembre 2009 [visto en Menéame], que presenta un resumen muy bien escrito de la noticia.
Los tres líderes del Tratado de Libre Comercio de América del Norte (TLCAN), Enrique Peña Nieto, Stephen Harper y Barack Obama anunciaron este miércoles 19 de febrero su compromiso para atender la problemática del declive en números y hábitat de la mariposa monarca, símbolo mismo del bloque comercial, con la creación de un grupo de trabajo trinacional.
12º Hito Clave: los primeros teléfonos móviles, montados sobre coches, en 1923, por la policía de Victoria (Australia)
Teléfono móvil experimental, 1924
La radio surgió como una alternativa a la comunicación por cable a finales del s. XIX. En un primer momento fue utilizada para comunicación marítima, pero a partir de la década del 1920 comenzaron los intentos de aplicarla también a la comunicación móvil en tierra. En 1923, el cuerpo de policía de Victoria, Australia, fue el primero en utilizar comunicación inalámbrica dúplex en coches, poniendo fin a la práctica de dar reportes policiales en las cabinas de teléfono públicas.1 Estos teléfonos móviles primitivos permanecieron restringidos al uso gubernamental hasta los años 40, cuando se extendió al público general.
El primer servicio de telefonía móvil comercial apareció en 1946 en San Luis, EE. UU.2 3 4 La compañía AT&T comenzó entonces a operar el MTS, o Mobile Telephone System, que dos años después estaría disponible en más de 100 ciudades y autopistas.5 Debido a las limitaciones en el espectro de radiofrecuencia, el sistema permitía un máximo de seis canales, lo que provocaba largas listas de espera. En los años 60 el Improved Mobile Telephone Service ofrecería un total de 44 canales por ciudad. En 1964, EE. UU. contaba con 1,5 millones de usuarios de teléfonos móviles. 6
En Europa, la primera red de telefonía móvil fue instalada por la compañía nacional de telefonía sueca, Televerket, en 1955.7 8
Los primeros equipos eran grandes y pesados, por lo que estaban casi exclusivamente destinados a un uso a bordo de vehículos.
Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche. Si bien en los años 40 el equipo ocupaba todo el maletero, en los años 60 su tamaño se había reducido al de un maletín gracias al invento del transistor. El transistor, creado en 1948 en los Laboratorios Bell, sustituiría los tubos de vacío para amplificar y conmutar señales, inaugurando la era de la miniaturización de los aparatos electrónicos.
Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche. Si bien en los años 40 el equipo ocupaba todo el maletero, en los años 60 su tamaño se había reducido al de un maletín gracias al invento del transistor. El transistor, creado en 1948 en los Laboratorios Bell, sustituiría los tubos de vacío para amplificar y conmutar señales, inaugurando la era de la miniaturización de los aparatos electrónicos.
En la URSS, L.I. Kupriyanovich desarrolló entre 1957 y 1961 una serie de modelos experimentales de teléfonos móviles portátiles. Uno de esos modelos, presentado en 1961, pesaba tan solo 70 gramos y cabía en la palma de una mano.9 10 Sin embargo la URSS tomó la decisión de desarrollar en primer lugar el sistema de telefonía móvil para cochesAltay, que fue distribuido comercialmente en 1963.11
Estos sistemas todavía no eran celulares. Cada teléfono funcionaba como un transmisor que abarcaba toda la ciudad con una frecuencia fija, o en otras palabras, cada teléfono era una estación de radio para toda la ciudad, que transmitía señales con mucha potencia para poder ser recibido en el mayor área posible. Esto suponía un problema debido a la escasez de espectro de radiofrecuencia útil, lo que provocaba que solo unos 44 usuarios podían comunicarse simultáneamente en una ciudad.12 El sistema no cubría la demanda, el servicio estaba reservado a unos pocos privilegiados.
13º Hito Clave: El Sistema de Celdas
Reuso de frecuencias en una red de celdas
El sistema celular consiste en la subdivisión de un territorio en pequeñas áreas (llamadas celdas), cada una con una antena de transmisión, de forma que la misma frecuencia puede utilizarse en distintas zonas a la vez dentro de una ciudad. Esto permite un uso mucho más eficiente del espectro. Cuanto más pequeñas sean las celdas, más frecuencias pueden reusarse y más usuarios pueden utilizar el servicio.
La primera descripción de un sistema celular apareció en un trabajo de D.H. Ring, de los Laboratorios Bell, en 1947.1314 Pero no se pondría en práctica hasta dos décadas después por varios motivos. En primer lugar, los teléfonos celulares deben funcionar con frecuencias altas, donde las transmisiones pueden limitarse a celdas pequeñas. Pero la tecnología necesaria para poder trabajar con frecuencias tan altas no llegaría hasta más tarde. Además, para poder poner en práctica el sistema celular, un usuario atravesando la ciudad debería poder pasar de una celda a otra sin que la llamada se corte. Para ello es necesario que el sistema pueda saber dónde abandonó el usuario la primera celda, localizar la siguiente, e hilar automáticamente la conversación entre celda y celda. Es decir, el sistema necesita una base de datos con información sobre dónde estaba el teléfono, hacia dónde iba, y quién lo estaba usando; y esta base de datos debía ser rápida. En los años 40 no era posible hacer esto con la rapidez suficiente para no interrumpir la llamada. Por otra parte, para poder transmitir y recibir toda la información necesaria, el teléfono debía incluir un sintetizador de frecuencia, una pieza que cuando comenzó a desarrollarse para el ejército en los años 60 costaba tanto como un buen coche.
En la década de los 60 todas las grandes compañías de telecomunicaciones conocían el concepto celular; la pregunta era qué compañía conseguiría hacer funcionar la idea, tanto técnica como económicamente, y quién conseguiría la patente del sistema en primer lugar. Finalmente los Laboratorios Bell presentó un sistema que cumplía con los requisitos, cuya patente fue aprobada en 1972.15 16 Un año después, en 1973, Martin Cooper y su equipo de Motorola demostraron el primer prototipo funcional de un teléfono
14º Hito Clave: los Multiplexores TDMA y CDMA
El acceso múltiple por división de tiempo (Time Division Multiple Access o TDMA) es una técnica que permite la transmisión de señales digitales y cuya idea consiste en ocupar un canal (normalmente de gran capacidad) de transmisión a partir de distintas fuentes, de esta manera se logra un mejor aprovechamiento del medio de transmisión. El Acceso múltiple por división de tiempo (TDMA) es una de las técnicas de TDM más difundidas.
Multiplexación por división de tiempo
La multiplexación por división de tiempo (MDT o TDM, del inglés Time Division Multiplexing), es el tipo de multiplexación más utilizado en la actualidad, especialmente en los sistemas de transmisión digitales. En ella, el ancho de banda total del medio de transmisión es asignado a cada canal durante una fracción del tiempo total (intervalo de tiempo).
En la figura 1 siguiente se representa, esquematizada de forma muy simple, un conjunto multiplexor-demultiplexor para ilustrar como se realiza la multiplexación-desmultiplexación por división de tiempo.
Figura 1.- Conjunto multiplexor-demultiplexor por división de tiempo
En este circuito, las entradas de seis canales llegan a los denominados interruptores de canal, los cuales se cierran de forma secuencial, controlados por una señal de reloj, de manera que cada canal es conectado al medio de transmisión durante un tiempo determinado por la duración de los impulsos de reloj.
En el extremo distante, el desmultiplexor realiza la función inversa, esto es, conecta el medio de transmisión, secuencialmente, con la salida de cada uno de los seis canales mediante interruptores controlados por el reloj del demultiplexor. Este reloj del extremo receptor funciona de forma sincronizada con el del multiplexor del extremo emisor mediante señales de temporización que son transmitidas a través del propio medio de transmisión o por un camino.
Acceso múltiple por división de tiempo
El Acceso múltiple por división de tiempo (Time Division Multiple Access o TDMA, del inglés) es una técnica de multiplexación que distribuye las unidades de información en ranuras ("slots") alternas de tiempo, proveyendo acceso múltiple a un reducido número de frecuencias.
También se podría decir que es un proceso digital que se puede aplicar cuando la capacidad de la tasa de datos de la transmisión es mayor que la tasa de datos necesaria requerida por los dispositivos emisores y receptores. En este caso, múltiples transmisiones pueden ocupar un único enlace subdividiéndole y entrelazándose las porciones.
Esta técnica de multiplexación se emplea en infinidad de protocolos, sola o en combinación de otras, pero en lenguaje popular el término suele referirse al estándar D-AMPS de telefonía celular empleado en América.
Uso en telefonía móvil.
Mediante el uso de TDMA se divide un único canal de frecuencia de radio en varias ranuras de tiempo (seis en D-AMPS y PCS, ocho en GSM). A cada persona que hace una llamada se le asigna una ranura de tiempo específica para la transmisión, lo que hace posible que varios usuarios utilicen un mismo canal simultáneamente sin interferir entre sí.
Existen varios estándares digitales basados en TDMA, tal como TDMA D-AMPS (Digital-Advanced Mobile Phone System), TDMA D-AMPS-1900, PCS-1900 (Personal Communication Services), GSM (Global System for Mobile Communication, en el que se emplea junto con saltos en frecuencia o frequency hopping ), DCS-1800 (Digital Communications System) y PDC (Personal Digital Cellular).
(W)CDMA: acceso múltiple por división de códigos
Uno de los puntos más importantes de un sistema móvil es la manera en cómo se accede al medio de comunicación –que es compartido entre todos los usuarios–, un conjunto de técnicas a las que se las conocen como de “acceso múltiple”. Múltiple significa que muchos usuarios pueden estar hablando simultáneamente; es decir, una gran cantidad de abonados a un servicio móvil comparte un conjunto de canales de radio y cualquier usuario puede optar frente a los demás para acceder a cualquiera de los canales disponibles. Un canal de radio puede ser visto como una porción del espectro radioeléctrico, que es asignado temporalmente para un propósito especifico, tal como una llamada telefónica. Una técnica de acceso múltiple define como se divide el espectro de frecuencias en canales y como los canales son asignados a los múltiples usuarios en el sistema.
Las técnicas de acceso múltiple se utilizan en el ambiente de las comunicaciones para que varios dispositivos (ordenadores, teléfonos, emisores, etc.) puedan acceder al medio o canal de comunicación de manera ordenada (tanto vía radio como por cable, por ejemplo en una LAN Ethernet); sin ellas las comunicaciones entre dispositivos serían un caos. Las técnicas de acceso múltiple permiten compartir un mismo canal de comunicación entre varios usuarios.
Básicamente, existen tres tipos de técnicas de acceso: FDMA (Frequency Division Multiple Access),TDMA (Time Division Multiple Access) y CDMA (Code Division Multiple access). La primera generación (1G) de telefonía celular empleó la técnica FDMA, que asigna a cada usuario, en las bandas de 800 y 900 MHz, una frecuencia de 25 y 30 kHz de ancho de banda en el sistema analógico ETAC y AMPS, respectivamente. Como el espectro a utilizar es limitado, solo se puede asignar un número fijo de usuarios, por lo que al incorporarse más usuarios al sistema se empezaron a bloquear los canales.
La segunda generación (2G) se caracteriza por ser digital y emplear la técnica TDMA. Este sistema de acceso múltiple divide cada canal de frecuencia en ranuras de tiempo (time slots) que se asignan a las conversaciones, lo que permite multiplicar el número de usuarios que se pueden conectar al sistema. En Estados Unidos esta técnica es conocida también como IS-54, y fue adoptada en 1991 por la TIA (Telecommunications Industry Association). En Europa y en gran parte del mundo, el sistema más conocido de este tipo es GSM, norma presente en tres de cada cuatro móviles (más de 800 millones de usuarios en todo el mundo a mediados de 2002) y que, con la introducción de WAP para acceso a contenidos de Internet y GPRS para aumentar la velocidad y la eficiencia en la utilización del canal radio, se presenta como la generación intermedia (2.5G).
La tercera técnica, conocida como CDMA (Code Division Multiple Access), asigna códigos a todos los usuarios compartiendo un mismo espectro de frecuencias, lo que incrementa considerablemente el número de ellos por estación base de radio. Una variante de esta técnica es la conocida como WCDMA (Wideband CDMA), utilizada en el sistema UMTS (Universal Mobile Telecommunications System) de tercera generación, uno de los cinco contemplados dentro de la familia IMT-2000 propuesta por la ITU (International Telecommunications Union).
Características
CDMA es un termino genérico que define una interfaz de aire inalámbrica basada en la tecnología de espectro extendido (Spread Spectrum). Para telefonía celular, CDMA es una técnica de acceso múltiple especificada por la TIA como IS-95. En marzo de 1992, la TIA estableció el subcomité TR 45.5 con la finalidad de desarrollar un estándar de telefonía celular digital con espectro extendido, que fue aprobado finalmente en julio de 1993.
Los sistemas IS-95 dividen el espectro en portadoras de 1,25 MHz (mientras que WCDMA lo hace en una portadora única de 5 MHz). Unos de los aspectos únicos de CDMA es que, a pesar de que existe un número limitado de llamadas telefónicas que pueden ser atendidas por un operador de servicios de telefonía, éste no es un número fijo sino que la capacidad del sistema depende de muchos factores.
Cada dispositivo que utiliza CDMA está programado con un pseudocódigo, que se usa para extender –expandir– una señal de baja potencia sobre un espectro de frecuencia amplio. La estación base utiliza el mismo código en forma invertida (todos los ceros son unos y los unos ceros) para reconstruir la señal original. Todos los otros códigos permanecen extendidos, indistinguibles del ruido de fondo, y de esta manera se consigue una mayor eficiencia en la utilización del espectro radioeléctrico y una mayor seguridad en la comunicación, realizándose, eso sí, un control de potencia, en lugar de un control de frecuencia, ya que esta es única para todos.
Hoy en día existen muchas variantes, pero el CDMA original es conocido como cdmaOne bajo una marca registrada de la empresa estadounidense Qualcomm, que evoluciona hacia cdma2000. A CDMA se le caracteriza por su alta capacidad y celdas de radio pequeñas, que emplea espectro extendido y un esquema de codificación especial; lo mejor de todo es que resulta muy eficiente en potencia.
CDMA fue introducido en 1995 y hoy en día es el segundo sistema digital en número de suscriptores, por detrás de GSM. Hoy está en uso en 50 países con más de 120 redes que dan servicio a unos 120 millones de personas, básicamente en el continente americano, aunque también existen algunas redes en Europa del Este, Oriente Medio y África. WCDMA se está desplegando sobre todo en Europa y en Japón.
Básicamente, existen tres tipos de técnicas de acceso: FDMA (Frequency Division Multiple Access),TDMA (Time Division Multiple Access) y CDMA (Code Division Multiple access). La primera generación (1G) de telefonía celular empleó la técnica FDMA, que asigna a cada usuario, en las bandas de 800 y 900 MHz, una frecuencia de 25 y 30 kHz de ancho de banda en el sistema analógico ETAC y AMPS, respectivamente. Como el espectro a utilizar es limitado, solo se puede asignar un número fijo de usuarios, por lo que al incorporarse más usuarios al sistema se empezaron a bloquear los canales.
La segunda generación (2G) se caracteriza por ser digital y emplear la técnica TDMA. Este sistema de acceso múltiple divide cada canal de frecuencia en ranuras de tiempo (time slots) que se asignan a las conversaciones, lo que permite multiplicar el número de usuarios que se pueden conectar al sistema. En Estados Unidos esta técnica es conocida también como IS-54, y fue adoptada en 1991 por la TIA (Telecommunications Industry Association). En Europa y en gran parte del mundo, el sistema más conocido de este tipo es GSM, norma presente en tres de cada cuatro móviles (más de 800 millones de usuarios en todo el mundo a mediados de 2002) y que, con la introducción de WAP para acceso a contenidos de Internet y GPRS para aumentar la velocidad y la eficiencia en la utilización del canal radio, se presenta como la generación intermedia (2.5G).
La tercera técnica, conocida como CDMA (Code Division Multiple Access), asigna códigos a todos los usuarios compartiendo un mismo espectro de frecuencias, lo que incrementa considerablemente el número de ellos por estación base de radio. Una variante de esta técnica es la conocida como WCDMA (Wideband CDMA), utilizada en el sistema UMTS (Universal Mobile Telecommunications System) de tercera generación, uno de los cinco contemplados dentro de la familia IMT-2000 propuesta por la ITU (International Telecommunications Union).
Características
CDMA es un termino genérico que define una interfaz de aire inalámbrica basada en la tecnología de espectro extendido (Spread Spectrum). Para telefonía celular, CDMA es una técnica de acceso múltiple especificada por la TIA como IS-95. En marzo de 1992, la TIA estableció el subcomité TR 45.5 con la finalidad de desarrollar un estándar de telefonía celular digital con espectro extendido, que fue aprobado finalmente en julio de 1993.
Los sistemas IS-95 dividen el espectro en portadoras de 1,25 MHz (mientras que WCDMA lo hace en una portadora única de 5 MHz). Unos de los aspectos únicos de CDMA es que, a pesar de que existe un número limitado de llamadas telefónicas que pueden ser atendidas por un operador de servicios de telefonía, éste no es un número fijo sino que la capacidad del sistema depende de muchos factores.
Cada dispositivo que utiliza CDMA está programado con un pseudocódigo, que se usa para extender –expandir– una señal de baja potencia sobre un espectro de frecuencia amplio. La estación base utiliza el mismo código en forma invertida (todos los ceros son unos y los unos ceros) para reconstruir la señal original. Todos los otros códigos permanecen extendidos, indistinguibles del ruido de fondo, y de esta manera se consigue una mayor eficiencia en la utilización del espectro radioeléctrico y una mayor seguridad en la comunicación, realizándose, eso sí, un control de potencia, en lugar de un control de frecuencia, ya que esta es única para todos.
Hoy en día existen muchas variantes, pero el CDMA original es conocido como cdmaOne bajo una marca registrada de la empresa estadounidense Qualcomm, que evoluciona hacia cdma2000. A CDMA se le caracteriza por su alta capacidad y celdas de radio pequeñas, que emplea espectro extendido y un esquema de codificación especial; lo mejor de todo es que resulta muy eficiente en potencia.
CDMA fue introducido en 1995 y hoy en día es el segundo sistema digital en número de suscriptores, por detrás de GSM. Hoy está en uso en 50 países con más de 120 redes que dan servicio a unos 120 millones de personas, básicamente en el continente americano, aunque también existen algunas redes en Europa del Este, Oriente Medio y África. WCDMA se está desplegando sobre todo en Europa y en Japón.
15º Hito Clave: Hedy Lamarr, la estrella de Hollywood que inventó la tecnología precursora del Wifi
El año pasado se celebró el centenario de Hedy Lamarr, la “mujer más bella de la historia del cine” y la inventora del sistema de comunicaciones denominado “técnica de transmisión en el espectro ensanchado” en el que se basan todas las tecnologías inalámbricas de que disponemos en la actualidad. Actriz, ingeniera de telecomunicaciones e inventora cuyo glamour eclipsó sus otras facetas.
Hedy Lamarr nació en Viena el 9 de noviembre de 1914 como Hedwig Eva Maria Kiesler. Fue la única hija de un banquero de Lemberg y una pianista de Budapest que, aún siendo de origen judío, se habían criado en el catolicismo. En el colegio, destacó por su brillantez intelectual siendo considerada por sus profesores como superdotada. En casa, creció escuchando las interpretaciones de su madre al piano y ella misma, desde pequeña, tocó este instrumento a la perfección. Compleja e inquieta, abandonó los estudios de ingeniería, decidida a cumplir el sueño de ser actriz. Su descubridor, el empresario y director de teatro y cine Max Reinhardt, la llevó a Berlín para que se formase en interpretación, tras lo cual, regresaron a Viena para empezar a trabajar en la industria del cine.
La película que la llevó al estrellato en 1932, no pudo ser más polémica. Éxtasis, filmada en Checoslovaquia bajo la dirección de Gustav Machaty, fue el primer film en mostrar el rostro de una actriz, completamente desnuda, durante un orgasmo. Fue tachado de escándalo sexual y se prohibió su proyección en las salas de cine. Le llovieron censuras y condenas, incluida la del Vaticano. Los padres de Hedwig, al ver a su hija desnuda en la pantalla, quedaron horrorizados. Pero no todos los que lograron visionar la película reaccionaron del mismo modo. Fritz Mandl, magnate de la empresa armamentística, quedó embelesado de la belleza de la joven y solicitó permiso a su padre para cortejarla. El matrimonio, todavía avergonzado por el comportamiento de su hija, aceptó encantado la proposición de cortejo del empresario y, más tarde, su petición de mano. Creyeron que siendo este bastante mayor que Hedwig, la pondría en vereda devolviéndola al buen camino. Ignoraron la voluntad de la muchacha, que deseaba seguir adelante con su carrera artística. La obligaron a casarse con Firtz condenándola a una temporada en el infierno.
Firtz Mandl era extremadamente celoso y trató de hacerse con todas las copias de Éxtasis. Sólo le permitía desnudarse o bañarse si él estaba presente y la obligaba a acompañarle a todos los actos sociales y cenas de negocios para no perderla de vista. Hedwig se vio forzada a transformarse en lo que siempre había detestado, en el trofeo de exhibición de un tirano. Muchos eran los que pensaban que tenía todo lo que uno podía desear, que envidiaban su jaula de oro. Vivía rodeada de lujo en el famoso castillo de Salzburgo pero era una esclava que no podía hacer nada sin la autorización de Mandl. Hastiada del vacio insoportable en el que se había convertido su vida, retomó la carrera de ingeniería. En las reuniones de trabajo de Mandl a las que se la forzó a asistir, aprovechó para aprender y recopilar información sobre las características de la última tecnología armamentística nazi. Su marido era uno de los hombres más influyentes de Europa y, antes de la Segunda Guerra Mundial, se dedicó a surtir el arsenal de Hitler y Mussolini. Por ello, fue considerado como ario honorario por los gobiernos fascistas pese a ser de origen judío.
La vigilancia continua llegó a resultarle tan insoportable que decidió huir. Estando Mandl en un viaje de negocios, escapó por la ventana de los servicios de un restaurante y huyó en automóvil hacia Paris. No llevó más ropa que la puesta. Sólo cogió las joyas para conseguir el dinero que le permitiese alejarse de allí. La fuga fue angustiosa, los guardaespaldas de su marido la persiguieron durante días. Finalmente, logró llegar a Londres y embarcarse en el trasatlántico Normandie con destino a Estados Unidos. Allí coincidió con un viajero muy especial, el productor de películas Louis B. Mayer que le ofreció trabajo antes de llegar a puerto. La única petición era que se cambiase el nombre para que no se la relacionase con la película Éxtasis. De los nombres que le eligieron se quedó con el de Hedy Lamarr en memoria de la actriz del cine mudo Bárbara La Marr. Sobre las aguas del Atlántico Hedwig firmó su contrato con la Metro-Golwyn-Mayer. Hedy Lamarr, la actriz más glamurosa sobre las pantallas, había nacido.
Y esa nueva actriz se instaló en Hollywood y trabajó con King Vidor (Camarada X, Cenizas de amor), Jacques Tourneur (Noche en el alma, 1944), Robert Stevenson (Pasión que redime, 1947) y Cecil B. DeMille (Sansón y Dalila, 1949). Protagonizó una treintena de películas pero no tuvo demasiado ojo al elegirlas. Sin ir más lejos, rechazó dos obras de arte como Luz de Gas y Casablanca. Tampoco tuvo oportunidad de interpretar a Escarlata en Lo que el viento se llevó, quedándose a las puertas. Aún así, su imagen deslumbrante la convirtió en la verdadera estrella emergente de los años 30.
En 1941 medio mundo estaba en guerra y el otro medio estaba a punto de entrar en ella. Con el nuevo planteamiento estratégico de la Blitzkrieg (guerra relámpago) basado en el empleo masivo y coordinado de la aviación como artillería volante y las unidades acorazadas como caballería mecanizada, los ejércitos alemanes habían barrido las fuerzas polacas y francesas de forma rotunda y tremendamente rápida. Ahora el peligro de una más que posible invasión se cernía sobre la Gran Bretaña, y después… ¿quien podría pararlos?
Hedy conocía de cerca las prácticas de gobierno de Hitler y alimentaba un profundo rencor hacia los nazis, por lo que decidió aportar su contribución personal al esfuerzo de guerra de los aliados. En primer lugar ofreció su trabajo y su preparación como ingeniera al recientemente creado National Inventors Council pero su oferta fue amablemente rechazada por las autoridades, que le aconsejaron que basase su participación en su físico y en su éxito como actriz, promoviendo la venta de bonos de guerra. Lejos de desanimarse u ofenderse, consultó a su representante artístico e idearon una campaña en la que cualquiera que adquiriese 25.000 o más dólares en bonos, recibiría un beso de la actriz. En una sola noche vendió 7 millones de dólares.
Pero Hedy no estaba satisfecha, deseaba aportar sus conocimientos a fines técnicos que mejorasen las oportunidades de los ejércitos aliados, y examinó qué podría hacerse en los campos más sensibles a la innovación. El área de las comunicaciones era especialmente crítica en una guerra de movimiento y la radio resultaba el medio de comunicación más adecuado. Por otra parte, también se estaban experimentando sistemas de guiado de armas por control remoto mediante señales de radio. Y el uso de estas señales radioeléctricas presentaba dos problemas fundamentales:
- En primer lugar, las transmisiones eran absolutamente vulnerables. Debido a la duración de los mensajes, el enemigo podía realizar un barrido de frecuencia en diferentes bandas y tener tiempo de localizar la emisión. Una vez hallada, era fácil determinar el lugar de origen sintonizando, a la misma longitud de onda, dos o más receptores con antenas direccionales, situándolos en diferentes emplazamientos y localizando la emisora por triangulación. Conseguido esto, podían generarse interferencias que impidiesen la recepción, o atacar directamente el transmisor según conviniese. Es obvio el riesgo que esto representaba para los operadores de las estaciones, especialmente si se trataba de espías situados en territorio enemigo.
- El segundo aspecto negativo era la propia inseguridad en la recepción de la señal de radio, no solo por las interferencias intencionadas que ya se han apuntado, sino por la afectación de la propagación de las ondas debida a causas meramente naturales, como accidentes geográficos, meteorología, reflexiones en la alta atmósfera, etc.
Hedy Lamarr se interesó por los temas de la defensa nacional a raíz del trágico hundimiento de un barco lleno de refugiados por un submarino alemán en 1940, cuando los Estados Unidos aún permanecían neutrales. El sistema concebido por Hedy partía de una idea tan simple como eficaz. Se trataba de transmitir los mensajes u órdenes de mando fraccionándolos en pequeñas partes, cada una de las cuales se transmitiría secuencialmente cambiando de frecuencia cada vez, siguiendo un patrón pseudoaleatorio. De este modo, los tiempos de transmisión en cada frecuencia eran tan cortos y además estaban espaciados de forma tan irregular, que era prácticamente imposible recomponer el mensaje si no se conocía el código de cambio de canales.
El mensaje o la orden (en caso de control remoto) utilizaba un sistema binario, modulando la frecuencia portadora con una señal de baja frecuencia fija, de 100 o 500 Hz, lo que permitía añadir filtros sintonizados a estas frecuencias en el receptor para eliminar las señales parásitas mejorando la calidad de la recepción. El receptor estaba sintonizado a las frecuencias elegidas para la emisión y tenía el mismo código de cambio, saltando de frecuencia sincrónicamente con el transmisor. Este procedimiento se conoce ahora como “transmisión en espectro ensanchado por salto de frecuencia”, en inglés Frequency Hopping Spread Spectrum (FHSS). Las principales ventajas que presentan las señales de este tipo de sistemas es que son altamente inmunes a ruidos e interferencias y difíciles de reconocer e interceptar. Las transmisiones de este tipo suenan como ruidos de corta duración, o como un incremento en el ruido en el receptor, excepto para el que esté usando la secuencia de salto que se está empleando en el transmisor. Además, estas transmisiones pueden compartir una banda de frecuencia con muchos tipos de transmisiones convencionales con una mínima interferencia. No es necesario que las frecuencias de emisión sean contiguas.
El transmisor y el receptor eran asequibles a la tecnología de la época, basada en componentes electromecánicos y válvulas de vacío, aunque resultaban voluminosos, y frágiles. Hedy no tenía ningún problema en diseñar y construir ambos aparatos, pero quedaba pendiente el delicado problema de la sincronización. Necesitaba la colaboración de alguien muy experto y la casualidad vino en su ayuda. En una cena conoció a George Antheil, pianista y compositor norteamericano, admirador de Stravinsky e inmerso en los movimientos dadaísta y futurista. Años atrás, había protagonizado un escándalo mayúsculo el 4 de octubre de 1923, en el Teatro de los Campos Elíseos de París, con el estreno de su obra Ballet Mécanique. La “orquesta” de este ballet estuvo compuesta por dos pianos, dieciséis pianolas sincronizadas, tres xilofones, siete campanas eléctricas, tres hélices de avión y una sirena. A pesar del apoyo de figuras como Erik Satie, Jean Cocteau, Man Ray y James Joyce, la reacción mayoritaria del público fue de un rechazo tan violento, que numerosas butacas fueron arrancadas y echadas al foso de la orquesta. El estreno, un año después, en el Carnegie Hall de New York constituyó otro rotundo fracaso, tras el cual el compositor desistió de seguir representándola y se dedicó a componer y arreglar bandas sonoras.
Dejando aparte las opiniones de los musicólogos, lo cierto es que Antheil había logrado sincronizar sin cables 16 pianolas que formaban parte de la orquesta mecánica, y esta precisión es justamente lo que Hedy estaba buscando. Ambos trabajaron intensamente durante algo más de seis meses para encontrar la solución. Emplearían dos pianolas, una en la estación emisora y otra en la receptora y codificarían los saltos de frecuencia de acuerdo con los taladros longitudinales efectuados en la banda de papel, como en una pianola común. La secuencia de los saltos solo la conocería quien tuviese la clave, la melodía, lo que aseguraba el secreto de la comunicación. Los motores de arrastre de ambos dispositivos estaban sincronizados por sendos mecanismos de relojería de precisión y además el transmisor emitía periódicamente una señal de sincronismo para compensar cualquier desviación.
El 10 de junio de 1941 presentaron al registro la solicitud de patente: “SECRET COMMUNICATION SYSTEM. Filed June 10, 1941 2 Sheets-Sheet 2 Patented Aug. 111, 1942 SECRET COMMUNICATION SYSTEM Hedy Kiesler Markey, Los Angeles, and George Anthcil, Manhattan Beach, Calif. Application June 10, 1941, Serial No. 397,412”, que les fue concedida el 11 de agosto de 1942, cuando USA ya estaba en guerra con Japón y Alemania. Hedy firmó con su apellido de casada, Markey, que apenas utilizó durante un par de años.
Es de destacar que aunque la patente se titula “Sistema Secreto de Comunicación”, tanto el texto de la descripción como los dibujos se refieren a la aplicación concreta como control remoto del timón de un torpedo. En las reivindicaciones se amplía el ámbito a “un sistema secreto de comunicación (que consta de) una estación transmisora incluyendo medios para generar y transmitir ondas portadoras de una pluralidad de frecuencias...” sin concretar el tipo de modulación, lo que implica que puede emplearse para la transmisión de sonidos y mensajes hablados.
Otro aspecto curioso deriva del hecho de usar una cinta de pianola que permite grabar 88 señales, correspondientes a las 88 teclas del piano. Tal número resultaba innecesario y a los inventores se les ocurrió aprovechar los canales sobrantes, en todo o en parte, para crear falsas transmisiones para confundir al enemigo. Así, en el dibujo del transmisor, se representan 7 condensadores (24a a 24g) para poder transmitir en siete frecuencias, en tanto que en el receptor solo se dispone de 4 condensadores para sintonizar las frecuencias útiles. Los tres canales restantes emiten señales falsas, que no pueden ser sintonizadas por el receptor propio, y están destinadas al engaño del adversario. Esta característica se recoge en la reivindicación 6ª de la mencionada patente.
La patente interesó a los militares, pero suscitó diversas opiniones. La marina de EEUU presumió problemas en su mecanismo, que no era demasiado apto para ser colocado en un torpedo, concluyó que el sistema era excesivamente vulnerable, inadecuado y engorroso y archivó el proyecto. Lamarr y Antheil no insistieron, se olvidaron del tema y volvieron a la cinematografía.
Pero si bien la idea era difícil de llevar a la práctica a principios de los años 1940, el enorme progreso de la electrónica con la invención del transistor hizo factible su utilización. En 1957, ingenieros de la empresa estadounidense Silvania Electronics Systems Division desarrollaron el sistema patentado por Hedy y George, que fue adoptado por el gobierno para las transmisiones militares tres años después de caducar la patente. La primera aplicación conocida se produjo poco tiempo después, durante la crisis de los misiles de Cuba en 1962, en que la fuerza naval enviada por los Estados Unidos empleó la conmutación de frecuencias para el control remoto de boyas rastreadoras. Después de Cuba se adoptó la misma técnica en algunos dispositivos utilizados en la guerra del Vietnam y, más adelante, en el sistema norteamericano de defensa por satélite (Milstar). En la actualidad, muchos sistemas orientados a voz y datos, tanto civiles como militares emplean sistemas de espectro ensanchado (entre ellos todas las tecnologías inalámbricas de que disponemos en la actualidad, tanto la telefonía de tercera generación como el Wifi o el BlueTooth, se basan en el cambio aleatorio de canal) y cada vez se encuentran más aplicaciones en la transmisión de datos sin cable, campo en el que, en palabras de David Hugues (investigador e impulsor de una serie de proyectos que han empleado técnicas de FHSS en la Natural Science Foundation de EEUU), todavía no se han explorado todas sus posibilidades.
Aunque la actriz no consiguió ingresar ni un solo centavo por la patente, que caducó sin ser utilizada, no puede discutirse que fue la pionera en esta técnica. Los honores y el reconocimiento, como veremos, tardaron en llegar.
En los años que siguieron a la guerra, Hedy fundó su propia compañía cinematográfica con la que hizo y protagonizó algunas películas mediocres. Durante los descansos de los rodajes aprovechaba para seguir explorando su faceta de inventora que se mantuvo en secreto mientras fue una estrella de la Metro. Al parecer, se creía que podía perjudicar su imagen de diva. Cuando dejó la compañía, ya nadie la asociaba a ningún invento. El hecho de que el nombre que figuraba en la patente fuese Markey, que solo usó un par de años, tampoco ayudó a que la recordasen.
Su vida personal no fue afortunada. Sus seis fracasos matrimoniales (con Fritz Mandl, Gene Markey, Sir John Loder, Ted Stauffer, W. Howard Lee y Lewis J. Boles) junto al declive de su carrera cinematográfica la llevaron a un consumo masivo de pastillas y a una obsesión enfermiza por la cirugía estética. Se volvió cleptómana y protagonizó sonados escándalos al ser detenida en diversas ocasiones. Finalmente, se recluyó en su mansión de Miami para pasar los últimos años de su vida aislada de un mundo que la había marginado, que celebraba las nuevas aplicaciones de su invención sin siquiera nombrarla. Cuando llegaron al fin los reconocimientos como inventora, ya era demasiado tarde. Su amargura había crecido hasta el punto que cuando le comunicaron la concesión del Pioner Award se quedó imperturbable y comentó escuetamente. “Ya era hora” (it’s about time). La ceremonia de entrega tuvo lugar en San Francisco el 12 de Marzo de 1997 y asistió en su representación, su hijo Antony Loder. Ese mismo año, junto a Antheil, recibió el Bulbie Gnass Spirit of Achievement Award, así como una distinción honorífica concedida por el proyecto Milstar. En Octubre de 1998, la Asociación Austriaca de Inventores y Titulares de Patentes le concedió la medalla Viktor Kaplan y, como colofón, en el verano de 1999, el Kunsthalle de Viena organizó un proyecto multimediático de homenaje a la actriz e inventora más singular del siglo XX.
Su historia acabó el 19 de enero de 2000 en Caselberry. Como última voluntad pidió que parte de sus cenizas se esparcieran por los bosques de Viena, cerca de su casa natal. La herencia, valorada en 3 millones de dólares, fue repartida entre sus dos hijos menores, su secretaria personal y un policía local que la acompañó y ayudó durante su última etapa. Después de su muerte, su hijo cumplió con sus deseos. La mitad de las cenizas cubrió los bosques vieneses mientras que la otra fue entregada al consistorio vienés para que las enterrasen en un memorial. Pero estos pidieron 10000 euros por la lápida, precio que el hijo de Lamarr no podía costear. Finalmente, catorce años después de su muerte, el pasado 7 de noviembre, recibió su merecido homenaje en Viena.
En Austria, el Día del Inventor se celebra el 9 de noviembre en su honor.
16º Hito Clave: el primer circuito integrado de la historia y Jack Kilby
La fotografía que tenéis sobre estas líneas tiene un protagonista muy especial: el primer circuito integrado de la historia. Fue ideado por Jack Kilby, un ingeniero electrónico que a mediados de 1958 entró a trabajar en Texas Instruments y que, al no tener derecho a vacaciones, dedicó ese verano a tratar de hallar una solución para ‘la tiranía de los números‘, un problema que por aquél entonces preocupaba sobremanera a sus colegas de profesión, que veían cómo los diseños que realizaban necesitaban cada vez de más y más componentes, lo que en la práctica los hacía muy complejos y provocaba que, entre otras cosas, se multiplicaran los fallos en algunas de las miles de soldaduras que en ocasiones se debían realizar.
Finalmente, Kilby concluyó que la solución a todos los males pasaba por incluir los componentes de los circuitos en una única pieza de material semiconductor, ya que de esta manera se minimizarían considerablemente los errores que ocasionaban, por ejemplo, las malas conexiones.
De inmediato se puso manos a la obra y el 12 de septiembre de ese mismo año ya tuvo listo un primer prototipo construido sobre una pieza de germanio que presentó a la dirección de la compañía. Tras mostrárselo, conectó al circuito integrado un osciloscopio y en la pantalla de éste último apareció una onda sinusoidal, demostrando que su invento funcionaba correctamente.
Sólo unos meses después, consiguió la patente número 3.138.743 que reconocía su trabajo. Hubo de pasar más, mucho más tiempo, para que sus méritos se vieran recompensados como merecían: en el año 2000, cuando ya contaba con 77 años, Jack Kilby fue galardonado con el Premio Nobel de Física.
¿Cómo se fabrican los circuitos integrados?
Tejas, el lugar de nacimiento del chip de silicio:
Para los más perezosos, este videoclip de poco más de 2 minutos:
Para los más interesados:
De la arena al producto final hay muchos pasos complejos involucrados. De hecho, es absolutamente increíble que los productos semiconductores funcionen en lo absoluto.
Paso 1: Arena
En alrededor del 25% (en masa), el silicio es el segundo producto químico más frecuente en la corteza terrestre (detrás del oxígeno). La arena tiene un alto porcentaje de dióxido de silicio (SiO2), que es el ingrediente base para la fabricación de semiconductores.
Paso 1: Arena
En alrededor del 25% (en masa), el silicio es el segundo producto químico más frecuente en la corteza terrestre (detrás del oxígeno). La arena tiene un alto porcentaje de dióxido de silicio (SiO2), que es el ingrediente base para la fabricación de semiconductores.
Paso 2: Silicio derretido
El silicio es purificado en varios pasos para alcanzar el silicio de grado electrónico utilizado en semiconductores. En última instancia, llega en forma de lingotes monocristalinos de cerca de 12" de diámetro (300 mm hoy, los lingotes eran menores, de 8" y 200 mm de diámetro - las primeras obleas en la década de 1970 fueron de 2" de diámetro, o 50 mm).
La pureza de este nivel de refinamiento es de aproximadamente una parte por billón, es decir, sólo un átomo de indeseable por mil millones de átomos de silicio. El lingote pesa alrededor de 220 libras, y es un 99,9999% de pureza en una estilizada columna vertical de material de aspecto cristalino.
Paso 3: Corte
El lingote se corta con una sierra muy fina en láminas de silicio individuales (llamadas waffers u obleas), cada una de los que luego se pule a un perfecto espejo de superficie lisa. Sobre esta superficie de la oblea totalmente lisa es donde los cables de cobre diminutos son depositados en los diversos pasos siguientes.
El silicio es purificado en varios pasos para alcanzar el silicio de grado electrónico utilizado en semiconductores. En última instancia, llega en forma de lingotes monocristalinos de cerca de 12" de diámetro (300 mm hoy, los lingotes eran menores, de 8" y 200 mm de diámetro - las primeras obleas en la década de 1970 fueron de 2" de diámetro, o 50 mm).
La pureza de este nivel de refinamiento es de aproximadamente una parte por billón, es decir, sólo un átomo de indeseable por mil millones de átomos de silicio. El lingote pesa alrededor de 220 libras, y es un 99,9999% de pureza en una estilizada columna vertical de material de aspecto cristalino.
Paso 3: Corte
El lingote se corta con una sierra muy fina en láminas de silicio individuales (llamadas waffers u obleas), cada una de los que luego se pule a un perfecto espejo de superficie lisa. Sobre esta superficie de la oblea totalmente lisa es donde los cables de cobre diminutos son depositados en los diversos pasos siguientes.
Paso 2: Silicio derretido
El silicio es purificado en varios pasos para alcanzar el silicio de grado electrónico utilizado en semiconductores. En última instancia, llega en forma de lingotes monocristalinos de cerca de 12" de diámetro (300 mm hoy, los lingotes eran menores, de 8" y 200 mm de diámetro - las primeras obleas en la década de 1970 fueron de 2" de diámetro, o 50 mm).
La pureza de este nivel de refinamiento es de aproximadamente una parte por billón, es decir, sólo un átomo de indeseable por mil millones de átomos de silicio. El lingote pesa alrededor de 220 libras, y es un 99,9999% de pureza en una estilizada columna vertical de material de aspecto cristalino.
Paso 3: Corte
El lingote se corta con una sierra muy fina en láminas de silicio individuales (llamadas waffers u obleas), cada una de los que luego se pule a un perfecto espejo de superficie lisa. Sobre esta superficie de la oblea totalmente lisa es donde los cables de cobre diminutos son depositados en los diversos pasos siguientes.
El silicio es purificado en varios pasos para alcanzar el silicio de grado electrónico utilizado en semiconductores. En última instancia, llega en forma de lingotes monocristalinos de cerca de 12" de diámetro (300 mm hoy, los lingotes eran menores, de 8" y 200 mm de diámetro - las primeras obleas en la década de 1970 fueron de 2" de diámetro, o 50 mm).
La pureza de este nivel de refinamiento es de aproximadamente una parte por billón, es decir, sólo un átomo de indeseable por mil millones de átomos de silicio. El lingote pesa alrededor de 220 libras, y es un 99,9999% de pureza en una estilizada columna vertical de material de aspecto cristalino.
Paso 3: Corte
El lingote se corta con una sierra muy fina en láminas de silicio individuales (llamadas waffers u obleas), cada una de los que luego se pule a un perfecto espejo de superficie lisa. Sobre esta superficie de la oblea totalmente lisa es donde los cables de cobre diminutos son depositados en los diversos pasos siguientes.
Paso 4: Foto-resistivo y exposición
Una líquido fotoresistente se vierte sobre la oblea, mientras que gira a alta velocidad (similar a los materiales utilizados en la fotografía convencional). Este giro deposita una capa delgada y homogénea sobre toda la superficie.
Una líquido fotoresistente se vierte sobre la oblea, mientras que gira a alta velocidad (similar a los materiales utilizados en la fotografía convencional). Este giro deposita una capa delgada y homogénea sobre toda la superficie.
A partir de ahí, un láser ultravioleta se dispara a través de máscaras y una lente (que hacen que una imagen enfocada 4x más pequeña que la máscara), causando pequeñas líneas UV sobre la superficie iluminada. En todas partes donde estas líneas dan contra el resistente, una reacción química se lleva a cabo lo que hace esas partes solubles.
Paso 5: Lavado, grabado
El material foto-resistente soluble se disuelve por completo por un solvente químico. A partir de ahí, un químico se utiliza para disolver parcialmente (o grabar) una pequeña cantidad de material semiconductor pulido (el sustrato). Finalmente, el resto del material foto-resistente se extrae a través de un proceso de lavado similar, dejando al descubierto la superficie grabada de la oblea.
Paso 5: Lavado, grabado
El material foto-resistente soluble se disuelve por completo por un solvente químico. A partir de ahí, un químico se utiliza para disolver parcialmente (o grabar) una pequeña cantidad de material semiconductor pulido (el sustrato). Finalmente, el resto del material foto-resistente se extrae a través de un proceso de lavado similar, dejando al descubierto la superficie grabada de la oblea.
Paso 6: Construyendo las capas
Con el fin de crear los cables de cobre diminutos, que en última instancia, transmiten electricidad a / desde varios conectores del chip, se añade otra capa foto-resistente, se exponen y se lavan. A continuación, un proceso llamado implantación de iones se utiliza para dopar y proteger los lugares donde se depositan los iones de cobre de una solución de sulfato de cobre en un proceso llamado galvanización.
Con el fin de crear los cables de cobre diminutos, que en última instancia, transmiten electricidad a / desde varios conectores del chip, se añade otra capa foto-resistente, se exponen y se lavan. A continuación, un proceso llamado implantación de iones se utiliza para dopar y proteger los lugares donde se depositan los iones de cobre de una solución de sulfato de cobre en un proceso llamado galvanización.
En las distintas etapas de estos procesos, materiales adicionales se agregan, exponen, lavan / graban y pulen. Este proceso se repite seis veces para los procesos de seis capas, que al parecer es lo que Intel utiliza para su proceso de compuertas de metal de 45nm high-k.
El producto final se parece a un juego de plaza, una serie de barras de cobre diminutos que transportan la electricidad. Algunos de estos están conectados, algunos estan exactamente una distancia determinada distancia de los demás. Y todos ellos se utilizan para un propósito: transmitir electrones, blandiendo sus efectos electromagnéticos de una manera particular para llevar a cabo lo que podríamos llamar "trabajo útil" (como la adición de dos números a tasas extremadamente altas de la velocidad, la esencia misma de informática de hoy en día).
El producto final se parece a un juego de plaza, una serie de barras de cobre diminutos que transportan la electricidad. Algunos de estos están conectados, algunos estan exactamente una distancia determinada distancia de los demás. Y todos ellos se utilizan para un propósito: transmitir electrones, blandiendo sus efectos electromagnéticos de una manera particular para llevar a cabo lo que podríamos llamar "trabajo útil" (como la adición de dos números a tasas extremadamente altas de la velocidad, la esencia misma de informática de hoy en día).
Este proceso de múltiples capas se repite en cada punto en la superficie de la oblea donde los chips se pueden hacer. Esto incluye las que están parcialmente fuera del borde de la oblea. ¿Por qué perder ese espacio? Es debido a que los fabricantes de chips aprendieron temprano que si no se llenan en estas áreas con (obviamente) de material semiconductor perdido, los chips cercanos también tuvieron un mayor índice de fracaso.
Paso 7: Testeo
Una vez que todas las capas de metal se construyen, y los circuitos (transistores) todos son creados es el momento de las pruebas. Un dispositivo con un montón de dientes se posa en la parte superior del chip, conectando cables microscópicos de la superficie del chip. Cada contacto completa una conexión eléctrica dentro del chip, y simula cómo va a funcionar en forma definitiva una vez empaquetados en productos de consumo final.
Paso 7: Testeo
Una vez que todas las capas de metal se construyen, y los circuitos (transistores) todos son creados es el momento de las pruebas. Un dispositivo con un montón de dientes se posa en la parte superior del chip, conectando cables microscópicos de la superficie del chip. Cada contacto completa una conexión eléctrica dentro del chip, y simula cómo va a funcionar en forma definitiva una vez empaquetados en productos de consumo final.
Una serie de señales de prueba son enviadas al chip, sin dependencia de los resultados este devolviendo. Este nivel de prueba incluye no sólo las habilidades tradicionales de cómputo, sino también el diagnóstico interno, junto con lecturas de voltaje, las secuencias en cascada (¿fluyen los datos como deberían?), etc. Y como sea que el chip haya respondido a esta prueba, eso es lo que se almacena en una base de datos asignada específicamente para ese chip.
Este proceso se repite para cada chip en la superficie de toda la oblea, mientras todos los chips están todavía en la superficie.
Paso 8: Separación
Una sierra pequeña con punta de diamante se utiliza para cortar la oblea de silicio en sus chips. La base de datos obtenidos en el paso 7 se utiliza para determinar qué chips de corte de la oblea se mantienen, y que se descartan. Los que producen "los resultados deseados" en la prueba de Step 7 se mantienen, y el resto se desechan.
Paso 9: Packaging
En este punto, todas chips funcionales se ponen en un paquete físico. Es importante señalar que aunque hayan tenido un testeo preliminar y funcionaran correctamente, esto no quiere decir que sean CPUs buenas.
Este proceso se repite para cada chip en la superficie de toda la oblea, mientras todos los chips están todavía en la superficie.
Paso 8: Separación
Una sierra pequeña con punta de diamante se utiliza para cortar la oblea de silicio en sus chips. La base de datos obtenidos en el paso 7 se utiliza para determinar qué chips de corte de la oblea se mantienen, y que se descartan. Los que producen "los resultados deseados" en la prueba de Step 7 se mantienen, y el resto se desechan.
Paso 9: Packaging
En este punto, todas chips funcionales se ponen en un paquete físico. Es importante señalar que aunque hayan tenido un testeo preliminar y funcionaran correctamente, esto no quiere decir que sean CPUs buenas.
El proceso de envasado físico consiste en colocar el chip de silicio sobre un material de sustrato verde, al que pequeñas hebras de oro se conectan a los pines del chip o la matriz de contactos, que ven en la parte inferior del paquete. En la parte superior se coloca un difusor de calor. Esto se ve como la superficie de metal en la parte superior de un chip. Cuando esta terminado, el CPU se ve como un procesador tradicional de los que los consumidores finales compran.
Nota: El disipador de calor de metal es un componente crucial en los modernos semiconductores de alta velocidad. En el pasado, se utilizaba una tapa de cerámica sin refrigeración activa. No fue sino hasta el periodo de los 80386 y posteriores, junto con algunos 8086 y 80286 de velocidad extremadamente alta(modelos de 100 MHz), que el enfriamiento activo se requierio. Antes de eso, los chips tenian tan pocos transistores (el original 8086 tenía 29.000, las CPUs de hoy tiene cientos de millones) que no generaban suficiente calor como para requerir refrigeración activa. Para separar los mismos, estos chips de cerámica recientes fueron sellados con la advertencia: "disipador de calor necesario".
Las CPU modernas generan suficiente calor como para derretirse a sí mismas en unos pocos segundos. Sólo por tener el difusor de calor en contacto con un disipador de gran tamaño (y el ventilador) es que pueden operar por períodos largos como lo hacen.
Paso 10: Categorización
En este momento la CPU se parece a la que usted o yo compra. Sin embargo, hay un paso más complicado. Este último test de viabilidad se llama "binning" (categorización).
Nota: El disipador de calor de metal es un componente crucial en los modernos semiconductores de alta velocidad. En el pasado, se utilizaba una tapa de cerámica sin refrigeración activa. No fue sino hasta el periodo de los 80386 y posteriores, junto con algunos 8086 y 80286 de velocidad extremadamente alta(modelos de 100 MHz), que el enfriamiento activo se requierio. Antes de eso, los chips tenian tan pocos transistores (el original 8086 tenía 29.000, las CPUs de hoy tiene cientos de millones) que no generaban suficiente calor como para requerir refrigeración activa. Para separar los mismos, estos chips de cerámica recientes fueron sellados con la advertencia: "disipador de calor necesario".
Las CPU modernas generan suficiente calor como para derretirse a sí mismas en unos pocos segundos. Sólo por tener el difusor de calor en contacto con un disipador de gran tamaño (y el ventilador) es que pueden operar por períodos largos como lo hacen.
Paso 10: Categorización
En este momento la CPU se parece a la que usted o yo compra. Sin embargo, hay un paso más complicado. Este último test de viabilidad se llama "binning" (categorización).
En este proceso, se miden las características reales de la CPU. Elementos como voltaje, frecuencia, el rendimiento, la generación de calor, y otras características internas de funcionamiento de la caché, por ejemplo, son medidas.
Los mejores chips son generalmente agrupados como partes de más alta gama, que se venden no sólo con sus cachés completamente activadas, sino también como modelos de bajo voltaje y ultra-bajo voltaje. Nota: En base a la demanda del mercado, estos chips de gama más alta también se puede vender como piezas de menores prestaciones.
Los chips que no se desempeñan tan bien como los mejores se venden a menudo para los modelos de menor velocidad de clock, o como triple o dual-core (Phenom X3, Phenom X2) en lugar de su nativo de cuatro núcleos. Otros pueden tener la mitad de su caché deshabilitada (Celeron), etc.
Los mejores chips son generalmente agrupados como partes de más alta gama, que se venden no sólo con sus cachés completamente activadas, sino también como modelos de bajo voltaje y ultra-bajo voltaje. Nota: En base a la demanda del mercado, estos chips de gama más alta también se puede vender como piezas de menores prestaciones.
Los chips que no se desempeñan tan bien como los mejores se venden a menudo para los modelos de menor velocidad de clock, o como triple o dual-core (Phenom X3, Phenom X2) en lugar de su nativo de cuatro núcleos. Otros pueden tener la mitad de su caché deshabilitada (Celeron), etc.
Las diez primeras veces en la historia de la telefonía móvil
17º Hito Clave: La primera llamada y Martin Cooper
Con once patentes a sus espaldas y el mérito de haber concebido el primer teléfonos móvil moderno, Martin Cooper está considerado el padre de la telefonía móvil. Tal día como hoy de 1973, Cooper realizó la primera llamada desde un Motorola DynaTAC 8000x.
Cooper llamó al que, por aquel entonces, era su más directo competidor, el doctor Joel S. Engel, director de Bell Labs. La telefonía celular ya había sido inventada precisamente por la compañía Bell, pero hasta entonces estaba limitada a teléfonos para coche. Cooper introdujo el concepto de un número de teléfono asociado a una persona, no a un lugar. Su inspiración fue el comunicador del Capitán Kirk en Star Trek.
Un teléfono móvil no es nada sin una red a la que conectarse y esa es la crucial labor a la que se dedican muchas empresas a las que no siempre se les reconoce el mérito. La primera red telefónica del mundo fue puesta en servicio en 1979 por NTT en el área metropolitana de Japón. Eso convierte a la compañía japonesa en la primera operadora móvil del mundo.
A NTT le siguieron otras redes 1G en Dinamarca, Finlandia, Noruega y Suecia. La operadora Danesa NMT fue la primera en ofrecer roaming internacional en países adyacentes. En Estados Unidos la primera operadora fue Ameritech, con sede en Chicago y que comenzó a operar en 1983 con móviles Motorola DynaTAC.
Si las operadoras de telefonía son necesarias, pronto se hizo evidente que también era necesario un estándar tecnológico que pudieran compartir entre ellas. Ese estándar comenzó a desarrollarse en 1982 y no es otro que el GSM. El GSM debe su nombre al Groupe Special Mobile, un equipo que se creó ese año en la conferencia de Telecomunicaciones CEPT en París. Su objetivo era crear un estándar europeo de telecomunicaciones.
El GSM pronto se convirtió en estándar mundial y su arquitectura en celdas con reparto de frecuencias por países sentó las bases de la telefonía móvil tal y como la conocemos. Eso por no mencionar que todos los protocolos que han ido marcando las nuevas generaciones de telefonía (2G,EDGE 2.5G, UMTS 3G, y LTE) no son más que mejoras y añadidos sobre la misma plataforma GSM.
Tuvieron que pasar casi 20 años desde el DynaTAC 8000x para llegar al primer SMS de la historia. Lo envió el tres de diciembre de 1992 Neil Papworth, un joven ingeniero canadiense de 22 años, a su amigo Richard Jarvis.
El mensaje rezaba simplemente ‘Merry Christmas’ y fue enviado desde un ordenador y a través de la red de Vodafone. En 1993, Nokia fue la primera compañía en lograr móviles capaces de enviar y recibir mensajes de texto. En 1995 cada persona apenas enviaba 0,4 mensajes al mes desde su móvil. En 2010 se enviaban 193.000 por segundo. Los mensajes de texto supusieron la llegada de los teclados alfanuméricos y hasta dieron pie a un nuevo dialecto escrito.
En 1999 la operadora japonesa DoCoMo lanzó i-Mode, un conjunto de protocolos que permitían ver en la pantalla del móvil el contenido de páginas web especialmente adaptadas. En Europa esta tecnología se denominó Wireless Application Protocol o WAP y fue promovida desde el WAP Fórum (más tarde conocido como Open Mobile Alliance).
La utilidad del WAP fue excesivamente inflada por los departamentos de marketing de las operadoras y ello chocó con las expectativas de los consumidores, que esperaban una experiencia de uso como la de internet en un ordenador. A la postre fue el estándar GPRS el que alcanzó el éxito. Su facturación por tráfico era más rentable para las operadoras y soportaba una navegación www completa, amen de otros muchos protocolos.
E-Mail en el móvil lo hemos tenido desde que llegó el GPRS e incluso antes, pero era un sistema rudimentario que dependía de que el cliente descargara el correo activamente. El correo push parte de una premisa completamente distinta. Es el servidor el que notifica al cliente la llegada de un nuevo mensaje. Esto suponía una ventaja enorme, sobre todo en el ámbito empresarial, ya que los mensajes eran recibidos en el móvil en el mismo instante en que llegaban a nuestro buzón en el ordenador.
Aunque desde el año 2000 ya había varias operadoras que ofrecían correo push en Japón, el principal responsable de su popularización fue la compañía canadiense Research in Motion, hoy conocida por el nombre de sus terminales: BlackBerry. El primer modelo en soportar push fue la BlackBerry 957, lanzada en el 2000. El concepto push ha trascendido y hoy en día es el responsable de las decenas de notificaciones que llegan a nuestros smartphones.
Dejando a un lado la llegada del color, el auténtico hito en la historia de la telefonía móvil y responsable de que hoy tengamos servicios tan omnipresentes como Instagram es la llegada de la primera cámara integrada. Aunque Ericsson fue la primera compañía en aproximar la cámara al móvil con el accesorio de su Ericsson t68m, la primera cámara integrada apareció, de nuevo, en Japón.
El primer móvil con cámara fue el Sharp J-SH04, comercializado por la operadora japonesa J-Phone en noviembre del año 2000. Desde entonces, la cámara integrada no sólo ha sido una característica demandada, sino que se le ha pedido una calidad comparable a la de las cámaras tradicionales.
Y el premio para la primera pantalla táctil en un dispositivo móvil es para… ¡Apple! Antes de que se organice el habitual y enconado debate entre defensores y detractores de la compañía, debemos aclarar que no nos estamos refiriendo para nada al iPhone sino al Apple Message Pad o Apple Newton, una PDA pionera que Apple comenzó a desarrollar en 1987, que lanzó en 1993 y con la que no tuvo mucho éxito.
Las primeras pantallas táctiles llegaron antes a las PDA que a los móviles y estaban pensadas para ser manejadas con el stylus, no con los dedos. Se considera que el honor de ser el primer smartphone moderno en incorporar una pantalla táctil capacitiva corresponde al LG Prada KE850. Popularizadas después por el iPhone de Apple, las pantallas táctiles han revolucionado la manera de interactuar con los móviles.
Tenemos conexión a internet, llamadas, mensajes de texto, cámara. ¿Falta algo? Si, claro, falta un modelo de negocio más allá del de cobrarnos por el móvil y por la conexión. Ese modelo de negocio lo encontró Apple el diez de julio de 2008, fecha en la que lanzó la primera tienda de aplicaciones móvil de la historia El día de su lanzamiento tenía sólo 500 aplicaciones. Siete días después se habían descargado 10 millones, y sólo una cuarta parte eran gratuitas.
El mercado de las aplicaciones se recordará como uno de los más explosivos de la historia de la economía. BlackBerry y Android se sumaron al carro con sus propias tiendas en octubre de 2008. En Mayo de 2009 Nokia lanza la OVI Store. El último en incorporarse a este negocio multimillonario ha sido Microsoft con su Windows Store Marketplace, en octubre de 2010. Poco más se puede decir de las aplicaciones. ¿Alguien podría concebir un smartphone sin ellas hoy?
Para muchos una fuente inagotable de diversión, para otros una lacra molesta en la que perder el tiempo y la paciencia. Las redes sociales son el signo del tiempo en que vivimos, y los teléfonos móviles se han convertido en sus principales mensajeros. En 2006, y tras extenderse como una plaga por las universidades americanas, Facebook abría sus puertas a cualquiera mayor de trece años con una dirección de email.
La red de Zuckerberg, sin embargo, no fue la primera en abordar los móviles. En abril de ese mismo año, MySpace cerraba un acuerdo con Cingular Wireless para dotar de servicios relacionados con la red social a los teléfonos de la operadora. La iniciativa no tardaría en morir a manos de las aplicaciones, el aliado perfecto para que el mundo de las redes sociales móviles explotara en la nube de servicios interconectados que es hoy. Con este hito cerramos sabiendo que no es, ni mucho menos, el último. Hoy es también el día en que Facebook anunciará su nuevo teléfono dedicado.
La primera generación de telefonía móvil (1G) utilizaba un protocolo de transmisión analógico –en España, el TMA–, y sólo servía para realizar llamadas de voz. No permitía roaming –sólo funcionaba en un país–, usaba baja frecuencia –en los 800 MHz– y ancho de banda de 30 kHz y era poco eficiente en términos de uso del espectro y la energía.
La segunda generación (2G) representó la transición a un protocolo digital –el GSM o Global System for Mobile Communications–, e incorporó el sistema de mensajes cortos SMS. Existía un protocolo de transmisión de datos, el GPRS, que permitía el envío de MMS –Mensajes Cortos Multimedia–, e incluso el acceso a Internet y el envío de correos electrónicos. Sin embargo, GPRS funcionaba de forma parecida a un módem: la transmisión de datos se trataba como una llamada, era extremadamente lento –64 kbps al principio; 144 kbps en las generaciones 2.5 y 2.7– y los costes eran muy elevados.
Con el cambio de siglo llegó la tercera generación (3G). En Europa, se denominó UMTS o Universal Mobile Telecommunication System. Ofreció nuevos servicios, como el roaming automático, y aumentó la velocidad de transmisión hasta unos impresionantes 2 Mbps, suficientes para que funcionaran las primeras aplicaciones móviles y atreverse con cosas como las videoconferencias con muy baja resolución, navegar en Internet, enviar y recibir correos con archivos adjuntos grandes, etc. Para conseguir todo esto, se incrementó la frecuencia hasta los 2,1 GHz. Sin embargo, voz y datos seguían yendo por separado.
La cuarta generación (4G) es una mejora de 3G que unifica todo –llamadas y datos– bajo el mismo protocolo IP, de manera que no existe mucha diferencia entre una llamada telefónica y una hecha, por ejemplo, a través de WhatsApp. Se la conoce también como LTE o Long Term Evolution. Puede ofrecer velocidades de descarga de hasta 100 Mbps. Es la telefonía que utilizamos todos actualmente.
La telefonía móvil: del 1G al 4G
GEN | Servicio principal | Factor diferenciador | Mayor flaqueza | Años |
1G | Telefonía móvil con radio analógica | Primera telefonía inalámbrica | Ineficiente e insegura | 1982- 1990 |
2G | Telefonía digital y SMS | Seguridad, adopción masiva | Ancho de banda para nivel módem | 1990 - 2004 |
3G | Telefonía digital, SMS y algo de datos | Navegar por webs en el móvil | Internet caro y no muy rápido | 2004- 2010 |
4G | Todos los servicios se ofrecen por IP (voz incluida) | Conexión rápida y con muchos más Gb para gastar | Prestaciones por detrás del cable | 2010- 2021 |
5G | Internet móvil | Velocidad, latencia, fiabilidad, coste bajo, compartición de red | Alcance de la señal debido al empleo de altas frecuencias | 2021- ¿? |
Qué promete la tecnología 5G
El despliegue de la quinta generación está previsto para el año 2021. Las tres principales mejoras de 5G son un incremento de la velocidad de transmisión –hasta un objetivo de 10 Gbps–, una reducción de la latencia –hasta 1 ms– y la posibilidad de ofrecer servicios como network slicing.
Otras mejoras son que las antenas soportan más conexiones simultáneas –puede haber muchos más dispositivos por unidad de área–, son posibles conexiones directas entre dispositivos, el empleo de protocolos de comunicación de muy bajo consumo de energía y repartir los recursos entre los usuarios, priorizándolos. Para conseguirlo, 5G aumentará la frecuencia hasta el entorno de los 60 GHz, lo que va a reducir levemente el alcance... de manera que harán falta más antenas.
Un cordial saludo
Álvaro Ballesteros
No hay comentarios:
Publicar un comentario