TECNOLOGÍAS Y ALTERNATIVAS ENERGÉTICAS
La energía alternativa se impone en la evolución tecnológica
Por BENEDICTO CUERVO ÁLVAREZ
En las primeras etapas de la evolución humana, durante el
denominado Paleolítico Inferior, el Homo habilis tardó decenas de
miles de años en utilizar las más sencillas técnicas líticas, como
las lascas desprendidas de los núcleos de sílex, para utilizarlas
como utensilio en el troceado de la carne o en el trabajo con las
pieles de los animales salvajes cazados por el hombre primitivo.
También, al final de dicho periodo histórico (P. Inferior), el
Homo habilis inventó el fuego después de un proceso muy largo de
intentos fallidos.
En definitiva, los primeros seres humanos necesitaban periodos de
tiempo muy largos, de hasta cientos de miles de años, para los más
elementales avances tecnológicos.
Sin embargo, durante nuestra Edad Contemporánea, las innovaciones
tecnológicas avanzas más rápidamente. En tan sólo los dos o tres
últimos siglos (SS. XVIII Pr. XXI), el hombre fue capaz de
inventar la máquina de vapor, el motor de explosión, la energía
eléctrica y nuclear o subir al espacio en una nave y conquistar la
Luna.
De tal forma que para muchos historiadores y economistas,
estaríamos en el inicio de una nueva revolución industrial: la
denominada 4º Revolución industrial.
A continuación analizaré, brevemente, las nuevas tecnologías en la
que los científicos trabajan con las nuevas energías renovables.
Automóvil | Vivienda
y edificios |
Automatización y robótica |
Aeronáutica y Aeroespacial |
Nanotecnología
A) EL AUTOMÓVIL.
La preocupación por el medio ambiente ha propiciado un cambio que
no va a ser coyuntural. En la actualidad hay tres líneas claras de
investigación como alternativa a los vehículos con motor de
combustión interna: el vehículo eléctrico con baterías
recargables, el vehículo híbrido (motor de combustión interna y
baterías) y el vehículo alimentado por hidrógeno. Los dos primeros
ya ruedan y el tercero quizá sea, el que a largo plazo, tenga una
presencia mayoritaria.
El vehículo eléctrico está propulsado por un motor eléctrico
alimentado a través de baterías recargables de ión-litio. Tiene el
inconveniente de su elevado peso y volumen de las baterías, amén
del elevado tiempo de recarga, de la escasez de infraestructuras
para hacerlo y de su escasa autonomía (tan sólo unos 150-200 km),
aunque suficiente para más de un 70% de los automovilistas.
Estos vehículos eléctricos son una realidad, desde finales del
siglo pasado, y en el mercado ya se comercializan turismos como
los chinos BYD, Fiat, italianos, los noruegos Think City y City
Plus, así como varios microbuses de uso urbano. Por su parte, los
vehículos híbridos disponen de un motor eléctrico alimentado por
baterías y de un motor térmico que produce la energía necesaria
para el movimiento cuando las baterías no tienen carga. Así, en el
tráfico urbano, el vehículo funciona como un coche eléctrico
convencional y en los desplazamientos interurbanos o cuando las
baterías estuviesen descargadas lo haría utilizando el motor
térmico, que además recargará las baterías.
Por último, los vehículos con pila de combustible utilizan
hidrógeno como combustible que al combinarlo con el oxígeno del
aire produce agua y energía eléctrica para alimentar al motor
eléctrico que propulsa al automóvil. El problema de este sistema
es el de producir, almacenar y distribuir el hidrógeno y aunque
varios fabricantes disponen de vehículos de este tipo (Honda,
Opel...), sólo
B) VIVIENDAS Y EDIFICIOS.
El inicio del siglo XXI, se caracteriza por un amplio desarrollo
de la industrialización de la sociedad moderna sumado al ámbito de
la construcción de espacios públicos, edificios y viviendas.
Debemos constatar que fuera de los logros y resultados deseados,
han surgido un sinnúmero de “efectos secundarios” no deseados ni
planificados los cuales amenazan con destruir la calidad de vida
en el interior de las ciudades para la gran mayoría de los
habitantes del planeta provenientes, principalmente, de la
utilización de la energía activa la cual consume recursos fósiles
no renovables.
Los efectos secundarios son tan poderosos, que logran
instalarse peligrosamente en el amplio sistema del planeta. De
entre todos ellos podríamos destacar los siguientes:
El agujero de ozono.
El cambio climático.
Las lluvias e inundaciones.
Los materiales altamente tóxicos en el medioambiente:
(contaminación ambiental).
Degradación de los suelos: (categorías de erosión).
El ruido y sus consecuencias para la civilización: (la
contaminación acústica es producto de la producción industrial
no planificada derivada del alto standard occcidental).
En el caso de la contaminación ambiental provocada por la lluvia
ácida producto de la suspensión de partículas tóxicas en el aire,
conlleva al efecto no renovable de bosques, ríos, lagos y mares.
Desde el punto de vista de la ciudad moderna, las leyes urbanas
que la componen contienen un efecto contrario a lo planificado: es
decir, caos en el interior de las ciudades en vez de un orden
dentro del mismo, destruyendo el tejido urbano en vez de
construirlo o reconstruirlo considerando que las ciudades son un
cuerpo vivo que aspiran al desarrollo equilibrado desde la
sustentabilidad del medio ambiente hasta lo social y
económicamente sostenible.
Desde ese punto de vista, aspiramos a viviendas y edificios
versátiles que respondan al apropiado dominio de la luz, del aire,
del sol y del agua en ciudades densificadas con espacios
proporcionalmente bien determinados para sus habitantes.
Ahora, desde la conurbanización del tejido urbano, deseamos
construir ciudades democráticas con iguales posibilidades de
acceso para sus habitantes, procurando que sean espacios públicos
integradores, con viviendas y edificios para el uso de una
población socialmente homogénea y anónima. Aspiramos a una
movilidad máxima y a una libertad de movimiento a través de
sistemas de transporte – privados y públicos no contaminantes,
tanto en vías rápidas y reguladas al interior como fuera del
tejido urbano de la ciudad, evitando las potenciales fuentes de
contaminación acústicas y ambientales e incrementando
definitivamente una mejor calidad de vida en nuestras ciudades,
siempre y cuando se genere una real voluntad política de parte de
nuestras autoridades comunales, quienes han sido recientemente
electas en nuestro país por los propios habitantes de ellas, en
virtud de una real y definitiva descentralización local lo
esperamos desde lo políticamente prometido – hacia la
materialización de una autonomía democrática, administrativa y
económica.
En consecuencia, si la producción arquitectónica moderna en el
pasado se concentró en inventar nuevos materiales de construcción
como el hormigón y el acero, hoy día como sociedad nos debemos a
una reflexión ética y de principios: debemos concebir, producir y
emplear nuevas tecnologías en el ámbito de la construcción en que
el sostenimiento de ellas sea el resultado de una alta eficiencia
en el tiempo.
Desde el punto de vista de la formación profesional y la
investigación, el rol de las Universidades e Instituciones
Públicas como Privadas de países desarrollados y en vías de
desarrollo es fundamental: Ellas se concentran en el mejoramiento
y contextualizan la rica herencia de la construcción étnica,
fusionándola con técnicas y tecnologías modernas y apropiadas con
el objeto de desarrollar sistemas pasivos de captación de energías
renovables provenientes de las bondades que ofrece el planeta, es
decir: Energía solar (sol), eólica (vientos), geotérmica (aguas
subterráneas) y maremotriz (oleaje de mareas).
Es, en este sentido, por lo que a menudo la Arquitectura moderna
bioclimática, observa la tradición étnica como una fuente de
inspiración en la búsqueda de nuevas soluciones a los ya conocidos
problemas del clima, luminosidad, salud física, confort térmico y
acústico, y ventilación de los espacios a habitar.
La acción de como el Sol calienta el planeta es el concepto
elemental que se utiliza para diseñar su habitabilidad.Cuando el
sol calienta la superficie del globo, la atmósfera retiene el
calor a una cierta altura de la superficie de la tierra y de las
aguas. Los vientos y las corrientes marinas estimuladas por
la energía del sol activan el calor haciéndolo circular alrededor
del planeta.
Antes de concebir e instalar las tecnologías apropiadas para el
uso de energía solar en viviendas y edificios, debemos incorporar
2 conceptos fundamentales: El 1º. Desde la Arquitectura y el 2º
Desde la Técnica.
El primero considera la óptima orientación de las viviendas y
edificios en relación al recorrido del sol durante las diferentes
horas del día, en las diferentes estaciones del año y latitudes
del planeta.
El segundo considera una apropiada envolvente térmica desde el
suelo, fundaciones y muros, hasta la cubierta de viviendas y
edificios considerando el contexto climático del lugar.
El sistema solar pasivo que otorga energía renovable para el
consumo de agua sanitaria, luz artificial y calefacción, consiste
en la transmisión calórica al interior de las viviendas y
edificios a través de captadores solares para los 2 primeros casos
– placas solares y fotovoltaicas respectivamente -, y de forma
directa a través de ventanas e invernaderos vidriados para el caso
de la confortabilidad térmica habitable, concebidos de tal forma,
que la energía solar almacenada durante el día sea desprendida
parcialmente durante la noche o durante los días nublados de
manera de ventilar los espacios habitables y así proteger la salud
física de los usuarios.
Desde la autocrítica, hoy día es necesario reconocer la
inmovilidad de la gran mayoría de la sociedad, más allá de le
retórica, en lo que concierne el respeto por el medio ambiente,
donde nuestros aportes deberían comenzar en el diseño de nuevos
tratados normativos y conductas técnicas contextualizadas con los
tiempos actuales, así como en la anticipación – en paralelo con lo
anterior – a lo que sucederá en el futuro inmediato en
consideración del espacio-tiempo que nos expondrá el desarrollo
evolutivo de nuestras ciudades, lo cual nos debería conducir a la
innovación productiva y al empleo de nuevos materiales de
construcción no contaminantes, como en la integración de las
bondades que nos otorga el planeta en la concepción de nuestras
viviendas y edificios utilizando la luz, el aire, el sol y el agua
como fuentes de energías renovables, siendo esto uno de los
grandes desafíos bioclimáticos en la arquitectura de nuestros
tiempos.
Por último conviene destacar que un equipo de recién graduados del
reconocido Massachusetts Institute of Technology (MIT) ha
desarrollado unas tejas capaces de cambiar del color blanco al
negro (y viceversa) según la temperatura, aprovechando así estas
conocidísimas propiedades del color para crear mejores viviendas
desde el punto de vista del consumo energético.
La idea no es nueva. Incluso el propio Secretario de Energía de
EEUU, Steven Chu, es un gran defensor del uso de los tejados
blancos, y ha llegado a decir que si todos los tejados del mundo
se volvieran blancos se eliminarían en 20 años tantas emisiones
causantes del efecto invernadero como las que emite el mundo
entero en un año. Las tejas propuestas por los estudiantes del MIT
añaden otra ventaja a las blancas de Chu: como se oscurecen con
las bajas temperaturas, ayudan a ahorrar energía también durante
el invierno. Son capaces de reflejar el 80% de la luz del sol
cuando son blancas y el 30% cuando son negras. Eso significa un
20% de ahorro en el aire acondicionado y un porcentaje de la
calefacción invernal que aún se está determinando.
La idea del grupo de estudiantes es aún más ingeniosa si se tiene
en cuenta que utilizaron para sus fines un material muy común: un
polímero que se utiliza en los fijadores de pelo. Mientras la
temperatura se mantiene baja, el polímero se mantiene disuelto y
permite ver la parte trasera de la teja que es negra y que se
dedica a absorber el calor. Pero cuando la temperatura aumenta, el
polímero se condensa formando diminutas gotitas que dispersan la
luz y producen una superficie blanca que refleja la luz del sol.
De momento, el proyecto ha ganado el concurso Materials
Engineering Contest (MADMEC) organizado por el MIT (diciembre de
2009). Y aunque los materiales son baratos, su gran reto ahora es
otro: la perdurabilidad de un elemento que permanece siempre
expuesto a la intemperie.
C) AUTOMATIZACIÓN Y ROBÓTICA.
La historia de la automatización industrial está caracterizada por
períodos de constantes innovaciones tecnológicas. Esto se debe a
que las técnicas de automatización están muy ligadas a los sucesos
económicos mundiales.
El uso de robots industriales junto con los sistemas de diseño
asistidos por computadora (CAD), y los sistemas de fabricación
asistidos por computadora (CAM), son la última tendencia en
automatización de los procesos de fabricación y luego se cargaban
en el robot. Éstas tecnologías conducen a la automatización
industrial a otra transición, de alcances aún desconocidos.
Aunque el crecimiento del mercado de la industria robótica ha sido
lento en comparación con los primeros años de la década de los
años ochenta del siglo pasado, de acuerdo a algunas predicciones,
la industria de la robótica está en su infancia. Ya sea que éstas
predicciones se realicen completamente, o no, es claro que la
industria robótica, en una forma o en otra, permanecerá.
En la actualidad el uso de los robots industriales está
concentrado en operaciones muy simples, como tareas repetitivas
que no requieren tanta precisión. Los análisis de mercado en
cuanto a fabricación predicen que en ésta década y en las
posteriores los robots industriales incrementarán su campo de
aplicación, esto debido a los avances tecnológicos en sensórica,
los cuales permitirán tareas más sofisticadas como el ensamble de
materiales.
Como se ha observado la automatización y la robótica son dos
tecnologías estrechamente relacionadas. En un contexto industrial
se puede definir la automatización como una tecnología que está
relacionada con el empleo de sistemas mecánicos-eléctricos basados
en computadoras para la operación y control de la producción. En
consecuencia la robótica es una forma de automatización
industrial.
Hay tres clases muy amplias de automatización industrial:
automatización fija,automatización programable, y automatización
flexible.
La automatización fija se utiliza cuando el volumen de producción
es muy alto, y por tanto se puede justificar económicamente el
alto costo del diseño de equipo especializado para procesar el
producto, con un rendimiento alto y tasas de producción elevadas.
Además de esto, otro inconveniente de la automatización fija es su
ciclo de vida que va de acuerdo a la vigencia del producto en el
mercado.
La automatización programable se emplea cuando el volumen de
producción es relativamente bajo y hay una diversidad de
producción a obtener. En este caso el equipo de producción es
diseñado para adaptarse a la variaciones de configuración del
producto; ésta adaptación se realiza por medio de un programa
(Software).
La automatización flexible, por su parte, es más adecuada para un
rango de producción medio. Estos sistemas flexibles poseen
características de la automatización fija y de la automatización
programada. Los sistemas flexibles suelen estar constituidos por
una serie de estaciones de trabajo interconectadas entre sí por
sistemas de almacenamiento y manipulación de materiales,
controlados en su conjunto por una computadora.
De los tres tipos de automatización, la robótica coincide más
estrechamente con la automatización programable.
En tiempos más recientes, el control numérico y la telequerica son
dos tecnologías importantes en el desarrollo de la robótica. El
control numérico (NC) se desarrolló para máquinas herramienta a
finales de los años 40 y principios de los 50. Como su
nombre indica, el control numérico implica el control de
acciones de un máquina-herramienta por medio de números. Está
basado en el trabajo original de Jhon Parsons, que concibió el
empleo de tarjetas perforadas, que contienen datos de posiciones,
para controlar los ejes de una máquina-herramienta.
El campo de la telequerica abarca la utilización de un manipulador
remoto controlado por un ser humano. A veces denominado
teleoperador, el operador remoto es un dispositivo mecánico que
traduce los movimientos del operador humano en movimientos
correspondientes en una posición remota. A Goertz se le acredita
el desarrollo de la telequerica. En 1948 construyó un mecanismo
manipulador bilateral maestro-esclavo en el Argonne National
Laboratory. El empleo más frecuente de los teleoperadores se
encuentra en la manipulación de sustancias radiactivas, o
peligrosas para el ser humano. La combinación del control
numérico y la telequerica es la base que constituye al robot
modelo. Hay dos individuos que merecen el reconocimiento de la
confluencia de éstas dos tecnologías y el personal que podía
ofrecer en las aplicaciones industriales. El primero fue un
inventor británico llamado Cyril Walter Kenward, que solicitó una
patente británica para un dispositivo robótico en marzo de
1954.
La segunda persona citada es George C. Devol, inventor americano,
al que debe atribuirse dos invenciones que llevaron al desarrollo
de los robots hasta nuestros días. La primera invención consistía
en un dispositivo para grabar magnéticamente señales eléctricas y
reproducirlas para controlar una máquina. La segunda invención se
denominaba Transferencia de Artículos Programada.
Un robot industrial es un máquina programable de uso general que
tiene algunas características antropomórficas o ¨humanoides¨. Las
características humanoides más típicas de los robots actuales es
la de sus brazos móviles, los que se desplazarán por medio de
secuencias de movimientos que son programados para la ejecución de
tareas de utilidad.
La definición oficial de un robot industrial se proporciona por la
Robotics Industries Association (RIA), anteriormente el Robotics
Institute of América.
"Un robot industrial es un manipulador multifuncional
reprogramable diseñado para desplazar materiales, piezas,
herramientas o dispositivos especiales, mediante movimientos
variables programados para la ejecución de una diversidad de
tareas".
Se espera en un futuro no muy lejano que la tecnología en robótica
se desplace en una dirección que sea capaz de proporcionar a éstas
máquinas un gran número de actividades industriales y
sociales.
D) LA CARRERA AERONÁUTICA Y
AEROESPACIAL.
El artista e inventor italiano, Leonardo Da Vinci diseñó,
por primera vez, un tipo de avión (o aeroplano) en el siglo XV,
pero nunca llegó a levantar el vuelo.
Varios siglos más tarde, los hermanos Wright fueron principalmente
los creadores del avión autopropulsado de la historia. En 1903
desarrollaron el avión cerca de Kitty Hawk, cuyo vuelo duró
aproximadamente un minuto y recorrió más o menos 26 metros,
estando presentes, en este acontecimiento histórico 5
personas.
Durante la Primera Guerra Mundial, los aviones fueron diseñados
para la exploración, pero, cuando los exploradores se encontraban
y eran enemigos luchaban con pistolas y ladrillos. Tras esto,
pensaron en poner metralletas y el alemán Anthony Fokker diseñó un
sistema para que no dañara las hélices y otros mecanismos. Aviones
importantes fueron: Sopwith Camel, Albatros DVa y los Fokker
alemanes y sus variantes.
Durante el periodo denominado de entreguerras las potencias
seguían mejorando sus aviones hasta crear aviones de dos alas,
cada uno a un lado del aparato. Los primeros aviones que se
crearon de este tipo fueron: FW-190, Aichi D3A “llamados
como los americanos VAL”.
En la Segunda Guerra Mundial los aviones van adquiriendo cierta
relevancia. Hasta ese momento no eran lo que se puede decir
importantes,para el transcurso de una guerra, pero ahora,
conseguir la supremacía aérea fundamental. Los aviones de ataque o
cazas para abreviar, eran aviones que podían atacar objetivos
aéreos con facilidad y destruirlos. Eran ligeros y rápidos, con
metralletas incrustadas en las alas.
Los bombarderos eran usados para destruir objetivos terrestres,
tanto blindados como edificios o soldados. No tenían metralletas
para atacar a enemigos aéreos. Eso sí, tenían metralletas que
dirigían los soldados en diferentes partes del avión para
defenderse. Eran lentos y resistentes.
A partir de principios de la década de los 50 del siglo pasado se
inició la denominada Guerra Fría. Los americanos ayudaban, pero
sin luchar ellos, a Corea del Sur y la URSS a Corea del Norte.
Durante esta guerra se usaron los helicópteros para las misiones
de reconocimiento, de ataque, de bombardero, de transporte, pero
los cazas,mejorados y creados a propulsión para destruir objetivos
más duros y para combates aéreos muchísimo más intensos.
Los cazas de ahora son a propulsión, con misiles dirigidos y son
poderosísimos, llegando a superar la barrera del sonido. Además
existen los denominados “aviones invisibles” pues no son
detectados por los radares.
El avión invisible es el producto de la combinación de varios
factores antidetección y el aprovechamiento de una debilidad de
los misiles AA/IR (antiaéreos infrarrojos).
Estos misiles en su nariz tienen un sensor IR (infrarrojo) de
ángulo estrecho (como la luz de una linterna) en cuya área o cono
de captación se puede «ver» el objetivo. Si un avión se
ubica perpendicular al eje del misil (a un lado) el misil no lo ve
y sigue de largo. Por eso los misiles AA deben ser disparados
hacia el punto donde el radar ubicado en tierra ve el objetivo. En
caso de que el radar no logre ver el avión, no hay manera de
disparar hacia el punto donde está el avión. Lo mismo pasa con los
misiles AA del tipo FF, es decir misiles que en su morro llevan no
un sensor infrarrojo sino un minirradar, e incluso con los
combinados IR-FF.
En cuanto a los factores antidetección, para evitar la detección
infrarroja o detección térmica, primeramente las turbinas se
recubren externamente de amianto y otros aislantes térmicos,
formando una gruesa capa entre el fuselaje de plástico del avión y
la superficie metálica del cuerpo de la turbina. El fuselaje
externo por ser de plástico contribuye al aislamiento. La cola del
avión después de la salida o tobera de la turbina se hace un poco
más larga para disipar aún más el chorro térmico. Esta cola se
hace de doble capa con amianto en medio de las dos capas formadas
por el fuselaje externo y la capa o cubierta interna. Para
reforzar la merma de calor, la turbina se fabrica lo más pequeña
posible y para operar a las mínimas revoluciones posibles (RPM),
de ahí la baja velocidad de los F117.
Adicionalmente desde la boca delantera de entrada de aire frío, se
hace una toma por 4 ó 6 conductos de poco diámetro que van a la
prolongación de la cola, antes mencionada, para enfriar con aire
frío el extremo final la cola del chorro de la turbina.
Pero, a pesar de todo esto, al avión siempre conserva un «Punto
caliente» al ser visto desde atrás o por atrás. Si desde atrás se
le dispara un AA-FF como éste trabaja respondiendo a un eco de
radar, el misil no ve el avión. Pero si desde atrás se le dispara
un AA-IR sí lo ve y da en el blanco, y esto fue la que pasó en
Kosovo con el F-117 derribado.
En cuanto al método antidetección de radar, es una combinación de
varios factores, en primer lugar, se usa un material de fibra
plástica similar a la fibra de cristal con la adicción de un
derivado del amianto, que tiene una baja reflexión de radar como
cualquier lancha con casco de fibra de vidrio. A esto se suma una
pintura que tiene una baja reflexión a las ondas del radar. Y
finalmente se agrega el diseño de superficie diédrica, para
aprovechar un principio físico que dice que el ángulo de reflexión
es igual al ángulo de incidencia, con respecto al plano donde se
hace el rebote.
Sin embargo, los modernos micrófonos de alta sensibilidad,
amplificadores de audio de sensibilidad extrema y altos factores
de amplificación lineal, así como los filtros de audio pasabanda
(que discriminan la frecuencia sónica a una estrecha banda sonora
equivalente al sonido del avión), permiten la detección con gran
exactitud a larga distancia. Los micrófonos, con su reflector
parabólico, son montados en «baterías» de hasta 100 grupos como
una especie de antena Yagi direccional. Además, el sonido del
avión en el aire no se puede disfrazar e investigadores chinos han
conseguido diseñar y construir un radar de baja frecuencia que
rebota en superficies de baja reflexión a las altas
frecuencias.
En el campo de la aviación civil las innovaciones que se vienen
realizando en las últimas décadas son, igualmente, impresionantes.
En diciembre de 2009 Air Berlin estrenó el sistema GLS para
asistir a los pilotos en el aterrizaje de aeronaves, y mientras
eso sucede en Europa, en EEUU también avanzan en ese sentido.
La Federal Aviation Administration de ese país ha aprobado la
puesta en marcha del sistema Automatic Dependent
Surveillance-Broadcast, o ADS-B, que ofrece una visualización
mucho más detallada del espacio aéreo, tanto desde las torres de
control como desde las propias aeronaves.
Con ADS-B será posible un nivel de seguridad mucho mayor gracias a
que los pilotos tendrán una referencia mucho más realista y
detallada de las rutas, como así también de las dificultades que
estas presentan, gracias a la utilización de vistas de terreno y
acceso.
Air Berlin será la primera aerolínea en incorporar el Global
Position Landing System (GLS), una tecnología de navegación
satelital de asistencia en vuelo.
Con ella será posible realizar vuelos de aproximación mucho más
precisos y aterrizajes más exactos, lo cual permitirá reducir
costos y aumentar significativamente la seguridad.
La Oficina Federal Alemana de Aviación (LBA) ya ha otorgado la
autorización a Air Berlin para comenzar a utilizar el sistema GLS,
lo cual convierte a la compañía en la precursora de esta
tecnología.
La carrera espacial y la Guerra Fría, provocó los incentivos
necesarios tanto para los Estados Unidos como para la URSS,
creando y potenciando sus industrias aeroespaciales, y en la
década de 1980, condujeron al mundo, en general, a
importantes logros. El mercado aeroespacial mundial creció
de forma sostenida en los años 1980, a pesar de que las ventas se
desaceleraron en los EE.UU. a causa del accidente del
transbordador espacial que destruyó el Challenger en 1986 y el
fracaso del Delta del Titán. De hecho, los EE.UU. decidieron, en
1991, poner fin a su dependencia de los lanzamientos del
transbordador. China y Japón amplían, entonces, sus programas
espaciales para poder acceder a los mercados abiertos por la
caída del programa de transbordadores de EE.UU. y el incierto
futuro del programa espacial soviético como resultado de sus
problemas políticos.
En los EE.UU. los principales productores de aviones, motores de
aviones, misiles y vehículos espaciales superan la docena.
Como los vehículos son cada vez más complejos, las empresas suelen
trabajar en colaboración sobre los productos principales.
También dependen de los proveedores especializados para muchos
artículos. Decenas de miles de pequeñas empresas
fabrican piezas para los productores primarios.
Los principales fabricantes de fuselajes de aviones, misiles y
vehículos espaciales incluyen Boeing, Fairchild República, General
Dynamics, Grumman, Hughes, Ling-Temco-Vought, Lockhead, Martin
Marietta, McDonnell Douglas, de América del Norte de las
aeronaves, y Northrop. Entre los productores de aviones
privados son la haya, Cessna y Piper. Los fabricantes de
motores incluyen Avco Lycoming, General Electric y Pratt and
Whitney. Incluyen fabricantes de helicópteros Bell, Boeing,
Hiller, Hughes, Kaman, y Sikorsky.
El gobierno federal norteamericano es el principal cliente de los
misiles,vehículos espaciales, aeronaves y sus componentes.Las
compras gubernamentales anuales de estos vehículos suman en total
unos 23 millones de dólares, alrededor del 54 por ciento de los
productos aeroespaciales de los EE.UU. y servicios vendidos.
Con el desvanecimiento de las hostilidades de la Guerra Fría, las
partes de la industria dedicada a la aeronáutica militar comenzó a
disminuir lentamente en la década de 1980, pero los analistas de
la industria aseguran que la pérdida fue compensada por un
saludable crecimiento en el mercado de aviones civiles, impulsado
por el aumento de una proyección en el tráfico aéreo, por la
necesidad de reemplazar los aviones ya envejecidos, por un aumento
previsto del tráfico aéreo, y por las nuevas regulaciones que
exigen modificaciones en las aeronaves existentes para alcanzar
niveles de menor ruido.
El programa espacial soviético lanzó el primer satélite artificial
del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los
Estados Unidos lo percibió como una amenaza a la seguridad y el
Presidente Eisenhower y sus consejeros, tras varios meses de
debate, tomaron el acuerdo de fundar una nueva agencia federal que
dirigiera toda la actividad espacial no militar.
El 29 de julio de 1958 Eisenhower firmó el Acta de fundación de la
NASA, la cual empezó a funcionar el 1 de octubre de 1958 con
cuatro laboratorios y unos 8.000 empleados.
La intención de los primeros programas era poner una nave
tripulada en órbita y ello se realizó bajo la presión de la
competencia entre los EE.UU. y la URSS en la denominada carrera
espacial que se produjo durante la Guerra Fría.
El Programa Mercury comenzó en 1958 con el objetivo de descubrir
si el hombre podía sobrevivir en el espacio exterior. El 5 de mayo
de 1961 Alan B. Shephard fue el primer astronauta estadounidense
al pilotar la nave Freedom 7 en un vuelo suborbital de 15 minutos.
John Glenn se convirtió el 20 de febrero de 1962 en el primer
estadounidense en orbitar la Tierra, durante un vuelo de 5 horas
con la nave Friendship 7, que dio tres vueltas a la Tierra.
El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que
Estados Unidos debía comprometerse a “aterrizar a un hombre en la
Luna y devolverlo sano y salvo a la Tierra antes del final de la
década”, para lo cual se creó el Programa Apolo. El Programa
Gemini fue concebido para probar las técnicas necesarias para el
Programa Apolo, cuyas misiones eran mucho más complejas.
Durante los ocho años de misiones preliminares la NASA tuvo la
primera pérdida de astronautas. El Apolo 1 se incendió en la rampa
de lanzamiento durante un ensayo y sus tres astronautas murieron.
La NASA, tras este accidente, lanzó un programa de premios para
mejorar la seguridad de las misiones, el Premio Snoopy. El
Programa Apolo logró su meta con el Apolo 11, que alunizó con Neil
Armstrong y Edwin E. Aldrin en la superficie de la luna el 20 de
julio de 1969 y los devolvió a la Tierra el 24 de julio. Las
primeras palabras de Armstrong al poner el pie sobre la luna
fueron: «Este es un pequeño paso para un hombre, pero un gran
salto para la humanidad».
Diez hombres más formarían la lista de astronautas en pisar la
Luna cuando finalizó el programa anticipadamente con el Apolo 17
en diciembre de 1972, cuyo resultado fue, además de la recogida de
muestras de regolito, la instalación de equipos de estudio
superficiales ALSEP.
La NASA había ganado la carrera espacial y, en cierto sentido,
esto la dejó sin objetivos al disminuir la atención pública capaz
de garantizar los grandes presupuestos del Congreso. Aunque la
inmensa mayoría del presupuesto de NASA se ha gastado en los
vuelos tripulados, ha habido muchas misiones no tripuladas
promovidas por la agencia espacial.
El desarrollo ya logrado por las dos potencias espaciales tenía
que producir un acercamiento entre la Unión Soviética y los
Estados Unidos. Por lo tanto, el 17 de julio de 1975, un Apolo, se
acopló a un Soyuz soviético en la misión Apolo-Soyuz para la que
hubo que diseñar un módulo intermedio y acercar la tecnología de
las dos naciones. Aunque la Guerra Fría duraría más años, este fue
un punto crítico en la historia de NASA y el principio de la
colaboración internacional en la exploración espacial. Después
vinieron los vuelos del transbordador a la estación rusa Mir,
vuelos de estadounidense en la Soyuz y de rusos en el
transbordador y la colaboración de ambas naciones y otras más en
la construcción de la Estación Espacial Internacional (ISS).
El Transbordador espacial se convirtió en el programa espacial
favorito de la NASA a finales de los años setenta y los años
ochenta. Planeados tanto los dos cohetes lanzadores como el
transbordador como reutilizables, se construyeron cuatro
transbordadores. El primero en ser lanzado fue el Columbia el 12
de abril de 1981.
Pero los vuelos del transbordador eran mucho más costosos de lo
que inicialmente estaba proyectado y, después de que el desastre
del Challenger, en 1986, resaltó los riesgos de los vuelos
espaciales, el público recuperó el interés perdido en las misiones
espaciales.
No obstante, el transbordador se ha usado para poner en órbita
proyectos de mucha importancia como el Telescopio Espacial Hubble
(HST). El HST se creó con un presupuesto relativamente pequeño de
2.000 millones de dólares, pero ha continuado funcionando desde
1990 y ha maravillado a los científicos y al público. Algunas de
las imágenes han sido legendarias, como las del denominado Campo
Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y
la NASA, y su éxito ha ayudado en la mayor colaboración entre las
agencias.
En 1995 la cooperación ruso-estadounidense se lograría de nuevo
cuando comenzaron las misiones de acoplamiento entre el
transbordador y la estación espacial Mir, en ese momento la única
estación espacial completa. Esta cooperación continúa al día de
hoy entre Rusia y Estados Unidos, los dos socios más importantes
en la construcción de la Estación Espacial Internacional. La
fuerza de su cooperación en este proyecto fue más evidente cuando
la NASA empezó confiando en los vehículos de lanzamiento rusos
para mantener la ISS tras el desastre en 2003 del Columbia que
mantuvo en tierra la flota de los transbordadores durante más de
un año.
Costando más de cien mil millones de dólares, ha sido a veces
difícil para la NASA justificar el proyecto ISS. La población
estadounidense ha sido históricamente difícil de impresionar con
los detalles de experimentos científicos en el espacio. Además, no
puede acomodar a tantos científicos como había sido planeado,
sobre todo, desde que el transbordador espacial estuvo fuera de
uso hasta marzo de 2005, deteniendo la construcción de la ISS y
limitando su tripulación a una de mantenimiento de dos personas.
Durante la mayor parte de los años 1990 la NASA se enfrentó con
una reducción de los presupuestos anuales por parte del Congreso.
Para responder a este reto, el noveno administrador de la NASA,
Daniel S. Goldin, inventó misiones baratas bajo el lema:
“más rápido, más bueno, más barato” que le permitió a la NASA
recortar los costes mientras se emprendía una gran variedad de
programas aerospaciales. Ese método fue criticado y llevó en 1999
a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar
Lander de exploración en Marte.
Probablemente la misión con más éxito entre el público en los
últimos años (1997) ha sido la de la sonda Mars Pathfinder y la
Mars Global Surveyor. Los periódicos de todo el mundo llevaron las
imágenes del robot Sojourner, desplazándose y explorando la
superficie de Marte. Desde 1997 la Mars Global Surveyor estuvo
orbitando Marte con gran éxito científico. Desde 2001 el orbitador
Mars Odyssey ha estado buscando evidencia de agua en el Planeta
rojo, en el pasado o en el presente, así como pruebas de actividad
volcánica.
En 2004 una misión científicamente más ambiciosa llevó a dos
robots, Spirit y Opportunity, a analizar las rocas en busca de
agua, por lo que aterrizaron en dos zonas de Marte diametralmente
opuestas, encontrando vestigios de un antiguo mar o lago salado.
El 14 de enero de 2004, diez días después del aterrizaje de Spirit
, el Presidente George W. Bush anunció el futuro de la exploración
espacial. La humanidad volvería a la Luna en 2020 como paso previo
a un viaje tripulado a Marte.
El robot Spirit siempre fue el menos afortunado de los dos
aparatos gemelos que la NASA envió a explorar la superficie de
Marte. Apenas semanas después de llegar a un cráter marciano en
2004, comenzó a transmitir mensajes incoherentes a la Tierra. Los
ingenieros temen que el Spirit se quede sin electricidad a
menos que los científicos puedan reorientar sus celdas
fotovoltaicas hacia el Sol.
El Spirit "siempre ha sido nuestra reina del drama'', dijo el
científico en jefe Steve Squyres de la Universidad Cornell.
En abril, de 2009, cuando el Spirit circulaba hacia atrás
por una falla en una rueda, cayó a través del suelo endurecido
como una persona que atraviesa el hielo de un lago congelado y
quedó encallado en arena suelta. Desde entonces, los intentos para
liberarlo de allí no han avanzado mucho.
En cambio, su gemelo Opportunity le robó protagonismo, ya que
llegó a un sitio geológicamente ideal y fue el primero en
establecer que el Planeta rojo, hoy helado y polvoriento, tuvo un
pasado con más humedad.
E) LA NANOTECNOLOGÍA.
La palabra “nanotecnología” es usada extensivamente para definir
las ciencias y técnicas que se aplican al un nivel de nanoescala,
esto es unas medidas extremadamente pequeñas “nanos” que permiten
trabajar y manipular las estructuras moleculares y sus átomos. En
síntesis nos llevaría a la posibilidad de fabricar materiales y
máquinas a partir del reordenamiento de átomos y moléculas. El
desarrollo de esta disciplina se produce a partir de las
propuestas de Richard Feynman (Breve cronología historia de la
nanotecnología).
La mejor definición de Nanotecnología que hemos encontrado es
esta: La nanotecnologia es el estudio, diseño, creación, síntesis,
manipulación y aplicación de materiales, aparatos y sistemas
funcionales a través del control de la materia a nano escala, y la
explotación de fenómenos y propiedades de la materia a nano
escala.
Cuando se manipula la materia a la escala tan minúscula de átomos
y moléculas, demuestra fenómenos y propiedades totalmente nuevas.
Por lo tanto, científicos utilizan la nanotecnología para crear
materiales, aparatos y sistemas novedosos y poco costosos con
propiedades únicas
Nos interesa, más que su concepto, lo que representa
potencialmente dentro del conjunto de investigaciones y
aplicaciones actuales cuyo propósito es crear nuevas estructuras y
productos que tendrían un gran impacto en la industria, la
medicina etc..
Estas nuevas estructuras con precisión atómica, tales como
nanotubos de carbón, o pequeños instrumentos para el interior del
cuerpo humano pueden introducirnos en una nueva era, tal como
señala Charles Vest (ex-presidente del MIT). Los avances
nanotecnológicos protagonizarían de esta forma la sociedad del
conocimiento con multitud de desarrollos con una gran repercusión
en su instrumentación empresarial y social.
La nanociencia está unida en gran medida desde la década de los 80
con Drexler y sus aportaciones a la “nanotecnología molecular”,
esto es, la construcción de nanomáquinas hechas de átomos y que
son capaces de construir ellas mismas otros componentes
moleculares. Desde entonces Eric Drexler (personal webpage), se le
considera uno de los mayores visionarios sobre este tema. Ya en
1986, en su libro "Engines of creation" introdujo las promesas y
peligros de la manipulación molecular.
El padre de la “nanociencia”, es considerado Richard Feynman,
premio Nóbel de Física, quién en 1959 propuso fabricar productos
en base a un reordenamiento de átomos y moléculas. En 1959, el
gran físico escribió un artículo que analizaba cómo los
ordenadores trabajando con átomos individuales podrían consumir
poquísima energía y conseguir velocidades asombrosas.
Existe un gran consenso en que la nanotecnología nos llevará a una
nueva revolución industrial en el siglo XXI tal como anunció hace
unos años, Charles Vest (ex-presidente del MIT).
Supondrá numerosos avances para muchas industrias y nuevos
materiales con propiedades extraordinarias (desarrollar materiales
más fuertes que el acero pero con solamente el diez por ciento de
peso), nuevas aplicaciones informáticas con componentes
increíblemente más rápidos o sensores moleculares capaces de
detectar y destruir células cancerígenas en las partes más
delicadas del cuerpo humano como el cerebro, entre otras muchas
aplicaciones.
Podemos decir que muchos progresos de la nanociencia estarán entre
los grandes avances tecnológicos que cambiarán el mundo.
El 4 de enero de 2010, un equipo médico, de un hospital
londinense, creó una arteria con el empleo de nanotecnología que
podría ayudar a pacientes que necesitan un injerto de arterias
coronarias y de miembros inferiores, divulgaron los científicos
londinenses.
Investigadores del Royal Free Hospital, Reino Unido, pondrán a
prueba el material que imita el pulso natural de los vasos
sanguíneos y puede transmitir los nutrientes necesarios a los
tejidos del organismo, lo cual serviría de ayuda a miles de
pacientes afectados por enfermedades cardiovasculares.
En la actualidad, las personas con esas dolencias son sometidas a
un pypass, o el vaso sanguíneo dañado es reemplazado por un
injerto hecho a partir de plástico, o una vena de la pierna del
enfermo.
Amador Menéndez Velázquez (Oviedo, 1969) sabe de lo que
habla cuando pronostica que la nanotecnología puede revolucionar
el futuro. De eso habla y así se titula el estudio que le valió el
Premio Europeo de Divulgación Científica en 2009, «Una revolución
en miniatura. Nanotecnología y disciplinas convergentes». Doctor
en Química e investigador del Centro de Investigación de
Nanomateriales y Nanotecnología (CINN), se ha incorporado al
Instituto Tecnológico de Massachusetts (MIT), uno de los más
prestigiosos del mundo.
El instituto tecnológico de Massachusetts, una de las
instituciones más prestigiosas del mundo nos presenta a
continuación Las diez tecnologías avanzadas que cambiarán el mundo
(enero de 2010).
-Redes de sensores sin cables (Wireless Sensor Networks): Son
redes de nano aparatos autónomos capaces de una comunicación sin
cable y suponen uno de los avances tecnológicos más investigados
en la actualidad.
-Ingeniería inyectable de tejidos (Injectable Tissue Engineering):
Consiste en sustituir a los tradicionales trasplantes de órganos,
se está a punto de aplicar un método por el que se inyecta
articulaciones con mezclas diseñadas de polímeros, células y
estimuladores de crecimiento que solidifiquen y formen tejidos
sanos.
-Nano-células solares (Nano Solar Cells): A través de la
nanotecnología se está desarrollando un material fotovoltaico que
se extiende como el plástico o como pintura. No solo se podrá
integrar con otros materiales de la construcción, sino que ofrece
la promesa de costos de producción baratos que permitirán que la
energía solar se convierta en una alternativa barata y factible.
-Mecatrónica (Mechatronics): Surge de la combinación sinérgica de
distintas ramas de la ingeniería, entre las que destacan: la
mecánica de precisión, la electrónica, la informática y los
sistemas de control.Su principal propósito es el análisis y diseño
de productos y de procesos de manufactura automatizados.
-Sistemas informáticos Grid (Grid Computing): La Computación Grid
es una tecnología innovadora que permite utilizar de forma
coordinada todo tipo de recursos (cómputo, almacenamiento) que no
están sujetos a un control centralizado.
-Imágenes moleculares (Molecular Imaging): A diferencia de rayos
x, ultrasonido y otras técnicas más convencionales, que aportan a
los médicos pistas anatómicas sobre el tamaño de un tumor, las
imágenes moleculares podrán ayudar a descubrir las verdaderas
causas de la enfermedad. La apariencia de una proteína poco usual
en un conjunto de células podrá advertir de la aparición de un
cáncer.
-Litografía Nano-impresión (Nanoimprint Lithography): Simplemente
a través de la impresión de una moldura dura dentro de una materia
blanda, puede imprimir caracteres más pequeños que 10 nanometros.
-Software fiable (Software Assurance): Los ordenadores se averían,
y cuando lo hacen, suele ser por un virus informático. Para evitar
tales escenarios, se investigan herramientas que produzcan
software sin errores.
-Glucomicas (Glycomics): Un campo de investigación que pretende
comprender y controlar los miles de tipos de azúcares fabricados
por el cuerpo humano para diseñar medicinas que tendrán un impacto
sobre problemas de salud relevantes.
-Criptografía Quantum (Quantum Cryptography): La herramienta
quantum cryptography, depende de la física cuántica aplicada a
dimensiones atómicas y puede transmitir información de tal forma
que cualquier intento de descifrar o escuchar será detectado.(
Informe, MIT, tecnologías del futuro).
TEMAS RELACIONADOS
Una serie de reportajes para mostrar la riqueza natural
que nos rodea, sus ecosistemas y a sus singulares
habitantes.
Granada y las tierras del sureste de Andalucía poseen la
mayor diversidad biológica de Europa, parajes únicos para
vivir en tiempos de estío