Anda di halaman 1dari 155

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/325597211

Ingeniería: la forja del mundo artificial Javier Aracil REAL ACADEMIA


DE INGENIERÍA

Book · June 2018

CITATIONS READS

0 48

1 author:

Javier Aracil
Universidad de Sevilla
191 PUBLICATIONS   1,830 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Singular Perturbations Control Strategies View project

Nonlinear Control Strategies View project

All content following this page was uploaded by Javier Aracil on 06 June 2018.

The user has requested enhancement of the downloaded file.


Ingeniería:
la forja
del mundo artificial

Javier Aracil

REAL ACADEMIA DE INGENIERÍA

1
Para Javier y Edu,
que conocerán el siglo XXI

2
La técnica es nuestra empresa más definitoriamente humana.

Fernando Savater1

Al subyugar la naturaleza cada vez más, estableciendo comunicaciones,


redes de transporte y de telégrafo, salvando las diferencias climáticas, la
técnica se revelaba como el medio más fiable de acercamiento entre los
pueblos y de conocimiento recíproco en aras de alcanzar una armonía
entre los hombres, destruir los prejuicios y avanzar hacia la unificación
universal. La raza humana había salido de la sombra, del miedo y el odio,
pero ahora progresaba hacia un estadio último de simpatía, luz interior,
bondad y felicidad; y en ese camino la técnica era el vehículo más útil.

Thomas Mann2

Somos seres humanos y como tales necesitamos mucho más que mero
confort económico. Necesitamos desafíos, significado, objetivos,
comulgar con la naturaleza. Cuando la técnica nos separa de todo eso se
convierte en una forma de muerte. Pero cuando lo facilita, afianza la vida.
Refuerza nuestra humanidad.

William Brian Arthur3

1
Fernando Savater, El valor de elegir, Barcelona, Ariel, 2003, p. 95.
2
Thomas Mann, La montaña mágica, Barcelona, Edhasa, 2005, pp. 224-5.
3
William Brian Arthur, The Nature of Technology, Londres, Allen Lane, 2009, p. 219.

3
Introducción
Este libro, que pretende ser breve, directo y claro, trata de indagar en lo singular de la
actividad de los ingenieros, que han contribuido decisivamente a crear el mundo artificial
imaginando y construyendo artefactos 4 dotados de utilidad. Esta tarea no es, sin
embargo, fácil, ya que lo variado de los campos cubiertos por la ingeniería dificulta la
elaboración de un discurso unificado sobre ese vasto dominio de la labor de los humanos.
Lo que aquí se expone es el punto de vista del autor, que se sustenta en la reelaboración de
lecturas e ideas a las que ha tenido acceso a lo largo de su vida profesional en una escuela
de ingenieros y que, después de cribarlas por el tamiz de esa vida, le han llevado a adoptar
cierta perspectiva con respecto a la ingeniería. El contenido del libro, por tanto, es
opinable, pues lo que se pretende es contribuir a un conveniente y oportuno debate sobre
la idiosincrasia del prolífico mundo de los ingenieros; y algunas de sus afirmaciones
resultarán, sin duda, polémicas. La novedad, si tuviera alguna, residiría en el enfoque
adoptado. Al mismo tiempo, se ha escrito pensando en una audiencia amplia y diversa.
Cumpliría su propósito si convenciese a algunos lectores de que revisen su visión de ese
ámbito crucial del quehacer humano.

Los ingenieros, aunque gozan de un amplio prestigio profesional, no se han ocupado con
la debida intensidad de cultivar, o al menos promover y difundir, estudios en los que se
destaque la especificidad de su labor. Entre ellos se observa una carencia de inquietud por
la reflexión sobre lo exclusivo de su actividad. Las excepciones son escasas. Entre ellas
destaca Walter Vincenti, un ingeniero aeronáutico que recapacitó ampliamente sobre este
tipo de cuestiones5. En cierta ocasión le confesó irónicamente a William Brian Arthur, un
economista que le preguntó por qué los ingenieros no se ocupaban de estos asuntos: «Los
ingenieros prefieren dedicarse a los problemas que son capaces de resolver» 6. En las
páginas siguientes se defiende que, a pesar de ello, deberían contribuir al fomento de una
cultura intelectual en la que lo técnico ocupe el lugar que le corresponde por su papel
determinante en la aventura humana. La primacía de la motivación utilitaria, que es la
propia del ingeniero, no ha alcanzado el debido reconocimiento pese a su papel capital en
la génesis de la civilización técnica en la que se desenvuelve la vida contemporánea de los
humanos. ¿Han hecho los ingenieros lo posible para obtener ese reconocimiento? Puede
que los problemas actuales de la ingeniería en nuestro país no sean ajenos al tipo de
cuestiones aquí esbozadas con las que se pretende contribuir al esclarecimiento de lo
distintivo de ese modo de obrar, como han sabido hacer con éxito profesionales como los
médicos, los economistas y los mismos arquitectos, éstos con raíces tan cercanas a las de
los ingenieros.

En nuestros días se hace imperiosa la necesidad de mantener y fomentar el espíritu


primordialmente innovador, imaginativo y creador que ha propiciado los grandes logros
de la ingeniería, por lo que resulta forzoso preservar los particulares modos de obrar
asociados a la técnica, si bien sustentados por todo lo que la cultura humana ha
4
Tanto artificial como artífice están relacionadas con artificio o arte-facto: ‘hecho con arte’, o lo que es en
este caso lo mismo: ‘con técnica’. La acepción peyorativa de artificial con el significado implícito de
‘falso’ o ‘ilegítimo’ se ignorará aquí.
5
Vincenti, Walter: What Engineers Know and How They Know It.

6
W. Brian Arthur, The Nature of Technology, p. 15.

4
acumulado a lo largo de la historia —incluido, claro está y de forma destacada, el saber
científico convencional.

El libro está dividido en tres partes. En la primera se presentan algunos hitos


representativos de la historia de la ingeniería que permiten ilustrar las diferentes formas
que ha adoptado la práctica de la técnica desde la antigüedad hasta nuestros días. Se trata
de casos concretos que han sido seleccionados para ilustrar la singularidad y autonomía
de esa labor con relación a otras formas de conocimiento más contemplativas. Se
pretende que sirvan de sustento a las ideas centrales que se desean dilucidar. Estos casos
se organizan en torno a las grandes ramas de la ingeniería: la mecánica, en sus dos
vertientes de construcción y maquinaria; la agronómica, la eléctrica, la química, la
electrónica y la aeronáutica; y se prestará especial atención a la automática. Otras ramas
de la ingeniería, como la naval, la energética, la de minas o la de montes, o algunas
emergentes como la informática, la robótica o la bioingeniería, solo serán mencionadas
ocasionalmente, porque su consideración detenida haría demasiado extenso y premioso
este libro.
Lo que contiene la primera parte no aspira a ser un resumen de la historia de la ingeniería,
sino solo una serie de narraciones que aportan perspectivas parciales de cómo surgieron
algunas ramas representativas de ese dominio de la actividad humana, sin pretender entrar
en la discutible asignación de la paternidad de los inventos. No interesa tanto el quién
como el qué, por lo que resulta inevitable simplificar cuestiones complejas. Por citar un
caso, cuando se habla de la transmisión inalámbrica se nombra solo a Guglielmo
Marconi, aunque se alude de pasada a Nikola Tesla, y no se mencionan otros inventores
que también tuvieron una decisiva participación en esa forma de transmisión de mensajes.
La referencia a Marconi se estima suficiente para los objetivos que aquí se persiguen. Las
deseadas brevedad y concisión tienen que pagar algún tributo.

Con estos variados relatos se pretende, además, dar satisfacción a algunos lectores de un
libro anterior7, según los cuales esa obra adolecía de una carencia y de un exceso: por una
parte se echaban en falta mayor número de casos que ilustrasen la tesis que allí se
sustentaba —y que es la misma que aquí se defiende. Con los casos que se exponen ahora
se pretende paliar en parte esa carencia. Por otra, se decía que aquel libro resultaba
excesivamente prolijo. Esta segunda objeción se ha tenido en cuenta en la redacción de
éste, en el que se trata de ir al grano al analizar lo peculiar de la ingeniería en unos tiempos
en los que es frecuente oír que está supeditada a los indiscutibles y admirables logros de la
ciencia contemporánea. Pero, por el contrario, se destaca en el texto cómo en las obras de
la técnica y la ingeniería realmente geniales, en las innovaciones que han determinado un
cambio radical en el curso de la civilización (la máquina de vapor, la aviación, la
telegrafía sin hilos, la aventura espacial, el ordenador, por citar unas pocas) su concepción
no se hizo como mera aplicación del conocimiento científico disponible cuando se
inventaron esos artefactos.

En efecto, en nuestro tiempo ¿quién duda del papel jugado por la aviación, la electrónica
o la automática? Pues bien, como se verá en páginas posteriores, esas ramas de la
ingeniería revelan características análogas a las de la máquina de vapor en el siglo XVIII,
uno de los pocos ingenios que se acepta por los especialistas en historia de la ciencia que
fue concebido sin que resultara de una aplicación directa de conocimientos físicos ya
7
Javier Aracil, Fundamentos, método e historia de la ingeniería.

5
asentados en la época en que se inventó esa máquina; por lo que se admite que fue
producto del talento y la creatividad, de la experiencia y la intuición, del sentido común y
la capacidad de innovación de sagaces ingenieros que la concibieron motivados
primariamente por la búsqueda de soluciones a problemas técnicos (la extracción de agua
de las minas fue el problema para el que se inventó originalmente, aunque
inmediatamente las aplicaciones se desbordaron). En la segunda parte, de carácter más
doctrinal, se abordan estas cuestiones bajo una perspectiva transversal con respecto a las
diferentes ramas de la ingeniería.

El libro termina con una corta tercera parte, articulada en dos capítulos, en la que se
analizan algunas cuestiones relativas a la formación y práctica profesional de los
ingenieros, a las que se añaden reflexiones sobre la incidencia de la técnica y la ingeniería
en el mundo de nuestros días. Esta parte acaso resulte prescindible para algunos lectores,
pero a pesar de ello se ha considerado pertinente su inclusión pues, aunque se
desenvuelve en un contexto diferente al resto del libro, puede servir de remate al conjunto
del volumen.

Se dice que uno escribe los libros que echa en falta. Eso mismo sucede con éste. Cuando
inicié mi carrera de profesor en una escuela de ingenieros me encontré con el hecho, en
aquel tiempo insólito, de que esa escuela se incorporaba a una universidad convencional
—literaria se decía entonces. Los problemas de integración no fueron pocos, pero
posiblemente el que me resultó más acuciante, en especial cuando fui director de ese
centro —mediados los setenta del siglo pasado––, fue la carencia de un cuerpo de
doctrina que permitiese defender lo singular de la ingeniería ante los intentos de diluirla
en un magma presidido por la ciencia, y en el que se desdibujaba su identidad. Tengo que
agradecer a aquellos que cuestionaron esa singularidad —algunos, no demasiados,
todavía lo hacen––, pues me incitaron a comprender, aun involuntariamente, la necesidad
de elaborar y disponer de un fundamento doctrinal que la sustentase. Sin su estimulante
provocación acaso no estaría ahora motivado para elaborar una meditación sobre la
ingeniería. Y así me he visto embarcado en una línea de pensamiento que ha ocupado
gran parte de mi reflexión intelectual a lo largo de mi vida, y desde hace unos años la
ocupa de lleno.

El libro es una versión ampliada del capítulo «Salvaguarda de la ingeniería», incluido en


el volumen VIII de la magna obra Técnica e ingeniería en España, dirigida por Manuel
Silva. La ampliación incorpora también material previamente aparecido en publicaciones
de distinta especie y otro que ve la luz por primera vez aquí. En los volúmenes de esa obra
enciclopédica encontrará el lector múltiples ilustraciones históricas de lo que, de forma
sucinta, se defiende en éste.

Borradores del texto completo, o de porciones de él, han sido objeto de comentarios por
parte de Manuel Silva, Enrique Cerdá Olmedo, Mateo Valero, Pere Brunet, Elías Muñoz,
Antonio Gómez Expósito, Miguel Toro, Francisco Gordillo, Francisco Colodro, Luis
Vilches, Fernando Broncano y Bernardo Palomo Vázquez. El texto también se ha
enriquecido gracias a intercambios de ideas con Francisco García Olmedo, José Ferreirós,
Jesús Vega Encabo, Pedro Ollero y Vicente Ortega. Es posible que unos y otros
encuentren en el texto, aquí y allá, indicios de sus comentarios y sugerencias, aunque no
sea siempre al hilo de sus argumentos. A todos ellos expreso mi agradecimiento.

6
Primera parte

Algunos hitos del pasado

7
Capítulo I.- Los orígenes
Nace el mundo artificial

La aventura humana empezó hace dos o tres millones de años. Se produjo entonces la
transición del Australopitecus al género Homo, con la aparición de Homo habilis
(transición sujeta a continua revisión y cuyas fronteras se desdibujan sin parar 8). Este
acontecimiento se identifica con la presencia de restos líticos junto a osamentas
simiescas, de las que se infiere una forma de caminar bípeda y erecta, junto a otros rasgos
morfológicos que apuntan atributos que luego definirán a Homo sapiens, como es un
cráneo de volumen creciente y una mano versátil. En esos residuos líticos se pone de
manifiesto la acción de alguien que busca herramientas con un fin determinado. Stanley
Kubrick lo dramatizó de forma muy sugestiva al principio de su película canónica de
ciencia ficción 2001: Una odisea del espacio, en la que un simio descubre la potencia que
le confiere un hueso cuando lo empuña para conseguir una especie de prolongación de la
mano con un poder percutor considerablemente incrementado, y así logra multiplicar los
efectos de su propia fuerza física. Homo habilis aprende que con ayuda de un artefacto
puede llegar a hacer cosas para las que la naturaleza virgen no le había dotado. Se
desencadena así, o de alguna forma similar, el proceso que le llevará posteriormente a
erigir el mundo artificial, hecho a nuestra medida, por el que el ser humano, mediante la
técnica, transforma, controla y reconduce el mundo natural para hacer de él un lugar más
acogedor y confortable, donde su vida pueda alcanzar mayores cotas de bienestar y
longevidad, y ser vivida con superior dignidad; aunque, al mismo tiempo, esa alteración
de la naturaleza pueda tener efectos secundarios indeseables.

Muy posteriormente, ya hace solo unas decenas de miles de años, aparecen vestigios
estéticos en los restos líticos, cuando Homo sapiens esculpe bifaces pulidas con esmero,
lo cual no aportaba una mayor eficacia a la herramienta, pero la hacía más bella o más
distintiva para el que la poseía. Al mismo tiempo, se produce la revolución agrícola del
Neolítico, punto de partida de la civilización, que está asociada a una actividad
genuinamente técnica: la agricultura. La transición al Neolítico supuso el abandono de
una forma de vida dependiente de la caza y la recolección de productos naturales, que fue
reemplazada por otra basada en el cultivo y la ganadería. Las plantas seleccionadas y
cultivadas por los agricultores y los animales domesticados y estabulados por los
ganaderos constituyen actividades primigenias del mundo artificial.

Con la Revolución Neolítica aparecen también las cabañas, las canoas y algunos artículos
domésticos, como los utensilios culinarios, los recipientes de barro y la incipiente
indumentaria 9 ––gracias a ese invento maravilloso, la aguja, que permitió coser. La
técnica empieza a desarrollar uno de sus rasgos definitorios: la evolución conjunta de sus

8
La neta cortadura entre el ser humano y el simio superior mediante la adscripción al primero de la
exclusividad en herramientas líticas se está diluyendo según avanzan las exploraciones arqueológicas.
Véase, por ejemplo, Sonia Harmand et ali, “3.3-million-year-old stone tools from Lomekwi, West Turkana,
Kenia”, Nature, 310-315 (21 May 2015).
9
El rastro en hacer se encuentra en las mismas raíces de la voz indoeuropea teks, que se asocia con fabricar
o con tejer (en latín texere). Así, en griego, téktōn significa ‘carpintero’ o ‘constructor’, ‘el que hace’, y
tékhnē, ‘saber hacer’, ‘artesanía’ o ‘habilidad’. En tiempos posteriores se tienen voces como textil o
arquitecto; ‘el que hace tejidos o edificios’, respectivamente.

8
distintos productos. La estabulación de animales presupone plantaciones para piensos; las
edificaciones requieren la preparación y el transporte de materiales de construcción; los
trabajos agrícolas se llevan a cabo con la ayuda de animales domesticados; y un etcétera
interminable. El ejercicio de la técnica siempre ha requerido de cooperación y
planificación, en donde se apuntan los rasgos que posteriormente definirán a la
ingeniería.

Tras esa revolución se dispuso de fuentes alimentarias más fiables, que desembocaron en
un aumento apreciable de la población y permitieron sustentar asentamientos humanos
estables que se convirtieron posteriormente en ciudades, entre las que se establecieron
prósperas redes comerciales, al tiempo que fueron objeto de la codicia de bandas
nómadas ante las que hubo que interponer formas sólidas de organización social (los
arcaicos reinos de las primitivas civilizaciones) que incluían despliegues de poderío
militar —la defensa ha sido una fuente de cohesión de la sociedad y, al mismo tiempo, un
incentivo para el progreso de la técnica. Igualmente hicieron su aparición los valores
comunes, los mitos y las religiones, y otras formas ideológicas de argamasa social.

Todo ello configuró el lento y paulatino progreso de la humanidad hasta que hace poco
más de doscientos años se desencadenó la Revolución Industrial, que dio lugar a otra
inflexión en el crecimiento de la población humana, en una nueva versión de lo ocurrido
con la Neolítica. Esta revolución fue impulsada por el espíritu de la Ilustración
(autonomía moral, ejercicio de la crítica, tolerancia y libertad), y por lo que respecta a la
técnica, con la noción de «conocimiento útil» y se basó en avances técnicos simultáneos
en la ingeniería mecánica, la maquinaria textil, la metalurgia y otras actividades técnicas,
así como con la concentración fabril que trajo consigo la nueva forma de organizar la
producción. Pero si hubiera que señalar un progreso decisivo para esa revolución, sin
duda la elección recaería sobre la máquina de vapor. Aunque transcurrieron varios
decenios hasta su plena implantación, la máquina de vapor, junto con otras como las
máquinas textiles, desencadenaron el proceso que conduce al estadio actual de
civilización.

La Revolución Industrial instaló a la humanidad en la edad de las máquinas. Además, con


esa revolución el ingeniero deja de ocuparse exclusivamente de obras civiles y se
convierte en un promotor del naciente mundo fabril. En efecto, esta revolución promovió
la creación de nuevos instrumentos de producción, con lo que tuvo lugar un enorme
incremento de la productividad, al tiempo que la economía de mercado permitía una
asignación eficiente de recursos y propiciaba el equilibrio entre ahorro e inversión. Se
produjo así un giro en la historia de los ingenieros, que vieron incrementado
considerablemente su campo de actuación. Al mismo tiempo, los asalariados formaron
una nueva clase social, el proletariado, consecuencia del trabajo en las fábricas, que
acabaría teniendo gran protagonismo en la historia posterior.

Así, esa revolución dio lugar a una inmensa mutación en todos los órdenes de la sociedad,
a partir de la cual se establecieron las bases del mundo moderno. Hay autores, sin
embargo, que prefieren atribuir esa cualidad a la Revolución Científica, pero la Industrial
es la que protagoniza la profunda transformación social que conduce al mundo de
nuestros días, en el que la mayor parte del planeta está formada por sistemas artificiales
en interacción con el mundo natural. Es indudable que la Revolución Científica, que se
inicia con Nicolás Copérnico (1473-1543) y culmina con Isaac Newton (1643-1727), fue
una revolución conceptual que sentó las bases de una nueva forma de percibir el mundo, y

9
aportó unas nuevas «gafas» con las que verlo e intervenir en él, basada en una peculiar
forma de estudiar de los fenómenos que se producen en la naturaleza. De esta manera, se
fraguó un modo preciso de lograr conocimiento sobre esos fenómenos y se creó el método
científico, formado por un conjunto de prácticas para interrogar al mundo natural
mediante experimentos y estructurar, con ayuda de la razón, el conocimiento así
obtenido, lo que dio lugar a una peculiar conjunción de empirismo y racionalidad, que
provocó un cambio sustancial en la forma de saber sobre el mundo. Estas prácticas eran
múltiples y variadas, desde la clasificación de los seres vivos hasta la astronomía y la
física matemática, con el común denominador de que estaban basadas en la
experimentación y la observación, y en la organización racional de los conocimientos
conseguidos. Con el ejercicio sistemático de esas prácticas se desencadenó la empresa
colectiva que es la ciencia moderna. Pero, por otra parte, no existe evidencia de que los
conocimientos teóricos que formaron el núcleo de la Revolución Científica tuvieran
algún efecto directo sobre la técnica que se llevaba a cabo en aquellos tiempos. Las
máquinas que desencadenaron la Revolución Industrial, como las textiles o la misma
máquina de vapor, no se basaron en ninguno de los conocimientos que propició la
Revolución Científica; si bien esta revolución acabó influyendo en todos los ámbitos en
los que intervienen fenómenos naturales, por lo que repercutió, al fin, en actividades
como la ingeniería o la medicina.

En el siglo XIX se produjeron cambios radicales en la vida de los seres humanos, al menos
de los que habitaban en países occidentales de primera línea. A principios de ese siglo, ya
había medios de transporte como el caballo o los carruajes, pero eran incómodos y lentos;
la tuberculosis o la difteria causaban la muerte de millones de personas; y los altos índices
de mortalidad infantil reducían considerablemente la esperanza de vida. A mediados de
siglo los ferrocarriles apenas unían las poblaciones más importantes, pero cien años más
tarde la red de ferrocarriles cubría la superficie de los países desarrollados y los
automóviles ocupaban sus calles. Con el fin de siglo las vacunas empezaron a erradicar
muchas enfermedades hasta entonces mortales y la electricidad iluminó el mundo
cotidiano. Se ha dicho que un ciudadano de la Roma antigua situado a principios de ese
siglo no tendría grandes dificultades para desenvolverse en el mundo que le rodeaba, pero
que si lo estuviese cien años después quedaría desconcertado.

En la actualidad vivimos una época de progresos deslumbrantes en la técnica asociados al


procesamiento de la información, llegando a emular las facultades cognitivas. Cuando el
que esto escribe era estudiante, la mayor parte de la gente, incluidas personas bien
informadas para la época, se tomaba a broma la posibilidad de que una computadora
pudiese jugar al ajedrez. Hoy hemos visto máquinas que son capaces de batir a
campeones mundiales de ese juego, en el que están involucradas actividades que
consideramos mentales. Las computadoras permiten ampliar nuestras capacidades
cognitivas innatas. Reemplazan con facilidad actividades habituales, pero también son
empleadas por matemáticos competentes para resolver problemas insolubles sin su
intervención. Incluso han suministrado un nuevo medio experimental indirecto con el
que, mediante simulaciones, profundizar en el conocimiento del mundo. Asimismo, han
promovido la aparición de nuevas realidades virtuales. Las aplicaciones de las máquinas
informáticas seguirán evolucionando hasta hacer cosas hoy inconcebibles. La capacidad
de las máquinas para emular labores mentales ha fomentado el espejismo de que pudieran
reproducir la inteligencia humana. Por lo demás, esas funciones contribuyen al control de
máquinas y procesos de forma complementaria a como, tras la Revolución Industrial, lo
hicieron las máquinas mecánicas con respecto a la potencia muscular.

10
De este modo, la técnica de nuestros días (a la que está de moda, en ciertos medios, llamar
tecnología; más adelante se volverá sobre este extremo) ha aportado un cambio sustancial
en el mundo artificial, hasta el punto de que se admite que ese mundo está sufriendo
cambios comparables a los que en su día implantó la escritura y posteriormente la
imprenta —la escritura artificial o mecánica—, y que muchos califican de superiores a
todo lo que se había conocido previamente. En todo caso, tanto la Revolución Neolítica
como después la industrial, y luego la asociada con la información que se vive en nuestros
días, son producto de la técnica, del inagotable espíritu innovador y transformador de los
humanos que han construido el ubicuo mundo artificial en el que se abren posibilidades
inéditas en el natural.

A lo largo de la evolución humana la cultura ha adquirido caracteres colectivos hasta un


grado no igualado por ninguna otra especie. Hace unos pocos miles de años se
desencadena un proceso de acumulación y transmisión del saber técnico, que desemboca,
en la actualidad, en una hogaza de pan o en un avión supersónico. Así se estimula el auge
de nuestra especie y su dominio sobre la Tierra mediante la invención y la fabricación del
mundo artificial —lo que no está exento de amenazas, pues nos hemos convertido en el
predador dominante tanto en el mar como en la tierra.

La construcción y la ingeniería de obras públicas


Con la Revolución Neolítica aparecen los primitivos núcleos de población, para lo que se
desarrolla una técnica específica: la edificación. Los primeros habitáculos estables
aparecen cuando los humanos abandonan la vida nómada y establecen asentamientos
permanentes, lo que se estima que tuvo lugar unos 10 000 o 15 000 años antes de nuestra
Era. En un principio estaban formados, en general, por un muro circular de piedra y una
cubierta, normalmente cónica, que pronto se hizo de paja, con una capa de arcilla para
impermeabilizarla. Cuando se fundan las primeras ciudades se inventa el ladrillo, una
especie de piedra artificial hecha a base de una masa de arcilla, arena, paja y agua,
posteriormente cocida, y que se fabrica con ayuda de una plantilla que permite hacer
miles de ellos iguales entre sí —es, tal vez, el origen de la producción en serie. La planta
en escuadra, que desplaza a la vivienda circular, es una consecuencia del ladrillo en forma
de ortoedro.

La transición de las formas arcaicas de productos técnicos (herramientas de piedra, armas


elementales, utensilios domésticos…) a otros más elaborados se asocia con la
construcción de grandes monumentos y de obras públicas, además de artefactos bélicos.
Posiblemente, las primeras obras en las que se hace inevitable una actividad de
planificación y organización son los dólmenes megalíticos (como los de Menga, en
Antequera). Luego vendrían las pirámides y los templos de las primitivas civilizaciones;
las obras hidráulicas, como los acueductos romanos provistos de una precisa y uniforme
inclinación; los puertos y faros del mundo antiguo; y tantas otras maravillas cuyos
vestigios todavía nos asombran. Apareció así la ingeniería de obras públicas, la más
primitiva de las ramas de la ingeniería.

Para estas construcciones se requiere alguna forma de proyecto previo, y luego una
dirección que coordine y organice a un gran número de ejecutores de las distintas
actividades en las que se divide la construcción. Así, el ingeniero surge en primer lugar
para concebir y proyectar la obra, y después desempeñar el papel de organizador en las
distintas fases de la construcción. Uno de los rasgos distintivos de la ingeniería es llevar a
11
cabo un trabajo conjunto coordinado de cierta complejidad, tratando de satisfacer un
objetivo práctico de origen social o militar (el primer ingeniero que registra la historia es
el egipcio Imhotep, al que se atribuye la pirámide escalonada de Saqqara, y del que se
dice que fue además arquitecto, médico, astrónomo, alto funcionario y sumo sacerdote.
Otro notable ingeniero del mundo griego fue Eupalino de Megara, que dirigió las obras
del túnel de más de 1 kilómetro de longitud que atraviesa el monte Kastro, en la isla de
Samos, cuya construcción se comenzó a la vez desde sus dos aberturas, alcanzando una
admirable precisión en la conjunción de los dos tramos).

Para los grandes monumentos se requería mover piedras ciclópeas. En Mesopotamia y en


Egipto se conocían la palanca y el plano inclinado, posiblemente las dos primeras
máquinas de las que se valieron nuestros antepasados. Con ayuda de esos ingenios los
egipcios fueron capaces de mover obeliscos de hasta más de mil toneladas, lo que hacían
con medios ingeniosos como el deslizamiento sobre rodillos, con algún fluido para
disminuir el rozamiento, y empleando miles de hombres auxiliados por animales de
carga. Todos los obeliscos egipcios proceden de la misma cantera, en Assuan, desde
donde tenían que llevarlos al Nilo, cargarlos en barcazas, descargarlos de nuevo y
erigirlos donde procedía. Una proeza realizada con los exiguos medios de los que
disponían y que aún causa admiración.

Hay una forma especialmente ingeniosa de resolver los problemas de los vanos en puertas
y ventanas: es el recurso al arco, que además sirve como techumbre mediante bóvedas. El
arco de medio punto es uno de los grandes inventos de la técnica de construcción
primitiva. Aparece en Egipto, en Mesopotamia y el Asia Menor alrededor del año 4000 a.
C., pero no se da en otras civilizaciones antiguas, como las mesoamericanas (aunque en
éstas se dio la llamada bóveda maya formada por hileras de ladrillos, sobre dos muros
rectos, cada una de las cuales sobresale ligeramente sobre la inferior, ascendiendo hasta
coincidir con la especular que surge en el otro muro, apoyándose ambas y dando lugar a
una techumbre a dos aguas análoga a la de las chozas de base rectangular).

El invento del arco se benefició del intercambio comercial y cultural mediante la


navegación que propiciaron el mar Mediterráneo y el océano Índico. Entre los años 4000
a.C. y 2000 a.C. los arcos se utilizaron en las tumbas, con luces pequeñas, del orden de un
metro, lo que permitía a los albañiles cerrar el arco sin gran dificultad y completar la
bóveda. Cuando las luces alcanzan mayor longitud se requiere el empleo de cimbras,
sobre las que se colocan sucesivamente las dovelas hasta que se cierra el arco mediante la
clave superior, con lo que se asienta el arco y se puede quitar la cimbra (figura 1).
Posteriormente el principio de la bóveda en arco se empleó no solo para cubrir edificios y
servir de soporte a puentes, sino también horizontalmente en presas hidráulicas.

12
Figura 1.- Dovelas y clave se sustentan en un arco.

Durante el Imperio romano la mano de obra para la construcción era barata y no


cualificada. En la cantería, por el contrario, la mano de obra era escasa y muy cualificada,
organizada en torno a poderosas logias de canteros. Hasta la Edad Media, el secreto del
oficio se transmitía de maestros a aprendices, quienes vivían con el propio maestro y cuyo
número estaba regulado de forma minuciosa. Se conserva un cuaderno que se atribuye a
uno de esos maestros10. Para llegar a la condición de maestro había que superar un
examen práctico (por ejemplo, hacer una escalera de caracol). Había un grado superior al
de maestro: el de quien trabajaba en el llamado cuarto de trazas, que acabaría siendo el
arquitecto o el ingeniero, que se ocupaba de concebir y proyectar las construcciones.

Conviene observar que el término arquitecto procede etimológicamente de primer


técnico, por lo que, en tiempos antiguos, resultaba indistinguible del ingeniero. De hecho,
en los libros de Marco Vitruvio Polión (c. 80-70 a.C.-15 a.C.) sobre la arquitectura
romana varios de ellos se ocupan en realidad de ingeniería. Ingeniería y arquitectura, en
aquellos tiempos, aparecen fundidas aunque se van separando progresivamente a lo largo
de los siglos y el arquitecto acaba responsabilizándose de la concepción del edificio,
mientras que el ingeniero lo hacía de las máquinas y procedimientos para erigirlo, y los
cálculos estructurales. Es lo que sucede, ya en el Renacimiento, con
arquitectos-ingenieros como Filippo Brunelleschi (1377-1446) o Juan de Herrera
(1530-1597). La construcción de la cúpula de la catedral de Florencia no hubiese sido
posible sin las máquinas auxiliares que concibió el propio Brunelleschi. Por lo que
respecta a la construcción de obras públicas como son los puentes, las murallas, las
calzadas y los puertos, la labor del ingeniero adquiere rasgos propios desde los inicios de
las correspondientes actividades constructivas. En el admirable puente de Alcántara (en
la provincia de Cáceres), maravilla de la ingeniería romana, el autor, Cayo Julio Lacer
(98-117), firma como arquitecto, cuando hoy diríamos que era un ingeniero 11.

10
De Honnecourt, V. Cuaderno.
11
En las Crónicas de Pedro López de Ayala se habla del engenho como del artefacto con el que se
derribaban las puertas en las ciudades sitiadas. Parece ser que en la baja Edad Media, en el siglo XII, las
voces ingeniator e ingeniarius se empleaban para nombrar a los que manejaban esos artefactos (aunque
ingeniarius es la forma que prevaleció después). De esas dos voces, de origen militar, en el Renacimiento
surge la de ingeniero, esta vez ya civil, relacionada, en gran medida, con las máquinas empleadas en los
trabajos de construcción de monumentos y edificios, aunque también en obras hidráulicas y similares. El
propio Leonardo da Vinci firmó en alguna ocasión como ingeniarius ducalis.

13
Los procedimientos de construcción se basaban en reglas formadas por un conocimiento
empírico, pero sistematizado y sometido a la racionalidad, y se fundaban, en último
extremo, en la constatación de si las construcciones se mantenían en pie, o no. El ejercicio
de la técnica ha estado siempre asociado al uso de la racionalidad más estricta y está
sustentado en datos objetivos, virtudes que heredaría luego la ciencia. El ajuste de los
recursos a las metas perseguidas es una muestra primigenia del buen uso del juicio. Por
ello, la técnica resulta incomprensible sin el ejercicio de la razón en su forma más
rigurosa. Aristóteles ya dejó escrito precozmente en su Ética a Nicómaco que «no hay
técnica alguna que no sea disposición racional para la producción» 12. Los conocimientos
implicados en una edificación incorporaban reflexiones muy sutiles, como sucede con el
problema de la estabilidad de las edificaciones: en cómo disponer las masas para que las
construcciones resultantes fueran estables (así sucede en el caso del milenario acueducto
de Segovia que aún se mantiene en pie, sin argamasa, por el correcto equilibrio entre las
masas de piedra que lo forman).

Volviendo al arco, conviene destacar la figura de Robert Hooke (1635-1703), varón


polifacético que hizo aportaciones muy variadas a distintos campos del quehacer
humano. Entre la pluralidad de campos en los que dejó su huella se encuentra el de la
construcción, al ser nombrado, junto al arquitecto Christopher Wren (1632-1723), city
surveyor de la ciudad de Londres tras el devastador incendio ocurrido en 1666. Como
consecuencia de la experiencia que adquirió en construcción, Hooke se planteó el asunto
(que incluso presentó en la Royal Society) de cuál es la forma ideal de un arco y de cuánto
empuje transmite a sus soportes. Esta cuestión la resolvió de forma ingeniosa al
comprender que del mismo modo que se transmiten las tensiones en un hilo flexible —o
una cadena— colgante de sus extremos, igualmente, pero de forma invertida, se
transmiten las compresiones en un arco rígido; es decir, si se invierte un cable colgante, la
tracción se convierte en compresión (figura 2). La idea genial de Hooke fue que la estática
de los arcos y de los cables colgantes es idéntica. La curva que adopta el cable colgante es
la catenaria, cuya expresión matemática no se encontró hasta algún tiempo después (por
Gottfried Leibnitz, Christiaan Huygens y Johann Bernouilli en 1691, en respuesta al reto
planteado por Jacob Bernouilli). Esta propiedad fue aplicada en el diseño de la cúpula de
la catedral de San Pablo en Londres, proyectada por Wren, en su reconstrucción tras el
incendio de 1666. A partir de entonces la catenaria ha sido empleada por otros muchos
arquitectos, como Antoni Gaudí, en el diseño de arcos estilizados.

12
Aristóteles, Ética a Nicómaco, versión de M. Araujo y J. Marías, Universidad de Valencia, 1993, libro
VI, 1140a.

14
Figura 2.- La estática de un arco y de un cable colgante es la misma.

En el siglo XIX, con el hierro y el acero se abrieron nuevas posibilidades a la


construcción que se plasmaron, en especial, en puentes y estaciones de ferrocarril, y algún
monumento sobresaliente como la torre Eiffel de París o el Palacio de Cristal de la Gran
Exposición de Londres, lamentablemente desaparecido.

Las máquinas y la ingeniería mecánica


Las invenciones mecánicas han servido, durante toda la historia de la humanidad, para
incrementar, o incluso suplir, la fuerza física de los usuarios de las máquinas. Desde los
orígenes de la civilización, los humanos hemos hecho ingenios con los que complementar
o reemplazar el trabajo de los músculos. Así, las conocidas como máquinas simples son:
la palanca, la rueda —uno de los mayores inventos de los artesanos de la antigüedad––, la
polea simple, el tornillo, el plano inclinado, el torno y la cuña; y a partir de ellas los
cabrestantes, las primitivas grúas, los polipastos y tantos otros artefactos ingeniosos. Con
esos y otros artificios similares se pudieron realizar obras, a las que se ha aludido en el
apartado anterior, cuya ejecución no es concebible sin ellos. De este modo, la mecánica se
encuentra en el núcleo de la historia de la técnica y de la civilización.
Siglos después, la Revolución Industrial se hizo también con máquinas mecánicas, pues
eso eran las máquinas de vapor y el resto de ingenios que propiciaron esa revolución. La
evolución de la ingeniería se concreta por la transición de un mundo de instrumentos
elementales a otro que incorpora además la maquinaria y otros artefactos más elaborados.
Conviene destacar que la figura del ingeniero que se apunta en la antigüedad, vinculado al
trabajo coordinado para construir obras civiles, se refuerza y diversifica
considerablemente con la aparición de las máquinas a partir de la Revolución Industrial.
Con esta revolución los propios procesos productivos resultaron afectados por la nueva
maquinaria.

15
Por otra parte, en la mecánica de máquinas se consumó la primera formalización de la
ingeniería en un estilo moderno y que emulaba la que, a su vez, estaban introduciendo los
científicos con relación a sus saberes, en aquellos mismos tiempos. Así el espíritu de la
Revolución Científica permea la reflexión de los ingenieros sobre su ámbito de actividad.
Corresponde a dos ilustres ingenieros españoles, Agustín de Betancourt (1758-1824) y
José María de Lanz (1764-1839), el honor de haber escrito, a principios del XIX, el Ensayo
sobre la composición de las máquinas 13 , obra que aparece al calor de la fecunda
Ilustración española, publicada originalmente en francés en 1808 y traducida al inglés en
1820 y al alemán en 1829. Este libro alcanzó la singular fortuna de ser obra de referencia
en las escuelas de ingenieros europeas durante varios decenios de ese siglo. Se abre con el
siguiente párrafo, que constituye una declaración de principios con relación al
establecimiento de un estudio sistemático de las máquinas:
Los movimientos utilizados en las artes mecánicas son rectilíneos, circulares o determinados por curvas
dadas y pueden ser continuos o alternativos (de vaivén) y se puede, por consiguiente, combinarlos [...]. Toda
máquina tiene como fin transformar o transmitir uno o varios de estos […] movimientos.

Algunos de estos mecanismos fueron claves para la máquina de vapor, como es el caso
del movimiento del pistón que ocasiona el de vaivén de la biela, y que actúa a su vez sobre
la manivela, la cual hace girar al volante; de modo que, en resumen, el movimiento de
vaivén rectilíneo del pistón se transforma en otro de rotación.
Durante el siglo XIX se reduce el tamaño de las máquinas de vapor, lo que permite, entre
otras muchas cosas, el desarrollo de los ferrocarriles, con el consiguiente aumento de la
velocidad en el transporte de mercancías y pasajeros. A finales de ese siglo y principios
del siguiente se produce una verdadera eclosión de máquinas de uso corriente como la
máquina de coser, las lavadoras y las aspiradoras, el ascensor, la máquina de escribir, la
rotativa, el motor de combustión interna con el resultado de los automóviles y la
mecanización agrícola, y poco después la aviación; y tantos otros inventos que han
imprimido su sello en el mundo moderno.

El sustrato mecánico de las máquinas y la transparencia de su comportamiento llegó a


sugerir que la propia realidad física se reducía a una componente material de esencia
mecánica. En siglo XVII alcanzó notoriedad la idea de interpretar la naturaleza como si
fuera una máquina y, en paralelo, utilizar el conocimiento de las máquinas para
interpretar la estructura física del mundo. Desde principios de ese siglo abundan las
metáforas mecánicas con las que se pretende interpretar los fenómenos y procesos
naturales. Una de esas fecundas metáforas fue la del reloj, que aportaba una imagen
sencilla e inteligible de los mecanismos que regían el pretendido funcionamiento del
universo, regular e inmutable. En este mismo orden de cosas, René Descartes
(1596-1650) postuló que los seres vivos son como máquinas mecánicas, y que en el caso
especial del hombre se añade el alma a través de la glándula pineal.

De hecho, la ciencia física clásica se interpreta, hasta finales del ochocientos, como la
búsqueda de una interpretación mecánica del universo, en el marco filosófico de lo que se
conoce como mecanicismo, que se basa en una especie de mecanización de la naturaleza.
Las máquinas son inteligibles y eso indujo a los mecanicistas a preconizar que los
fenómenos del mundo físico podían ser explicados en términos mecánicos, materiales y

13
Ha sido reeditado en 1990 por el Colegio de Ingenieros de Caminos, Canales y Puertos en la Colección
de Ciencias, Humanidades e Ingeniería. La edición incluye también los facsímiles de la primera edición
francesa, de 1808, y de la inglesa, de 1820.

16
comprensibles. Según el mecanicismo, la filosofía requería solo dos nociones primitivas:
la materia y el movimiento (recuérdese la cita anterior del libro de Betancourt y Lanz). La
metáfora mecánica de la naturaleza se benefició de los recursos matemáticos para
formularla, alcanzando logros fascinantes e irreversibles —la mecánica racional, más
vinculada al mecanicismo que a la práctica técnica. Ya en el siglo XIX, se aludía a la edad
de las máquinas y por extensión a la civilización de las máquinas. Aún en nuestros días se
habla incluso metafóricamente de la maquinaria del gobierno o de la maquinaria del
cuerpo. La mecanización, que se asocia con la aplicación de la razón para mejorar la
producción industrial, se situó en cabeza de la tecnificación durante el siglo XIX, de forma
análoga a como el procesamiento de la información lo está haciendo en nuestros días.

Pero es que además de las aplicaciones tradicionales de las máquinas, en las que los
objetivos habituales son la transmisión de potencia, la mecánica está detrás (o es el
sustrato, como se quiera) de instrumentos de gran precisión. Y así, aunque hoy nos pueda
parecer inconcebible una máquina computadora sin el concurso de la electrónica, lo cierto
es que las primeras de estas máquinas fueron prodigios de ingeniería mecánica. En efecto,
desde comienzos del siglo XX se empezaron a inventar y construir máquinas mecánicas
para realizar cálculos matemáticos. Entre ellas destacan las que tenían como objetivo la
integración de ecuaciones diferenciales lineales, en un principio para cálculos de
dirección de tiro artillero naval (el ejército siempre en la vanguardia de la ingeniería), que
embebían en su propio diseño las mismas tablas de tiro, y que a finales de los años veinte
alcanzaron aplicaciones mucho más amplias, como el analizador diferencial de Bush, una
maravilla de la mecánica, además de un enorme armatoste que ocupa una gran sala. Más
adelante, en el capítulo III, se volverá sobre estos ingenios.

Así pues, la ingeniería mecánica es una rama pionera de la ingeniería que sigue
manteniendo una posición puntera entre los artificios que pueblan el mundo moderno.
Las máquinas que habitan ese mundo son, en gran medida, máquinas mecánicas a las que
se han incorporado elementos de otra especie, como los dispositivos eléctricos para el
suministro de energía y los procesadores electrónicos de información, que permiten su
control, pero en las que su fundamento mecánico sigue siendo esencial, conservando sus
problemas específicos. Asimismo, la ingeniería mecánica se alía con otras ramas
emergentes de la ingeniería dando lugar a máquinas tan prodigiosas como son los robots.
La ingeniería mecánica forma parte también de otras ramas de la ingeniería como puede
ser la naval, que desde la remota antigüedad ha sido capaz de concebir y construir navíos
con los que atravesar los mares, propiciando el comercio y los grandes descubrimientos
geográficos. También procede citar la ingeniería de minas, que requiere máquinas
especiales para sus trabajos peculiares, como la extracción del agua de las explotaciones
mineras. No se olvide que la máquina de vapor se concibió en principio para esta última
labor. La ingeniería de minas está, a su vez, íntimamente relacionada con la metalurgia, lo
que a su vez la aproxima a la química, al menos en sus orígenes.

La agricultura y los ingenieros


Como ya se ha indicado, la Revolución Neolítica fue una revolución técnica. Los avances
agrarios prehistóricos, más o menos accidentales, no fueron el resultado de un esfuerzo
organizado en el seno de un laboratorio famoso; ni fueron planificados por un comité ni
financiados por la administración pública. Sin embargo, constituyen un punto de no
retorno en la historia de la humanidad. Sin esos tempranos descubrimientos nada de lo
que posteriormente sucedió a nuestra especie hubiera ocurrido. Aún en nuestros días, las

17
nuevas mejoras en las tecnologías agronómicas son decisivos en la lucha contra el
hambre.
El cultivo y la agricultura hicieron posible las posteriores etapas en el desarrollo humano.
Antes de que el hombre aprendiese a sembrar semillas y a cosechar los frutos de las
plantas para obtener alimentos, no existía una sociedad organizada y estable de cierta
entidad. Los nómadas recorrían grandes áreas, que solían dejar exhaustas, buscando la
alimentación suficiente para nutrirse durante el período que duraba el asentamiento
temporal. Además, esa forma de vida no era propicia para el florecimiento de habilidades
especializadas. Con la Revolución Neolítica, la formación de pequeños poblados, la
fabricación de herramientas primitivas y la emergencia de artesanos permitieron
incrementar el margen de supervivencia. Los asentamientos estables determinaron
cambios radicales en el comportamiento social, fomentando la convivencia y reduciendo
el nivel de agresividad dentro del propio grupo, lo que fue necesario como primer paso
para establecer grandes comunidades en las que tenían que convivir quienes no fueran
parientes cercanos.
En toda comunidad, la cultura progresa al promover la imitación de los individuos
prestigiosos en un ámbito determinado. Cuanto mayor sea la comunidad más fácil será
que aparezcan focos de prestigio que tenderán a ser imitados, con lo que influirán sobre
otros de sus miembros. La mera imitación de lo que se observa en el entorno inmediato de
un individuo —su familia— se amplía a un espacio considerablemente mayor con la
aparición de las ciudades, que posteriormente, mediante las comunicaciones, los
transportes y los intercambios comerciales, alcanza espacios progresivamente mayores.

La sociedad humana fue básicamente agrícola hasta que se produjo la Revolución


Industrial, aunque coexistiese con una actividad creciente de artesanía y comercio,
radicada en las ciudades prósperas. Esa revolución se desencadenó en Gran Bretaña,
aproximadamente entre los años 1760 y 1830, y consistió en la transformación de una
economía tradicional y agraria en otra industrializada, con una sociedad urbana, poblada
de grandes factorías y una producción en masa con destino al mercado, e incluso con
instituciones financieras. En principio, el cambio se produjo en la industria textil, gracias
a la jenny, una máquina de hilar múltiple; así como al telar mecánico y al bastidor para
hilar, entre otras máquinas. La industrialización también transformó el resto de Europa,
aunque con una generación o más de retraso. Y así, hasta llegar a nuestros días, en los que
en los países más desarrollados solo un pequeño porcentaje de la población se ocupa de la
alimentación del resto de sus contemporáneos.

Durante el siglo XVIII, en paralelo con los comienzos de la industrialización, la agricultura


dejó de ser un asunto de subsistencia familiar y de pequeños mercados locales, y se
comenzó a desarrollar una agricultura que afectaba a grandes explotaciones con destino a
amplios mercados, y empezó a fraguar una rama de la ingeniería que atendiera los
correspondientes problemas agrícolas. De este modo, los ingenieros empiezan a ocuparse
de empresas agrarias debido a la complejidad que adquiere la explotación de grandes
haciendas, los elaborados conocimientos involucrados en el mejoramiento de las especies
cultivadas, así como por la complejidad creciente de las labores del campo, incluida su
mecanización. Se trata de un caso sintomático de la rezagada aparición de los ingenieros
en un ámbito de la técnica cuyos orígenes se remontan a los albores de la humanidad. A su
vez, ilustra el hecho de que la ingeniería moderna, tanto agronómica como el resto de
ellas, surge cuando los procesos técnicos alcanzan una cierta complejidad —y no a partir
de aparición de la ciencia moderna, como se pretende con frecuencia. La ingeniería

18
agronómica ha obtenido éxitos resonantes en el siglo XX, hasta el punto de frustrar las
expectativas pesimistas de los malthusianos. Los fertilizantes artificiales y la maquinaria
agrícola, junto con las nuevas variedades producidas por el ingenio de sus descubridores,
han permitido un gran incremento de la producción agraria, hasta el punto de mitigar
hambrunas seculares. Es pertinente también recordar que, para el mismo Charles Darwin
(1809-1882), la selección artificial de ganaderos y agricultores sirvió como fuente de
inspiración para formular la selección natural.

Por citar un caso notable, Samuel Salmon (1885-1975) fue un ingeniero agrónomo que se
unió a las fuerzas de ocupación estadounidenses en Japón después de la Segunda Guerra
Mundial. Trabajó para el Servicio de Investigación Agrícola y durante su estancia en
Japón recogió 16 variedades de trigo, incluida una cepa enana, que se llamaría Norin 10 y
que más tarde desencadenó la revolución verde. Reunió semillas de estas variedades y las
envió a Estados Unidos, donde llegaron a manos de Orville Vogel (1907-1991), quien
comenzó a cruzar Norin 10 con otras variedades de trigo para producir nuevas variedades
de tallo corto. En aquellos tiempos no resultaba aconsejable aumentar las dosis de
fertilizante para incrementar la producción de trigo, ya que el abono artificial hacía que
las plantas fueran altas y esbeltas, por lo que terminaban por troncharse. El ingeniero
agrónomo y premio Nobel de la Paz, Norman Borlaug (1914-2009), que trabajaba en
México, visitó a Vogel en 1952 y se llevó a ese país algunas semillas de Norin, a las que
sometió a nuevos cruces. En pocos años creó una variedad de trigo enano cuya
producción era varias veces superior a la anterior, de modo que se obtenía más comida y
más barata. Borlaug comenzó a difundir sus técnicas agronómicas en otros países,
incluidos la India, Egipto y Pakistán. Para el año 1964 la India se había convertido en un
exportador neto de trigo, pues la producción se había triplicado.

El trigo de Borlaug —y las variedades de arroz enano que se obtuvieron en paralelo—


desencadenó la revolución verde, que produjo una extraordinaria transformación de la
agricultura asiática en los años 1970, la cual permitió terminar con la hambruna endémica
de un continente, pese a una población en rápido crecimiento —como en su tiempo había
sucedido con la incorporación de la patata a la dieta europea. Así se puso de manifiesto
que las hambrunas podían superarse siempre que se incrementase el nivel de las
tecnologías agronómicas para conseguir los recursos adecuados. Pero, por otra parte, en
el correspondiente progreso agrícola juegan un papel determinante los fertilizantes
hechos a base de combustibles fósiles, lo que ha condicionado, hasta cierto punto, la
aceptación de esa forma de intervención agraria.

Pese al ritmo acelerado de crecimiento de la población, el suministro mundial de comida


ha conseguido mejorar sensiblemente. No obstante, uno de los grandes problemas
latentes es el de la escasez de agua dulce, pues, debido a la agricultura intensiva, se está
produciendo un agotamiento de ese líquido imprescindible, especialmente en países
como la India. La reversión del problema del hambre acarrea costes en un mundo con una
población en crecimiento desenfrenado. En todo caso se tiene la convicción de que en
nuestros días se produce alimentación suficiente para el conjunto de la humanidad actual,
pero que son las deficiencias en la organización y distribución de esa producción, junto al
despilfarro de los países más desarrollados, las que están en el origen de la considerable
fracción de población que sufre aún carencias alimentarias e incluso hambrunas.
Una muestra reciente de los progresos en la agricultura se ha producido mediante la
aplicación de la ingeniería genética, con la que, por ejemplo, se pueden obtener plantas

19
resistentes a las plagas, gracias a los transgénicos. Estas actuaciones han sido
controvertidas, pero después de unos decenios de cultivos transgénicos, con muchos
millones de hectáreas sembradas, no hay ningún indicio de problemas ni para la salud ni
para el medioambiente. El aumento exponencial de la población, y el hecho de que no sea
posible ampliar la superficie cultivada, determinan que haya que aumentar el rendimiento
con medios apropiados. No hay suficiente tecnología agronómica tradicional, pese a la
revolución verde, para alimentar a diez mil millones de habitantes, cifra que se estima que
se alcanzará a mediados del siglo XXI (en 2015 había 7,3 miles de millones de habitantes
en la Tierra). Para ello es imperativo aumentar el rendimiento por hectárea (lo que debería
hacerse, a su vez, con menor gasto energético y menor consumo de agua dulce).

En un dominio semejante, por su incidencia en el mundo vegetal, se encuentra la


ingeniería de montes, encargada de la regeneración de los bosques afectados por las talas
masivas. Esta rama de la ingeniería es, en cierta medida, precursora de la defensa del
mundo natural frente a las agresiones por parte de madereros y de agricultores, éstos para
extender sus cultivos. En ella se recurre a intervenciones artificiales sobre ese mundo que
requieren una programación y ejecución a gran escala, en una labor propia de ingenieros.

20
Capítulo II.- Nuevas ramas de la ingeniería
La transmisión de información y de energía
La ingeniería eléctrica, junto con la ingeniería química, a la que se dedicará un apartado
posterior en este mismo capítulo, son representativas de los cambios que se producen en
la vanguardia de la ingeniería a lo largo del siglo XIX y principios del XX. En ese período,
la edad del vapor en la industria cedió el paso a la de la electricidad y la química. En
ambos casos las tecnologías correspondientes aparecen relacionadas con conocimientos
emparentados con el mundo de la ciencia, por lo que llegaron a ser conocidas como
técnicas científicas. Estas nuevas ramas se suman a las ingenierías de obras públicas y
mecánica, hasta entonces dominantes. De hecho, se produce una Segunda Revolución
Industrial, aproximadamente a partir de 1880, como resultado de la electricidad, la
turbina de vapor, la combustión interna, el acero, el petróleo, los productos de la nueva
química, las máquinas-herramientas, la producción en masa, entre otros progresos de la
técnica. Se presumía que todo ello conduciría a una era de prosperidad económica en la
que la mayor parte de la población disfrutaría de abundancia material, con lo que sus
condiciones de vida se verían notablemente mejoradas. En esta segunda revolución pasan
a ocupar un lugar destacado, en la cabeza de la industrialización, Estados Unidos y
Alemania, que alcanzan a Gran Bretaña. La difusión de la energía eléctrica estimuló la
imaginación de un político revolucionario como Vladimir Ilich Ulianov, más conocido
por el sobrenombre de Lenin (1870-1924), a quien se atribuye la afirmación de que «el
socialismo es igual a los sóviets más electricidad». De este modo, el paraíso comunista
sería inseparable de la técnica moderna.

En la segunda mitad del siglo XIX la electricidad invade el mundo industrializado. La


existencia de fenómenos eléctricos se conocía desde antiguo, pero es a principios de siglo
cuando esa fuerza misteriosa empieza a ser dominada. En ese tiempo, Alessandro Volta
(1745-1827) inventó la pila eléctrica, que permitiría experimentar con la electricidad, la
cual pronto se relacionó con el magnetismo a partir de las experimentos de Hans Christian
Ørsted (1777-1851) y de su formalización matemática por André-Marie Ampère
(1775-1836) en la electrodinámica, que sentó las bases para las posteriores aplicaciones
de la electricidad. En sus orígenes era una curiosidad experimental que exhibieron
científicos y médicos en los salones ilustrados, entre ellos Luigi Galvani (1737-1798),
que aplicaba descargas eléctricas a las ancas de ranas muertas, con lo que se producían
espasmos en sus músculos que parecían devolverles la vida, abriendo así a la imaginación
la posibilidad de restituir la vida mediante esas descargas —lo que inspiraría a Mary W.
Shelley (1797-1851) su celebrada novela Frankenstein o el moderno Prometeo (1818).

La familiaridad con la electricidad propició una innovación radical en la transmisión de

21
señales a grandes distancias, que se inicia en 1837 con el telégrafo de Samuel Morse
(1791-1872). Desde la antigüedad habían existido procedimientos, si bien de menor
eficacia, para la transmisión de mensajes a distancia, entre los que destacaron las
banderas entre navíos, o los habilidosos semáforos ópticos que codificaban los mensajes
mediante el posicionamiento de brazos mecánicos o aspas en promontorios o torres que se
avistaban sucesivamente, y que fueron contemporáneos de los primeros intentos de usar
la electricidad para ese fin. Los operarios de esos telégrafos, los torreros, se convirtieron
precisamente en los responsables de los primeros telégrafos eléctricos, por su
familiaridad con la codificación y transmisión de señales. Las formas ancestrales de
comunicación se realizaban por procedimientos muy simples que no requerían el recurso
a nada calificable como científico. Por otra parte, y con independencia de lo anterior, la
electricidad resultó decisiva para el transporte de energía, magnitud esencial para el
funcionamiento de las máquinas. Sin embargo, aunque se admita que la ciencia física
había puesto la electricidad sobre la mesa (junto con algunos médicos, seducidos por los
efectos de los fenómenos eléctricos en restos de animales muertos, como se acaba de
recordar), pronto los físicos se desentendieron del exuberante mundo de la generación y
distribución de la electricidad, y de sus aplicaciones, en tanto que los mejor dotados de
ellos se ocupaban preferentemente en especular sobre el misterioso éter y en buscar el
grupo de transformaciones que mantuviesen invariantes las ecuaciones de Maxwell en
dos sistemas inerciales. Esto condujo a las transformaciones de Lorentz y posteriormente
a la teoría de la relatividad, al proponer el entonces joven Albert Einstein (1879-1955)
una interpretación física revolucionaria de esas transformaciones, con la que estableció
una síntesis inaudita entre la relatividad galileana y la invariancia de la velocidad de la
luz, lo que fue una de las más admirables proezas científicas de principios del siglo XX.

Por su parte, el físico alemán Heinrich Hertz (1857-1894) observó que cuando se
descargaba un condensador en un circuito con una pequeña discontinuidad de corta
amplitud, se comportaba como un generador de chispas. Además, puso otro circuito
circular relativamente alejado, en el que se producían a su vez chispas como consecuencia
de las generadas en el primero. Comprendió lo que sucedía: el segundo recibía las ondas
electromagnéticas que se generaban en el primero al producirse las descargas. De este
modo, realizó brillantes experimentos en los que verificó que, como había predicho
Maxwell, las ondas electromagnéticas tenían un comportamiento oscilatorio similar al de
la luz. Aunque en esas experiencias se sugiere la posibilidad de transmisión inalámbrica
de señales eléctricas, el propio Hertz afirmó que solo pretendía comprobar si las
perturbaciones electromagnéticas se transmitían instantáneamente o con una velocidad
finita, y no veía ninguna aplicación práctica derivada de sus experimentos —además, no
existe evidencia de que a él eso le interesase lo más mínimo, pese a haber estudiado
ingeniería al comienzo de su carrera y ejercer como profesor en la Escuela Técnica
Superior de Karlsruhe.

Se suscita, a veces, la cuestión de qué hubiese hecho Guglielmo Marconi (1874-1937) –


–y también Nikola Tesla, independientemente— sin Hertz. Pues bien, el italiano amplió
el restringido ámbito de emisión del oscilador de Hertz, limitado a los pocos metros de un
laboratorio, hasta cubrir progresivamente distancias crecientes entre el emisor y receptor.
Entre otras cosas, Marconi puso a tierra el oscilador de Hertz y le añadió una antena,
además de introducir nuevos componentes, como el cohesor de Branly. Así llegó a
conseguir que las señales sobrepasasen la barrera aparente impuesta por la curvatura de la
Tierra, si bien para él no fue prioritario comprender cómo lo hacían. Después de los
logros prácticos de Marconi se descubrió la ionosfera y se comprendió que las ondas

22
electromagnéticas «rebotaban» en ella. Marconi nunca permitió que una teoría se
interpusiese en la experimentación de una idea con la que mejorar la solución práctica a
un determinado problema. Fue, además de un perseverante experimentador, un astuto
hombre de negocios y un hábil publicista de sus logros, lo que resultó decisivo para el
éxito que alcanzó. Sin embargo, no consiguió retransmitir el sonido en general ni la voz
humana en particular. Fue Lee de Forest quien contribuyó a resolver estos problemas,
gracias al triodo, como se verá un poco más abajo.

Otro personaje representativo del mundo de los inventos lucrativos en el período que
media entre finales del siglo XIX y principios del XX es el inventor americano Thomas
Edison (1847-1931) ––convertido en ingeniero eléctrico, gracias al acceso a la profesión
mediante la práctica profesional exitosa, que permitía el sistema angloamericano
entonces vigente––, quien se dedicó activamente a una forma de experimentación cuyo
objetivo declarado era producir invenciones prácticas a escala industrial destinadas al
mercado, como son la iluminación eléctrica, el fonógrafo, el telégrafo dúplex y cientos de
otros inventos. Edison adoptaba conscientemente una actitud contrapuesta a la del
auténtico científico, que por lo general en aquellos tiempos consideraba una claudicación,
o al menos algo ajeno al espíritu que debía inspirar sus actuaciones, el dedicarse a buscar
usos prácticos a ideas y descubrimientos científicos —aunque haya habido excepciones a
esta regla. El propio Edison se definió como científico industrial (especie singular donde
las haya), si bien no muchos científicos lo admitirían como uno de los suyos. No
disimulaba su desdén por los matemáticos y los físicos, aunque contrató algunos para
«tener alguien a mano en caso de que necesitemos hacer algún cálculo» 14.
Se ha dicho que uno de los grandes inventos de Edison fue el laboratorio de investigación
industrial, en el que este inventor aplicó al proceso de invención métodos análogos a los
de producción en masa. Los progresos en el legendario laboratorio de Menlo Park
(fundado en 1876), que se reconvirtió en el laboratorio de la Edison General Electric,
fueron seguidos por el de la Westinghouse Electric Company (creada a su vez por el
competidor de Edison, George Westinghouse) así como el de la Bell Telephone
Company, entre otros. El objetivo de la investigación que se llevaba a cabo en estos
centros era conseguir dispositivos susceptibles de aplicación práctica y no el comprender
los fenómenos eléctricos, como se estimaba entonces que era lo propio de la investigación
científica. Este tipo de laboratorio representa el fin del inventor solitario, que lo mismo
que el investigador científico, que normalmente trabajaba entonces aislado también,
abundan en el siglo XIX. Se abre así la vía a lo que serán los modernos centros de
investigación aplicada, llamados a dominar la escena de la innovación en nuestros días.
En estos centros, la búsqueda de invenciones se lleva a cabo de forma sistemática, en
instituciones especiales y a una escala sin precedentes15.

Para cumplir los objetivos fundacionales, en aquellos laboratorios se desarrollaba una


investigación orientada a aplicaciones concretas, llevada a cabo por grupos de trabajo que

14
En realidad, los ingenieros han calculado siempre sus proyectos (recuérdense las afirmaciones de Galileo
sobre los artesanos de los astilleros de Venecia), por lo que lo dicho por Edison resulta un tanto
improcedente, aunque es una muestra de su actitud ante los científicos. La cita procede de Fritz Vögtle,
Edison, p. 34.
15
Los laboratorios Beijerinck (Delft, Holanda) y Carlsberg (Copenhague) son más antiguos; se dedicaron
inicialmente a investigación en microbiología de fermentaciones. Estos laboratorios, sin embargo, se
dedicaron a lo que hoy conocemos como biotecnologías, que tradicionalmente no se habían considerado en
el núcleo de la ingeniería, dominada por los artefactos de constitución mecánica y eléctrica, y también
química.

23
incluyen —entonces y ahora— a todos los que puedan aportar algo a un problema
práctico bien definido, lo que conduce al establecimiento de grupos heterogéneos y, con
frecuencia, efímeros. Esa labor en equipos multidisciplinares se diferenciaba de la que se
llevaba a cabo en los laboratorios científicos, donde prevalecía una estructura jerárquica
liderada por un científico de gran personalidad, y en los que las actividades estaban
enmarcadas en un entorno inequívocamente disciplinario buscando el desvelamiento de
algún fenómeno natural. Los científicos descubrieron temprano que la forma más efectiva
de alcanzar el éxito consistía en la especialización en el ámbito cognitivo, lo que se
tradujo en la formación de las distintas disciplinas científicas. Y así, en la investigación
científica los resultados se enjuician dentro del marco disciplinario correspondiente,
sometiéndolos al juicio entre pares. Por otra parte, en todos los laboratorios ingenieriles el
liderazgo de la investigación correspondía a ingenieros, o a quienes ejercían sus mismas
funciones, que imponían sus criterios de beneficio práctico a corto plazo. Estos
laboratorios se centraron en la investigación orientada a aplicaciones, sin prestar atención
a la investigación básica más que de forma secundaria y en la medida en que pudieran
beneficiarse de ella para las aplicaciones que llevaban a cabo. Las compañías que
promocionaron esos laboratorios se dieron cuenta de que no era indispensable emprender
investigaciones de ciencia pura para alcanzar logros de amplia resonancia social y
rentable repercusión económica.
De este modo, fueron los ingenieros los que desarrollaron autónomamente tanto los
múltiples artefactos eléctricos que forman el electrificado mundo artificial en el que
vivimos, como los conocimientos necesarios para concebirlos y elaborarlos, en particular
el fértil mundo de la corriente alterna. Entre ellos destaca el genio del croata Nikola
Tesla 16 (1856-1943), uno de los más portentosos ingenieros que han conocido los
tiempos, el cual concibió máquinas que forman parte imprescindible del mundo actual.
El de Tesla es un caso paradigmático de la influencia de la ingeniería en el mundo actual.
Es claramente un ingeniero17 que carecía de visión empresarial (lo que no sucedía con el
que fue su contrincante, Edison), pero sus concepciones estaban siempre orientadas a la
obtención de dispositivos para aplicar la electricidad a resolver problemas prácticos. En
este orden de cosas destaca su promoción de la corriente alterna, que ha revolucionado la
implantación de la electricidad en el mundo moderno. Perfeccionó el motor de inducción
de Ferraris (hasta el extremo de que con frecuencia se le adjudica a él su invención), así
como la bobina que lleva su nombre y el generador de corriente alterna. Sus inventos
fueron numerosos y muy variados.
Famosa fue su capacidad de visualizar mentalmente los problemas solucionarlos sin
necesidad de plasmarlos sobre el papel ni de realizar cálculos preliminares. Tenía la
facultad de pasar de la intuición al proyecto en su propia mente. Sabía que los proyectos
de los artefactos pueden recibir ayuda del cálculo, pero que no se limitan a eso. Además,
Tesla no trabajaba mediante ensayos exploratorios, como hacían otros, como el propio
Edison, sino que reflexionaba pormenorizadamente los proyectos de los prototipos antes
de proceder a construirlos. Igualmente, nunca daba por acabados sus inventos, que
perfeccionaba incansablemente como si fueran obras de arte, modificándolos de
continuo, tardando en alcanzar el convencimiento de que estuvieran listos para darlos por
concluidos. Resulta imposible hacer justicia a la aportación de Tesla a la génesis del
mundo artificial moderno, aunque su final dista mucho de lo que se hubiese esperado por

16
Margaret Cheney, Nicola Tesla: El genio al que le robaron la luz, Turner, 2009.
17
Tesla ha sido víctima de un persistente y obstinado empeño: el de que se refieran a él como científico.

24
sus contribuciones. En la segunda parte de su vida se recluyó con sus iniciativas más
fantasiosas y acabó sus días inmerso en la extravagancia y sumido en cierta penuria.

Otro personaje interesante en la historia de la ingeniería eléctrica es Chales (Proteus)


Steinmtez (1865-1923), quien trató de integrar las matemáticas y la teoría a la práctica de
la ingeniería. Inmigrante exiliado de la Europa central por sus ideas socialistas —que
atemperaría una vez instalado en Estados Unidos—, se convirtió, ya en ese país, en un
celebrado ingeniero eléctrico, consultor principal de General Electric. Llegó a ser
presidente del American Institute of Electrical Engineering 18 . Poseía una buena
formación en Física y Matemáticas, y aunque en sus comienzos intentó aplicar
directamente esas disciplinas a la ingeniería, en especial las ecuaciones de Maxwell a las
máquinas eléctricas, encontró que tenía que proceder a realizar importantes
modificaciones, incluso conceptuales, para que esos conocimientos resultasen útiles para
el diseño de esas máquinas. También son notables sus aportaciones al análisis de los
circuitos de corriente alterna, introduciendo el concepto de fasor. Con todo ello
contribuyó a instituir la ingeniería eléctrica como una rama del conocimiento
relativamente autónoma que se ocupaba de los ingenios eléctricos dotados de incidencia
práctica. Aunque Steinmetz empleaba la denominación de «ciencia aplicada» para la
ingeniería, para él el adjetivo aplicada significaba mucho más que la mera transferencia
de conocimiento de la ciencia a la ingeniería, sin mediar ninguna modificación ni
reelaboración específica por parte de la segunda. En efecto, cuanto más se sepa con
relación a los fenómenos físicos involucrados en un artefacto, tanto mejor, pero esos
ingenios no son una simple aplicación de esos saberes, en el sentido de que se deriven
exclusivamente de estos últimos, como la trayectoria elíptica de los planetas se obtiene
aplicando solamente la mecánica de Newton. El matiz que se esconde en lo que se acaba
de decir es crucial para la tesis que aquí se defiende. Los ingenieros no se limitan a
aplicar lo que se sabe en ciencia, sino que se auxilian de ello, en su caso, para concebir,
proyectar y construir los originales e ingeniosos artificios con los que resolver los
problemas de los que se ocupan, e incluso han concebido teorías específicas para facilitar
esa resolución. Y de este modo han producido los asombrosos, originales e ingeniosos
artificios de orden práctico que han delimitado el ámbito de actividad de la ingeniería
eléctrica, lo mismo que el del resto de las ramas de la ingeniería.

Eso es precisamente lo que identifica el trabajo de los ingenieros, cuya labor se juzga por
su capacidad para hacer cosas bien definidas, que no existían en el mundo natural, en
busca de lo útil, ventajoso y económico. Procede recordar ahora lo dicho por Edison con
respecto al largo proceso por el que llegó a descubrir el filamento de bambú carbonado:
«No es que fracasase, sino que encontré diez mil maneras que no funcionaban». Por eso
cuando se afirma con ligereza que la iluminación es una aplicación trivial de la
electricidad, esa declaración hay que tomarla con obvias reservas.

Orígenes de la ingeniería electrónica


Una rama de la ingeniería eléctrica, cuya repercusión no necesita glosarse, es la
electrónica. El ingeniero escocés John Ambrose Fleming (1849-1945) concibió la
primera válvula electrónica como resultado de la aplicación del fenómeno termoiónico
que había descubierto Edison en las bombillas de incandescencia, y que se conoce como
efecto Edison. Este último inventor había observado que en las lámparas incandescentes

18
Ronald R. Kline, Steinmetz: Engineer and Socialist.

25
se producía una corriente desde el filamento, o cátodo, a un electrodo cilíndrico, o ánodo,
que había introducido rodeando el filamento y que se mantenía a un voltaje positivo. Lo
que sucedía era que desde el filamento incandescente se emitían electrones que eran
atraídos por el ánodo. Sin embargo, Edison no fue capaz de encontrar ninguna aplicación
valiosa a este fenómeno; y aunque éste es posiblemente el descubrimiento experimental
más fructífero del célebre inventor americano, no obtuvo ningún provecho de él, pese a la
repercusión que acabó teniendo. De hecho, en 1904, Fleming, motivado por un problema
preciso, el de demodular las señales oscilatorias que captaban las antenas en la
transmisión de señales inalámbricas, se basó en ese efecto para inventar un sencillo
dispositivo con el que «rectificar» la corriente alterna al que llamó oscillation valve, y que
recibió otras denominaciones hasta que acabó imponiéndose la de «diodo». El diodo
permitía el paso de la corriente eléctrica en un único sentido, con lo que funcionaba como
un rectificador que convertía las oscilaciones inducidas en las antenas por las ondas
electromagnéticas en corrientes «rectificadas» con las que actuar sobre los auriculares.
De este modo, Fleming concibió un dispositivo para resolver el problema de cómo activar
eficientemente los auriculares, mediante la detección de la envolvente de las señales
captadas por la antena.
No obstante, el diodo era insuficiente para una buena audición: se requería además
amplificar la señal. Para resolver ese problema, dos años después, en 1906, otro
ingeniero, esta vez americano, Lee De Forest (1873-1961), inventó el triodo (al que
inicialmente denominó audion). Así nacía la electrónica, aunque no se hubiera acuñado
aún ese término. Esa válvula termoiónica fue el resultado de una ingeniosa modificación
del diodo. De Forest tuvo la idea feliz de añadir una rejilla, llamada rejilla de control,
entre el filamento y la placa de un diodo, y comprobó que con esa rejilla podía controlar la
corriente eléctrica que circulaba entre el ánodo y el cátodo, de manera que con un
pequeño voltaje aplicado a esa rejilla se conseguían grandes variaciones en esa corriente.
De este modo, concibió y construyó el triodo, la válvula termoiónica con tres electrodos:
ánodo, cátodo y rejilla de control. Al principio era relativamente ineficiente, pero
entonces los ingenieros aprendieron a hacer un buen vacío para mejorar sus prestaciones,
y las válvulas, tanto el diodo como el triodo, empezaron a encontrar múltiples
aplicaciones al ser capaces de ejecutar tres funciones básicas —rectificar, conmutar y
amplificar––, a las que se unió posteriormente el biestable o flip-flop (una peculiar
conexión de dos triodos, de modo que uno está al corte y el otro saturado) para el
almacenamiento de información digital. Mediante estas funciones se llevaron a cabo un
número ilimitado de aplicaciones.
En efecto, con los diodos y triodos se disponía de recursos para la transmisión y el
procesamiento de la información, dando lugar a la electrónica industrial y de consumo, y
posteriormente a la informática. En sus orígenes, las aplicaciones de este nuevo campo de
la técnica se orientaron hacia las radiocomunicaciones: la telegrafía sin hilos, los
primitivos teléfonos, los receptores de radiodifusión y más tarde los tocadiscos, los
altavoces y los televisores; pero también se extendieron a dominios tan diversos como la
microscopía electrónica o la radioastronomía, incluido el vasto dominio del control
automático, así como las primeras computadoras electrónicas —específicas, no de
propósito general––: el Colossus en el Reino Unido en 1944, para descifrar los mensajes
cifrados durante la Segunda Guerra Mundial, y el ENIAC en Estados Unidos en 1946,
para integrar ecuaciones diferenciales. Estas dos máquinas eran maravillas de la
ingeniería electrónica realizadas con válvulas termoiónicas. Después de la Segunda
Guerra Mundial se multiplicaron esas aplicaciones, que alcanzaron su cenit a partir de los
años 1950 con la aparición del transistor.

26
La ingeniería química y los químicos
Si cada rama de la ingeniería tiene una historia peculiar, en el caso de la ingeniería
química los rasgos propios cobran especial relevancia. Surge más o menos en la misma
época que la eléctrica, en paralelo con las correspondientes industrias química y eléctrica.
Sin embargo, los orígenes de la química se remontan a los de la civilización. Desde que el
hombre controla el fuego realiza ensayos para transformar los metales, lo que consigue a
partir de la Revolución Neolítica. Este tipo de actividades continúan produciéndose
durante toda la historia hasta llegar a tiempos recientes en los que se producen cambios
notables en esa evolución, al empezar a cristalizar la ciencia química. A partir de
mediados del siglo XVIII se producen descubrimientos llamados a tener una gran
influencia posterior. Al mismo tiempo, se empiezan a fabricar, en grandes cantidades, una
enorme variedad de productos químicos, lo que influirá en la aparición de la ingeniería
química.

A principios del siglo XX la industria química, principalmente en Europa y en especial en


Alemania, combinaba una serie de viejas prácticas artesanales heredadas del siglo XIX
con nuevos conocimientos científicos. En este país nació en 1925 el gigante de la química
mundial I. G. Farben de la fusión de, entre otras empresas, Bayer, Hoersch y BASF. En
aquellos tiempos Alemania era El Dorado de la química industrial. El talento y la
experiencia de los químicos alemanes permitieron a numerosos de entre ellos participar
en proyectos industriales de gran envergadura. Los grandes químicos siempre han
insistido en su gusto por lo concreto, por el trabajo experimental, quizá pretendiendo
desmarcarse de una ciencia hermana, la física, más inclinada al trabajo teórico e incluso a
reflexiones que rozan lo filosófico. Cuando se desarrolló la mecánica cuántica parecía
que la química quedaría reducida a una rama de la física, pero pronto se comprendió que
la ecuación de Schrödinger es demasiado complicada para poder resolverla, incluso
aproximadamente, para todas las moléculas, excepto para las más pequeñas, de modo que
siguieron manteniéndose en vigor los métodos experimentales empleados comúnmente
por los químicos, aunque se conocieran las ecuaciones cuya resolución evitaría tener que
hacer esos experimentos. Pese a los progresos en la llamada química computacional, la
sustitución del tubo de ensayo por el ordenador no está aún a la vuelta de esquina. Para el
lector avisado no pasará desapercibido que algo análogo sucede con la ingeniería en
relación con la ciencia en general.

La industria química adquiere rasgos propios cuando los problemas y los conocimientos
químicos alcanzaron el desarrollo y la elaboración que requería una sociedad moderna
(síntesis de compuestos orgánicos, producción de ácidos, álcalis, acero, explosivos, etc.).
Una muestra se tiene cuando Du Pont logra producir dinamita, en 1880, y empieza a
contratar químicos para perfeccionar los delicados y peligrosos procedimientos de
fabricación, y asimismo limitar las emisiones de contaminantes ácidos que tenían efectos
desastrosos en los ríos en los que se vertían los desechos. En 1902 se crea el primer
laboratorio de Du Pont, el Eastern Laboratory, que tenía como misión mejorar los propios
explosivos y sus procedimientos de fabricación. La instauración de los primeros
laboratorios de investigación industrial americanos se hizo imitando los laboratorios de
las grandes empresas químicas alemanas.

La fabricación de pólvora negra era una heredera arquetípica de una cultura de taller
caracterizada por un enfoque artesanal de los problemas de producción. Sin embargo, en
la transición entre los siglos XIX y XX, los nuevos explosivos derivados del ácido nítrico

27
(dinamita, pólvora sin humo…) se implantaron tanto en los mercados militares como en
los civiles. A partir de ello se pusieron de manifiesto problemas para la fabricación de
explosivos: por una parte, la producción de las materias primas para fabricar el ácido
nítrico, componente esencial de los explosivos (cuestión que fue resuelta mediante una
revolución en la química industrial); y por otra, los procedimientos de fabricación que
debían conciliar seguridad y producción en masa.

La síntesis del amoníaco es otro ejemplo de la historia de la industria química moderna a


fines del siglo XIX. La invención de un procedimiento de fabricación del amoníaco,
económico y eficiente, movilizó la flor y nata de la química europea. Destaca la
personalidad del químico alemán Fritz Haber (1868-1934), nombrado en 1912 director
del prestigioso Kaiser Wilhelm Institut de Química Física y Electroquímica en
Berlín-Dahlem y que obtuvo el premio Nobel de Química en 1919, en recompensa por
sus trabajos sobre el amoníaco.

Los trabajos de Haber sobre el nitrógeno tuvieron un notable impacto en Alemania, pues
sirvieron de base para la síntesis de nitratos que fueron cruciales para la obtención de
abonos con los que conseguir cosechas abundantes, lo que permitió alcanzar una cierta
autonomía alimentaria por parte de ese país durante el Gran Guerra europea, cuando las
importaciones estaban muy limitadas. Haber y Carl Bosch (1874-1940) idearon un
proceso para producir amoníaco utilizando nitrógeno atmosférico. Por otra parte, también
hay que señalar su contribución a la producción de los gases venenosos que
conmocionaron a la opinión pública mundial cuando fueron utilizados con fines bélicos.

En efecto, la fabricación de estos gases durante la Gran Guerra merece mención especial.
Los programas de fabricación correspondientes convocaron a los químicos, los cuales,
además de sus motivaciones patrióticas, vieron la ocasión de demostrar su competencia
profesional. En algunos medios se llegó a denominar esa guerra como la «guerra de los
químicos». La fabricación de los gases no era compleja, pero la toxicidad de los
productos hacía las operaciones muy peligrosas. En todo caso, esa producción ha sido
considerada como uno de los primeros ejemplos significativos de colaboración a gran
escala entre militares y científicos. Por ello, el posterior proyecto Manhattan no fue una
completa novedad. Pero al contrario de lo que sucedió después de Hiroshima, cuando los
físicos gozaron de un enorme prestigio, los químicos y los ingenieros químicos de la Gran
Guerra tuvieron que adoptar un perfil bajo ante la opinión pública después de la
contienda.

Otro hecho significativo en el desarrollo de la industria química es la sustitución de


carbón por otras materias primas energéticas como el petróleo y el gas natural. De esta
forma, nacía uno de los fenómenos más importantes del siglo XX, desde el punto de vista
económico, como es la industria petroquímica, basada en la fragmentación de
hidrocarburos —que permite el refinado del petróleo—, y que contribuyó a mejorar la
imagen pública de la ingeniería química, al asociarla también con la fabricación de
productos de gran consumo, como sucedió con el nailon y los plásticos. En efecto, a partir
de finales de los años veinte, y sobre todo en los años treinta, los explosivos fueron
desplazados en favor de artículos con destino al gran público: plástico, celofán,
anticongelante y especialmente el nailon, entre otros. Estos productos tuvieron gran
repercusión en la vida de las gentes, al tiempo que proponían implícitamente una cierta
visión optimista del porvenir fundada sobre la idea de progreso basado en la técnica,
aunque fuese arrojando un velo encubridor sobre sus consecuencias ecológicas.

28
En Estados Unidos, a principios del siglo XX, el ingeniero que trabajaba en los procesos
químicos no era prioritariamente un químico, sino un ingeniero mecánico que prestaba
una particular atención a los problemas de la industria química; es decir, a cuestiones
implicadas en la transferencia de materia en las dosis adecuadas y a los puntos donde se
producían las reacciones químicas con las que se obtenían los productos buscados. En
estos ingenieros mecánicos, que colaboraban en los procesos de producción de productos
químicos a gran escala, cabe ver los orígenes de los ingenieros químicos. Éstos últimos, al
menos los formados en Norteamérica hasta los comienzos del siglo XX, eran todavía
primos hermanos de los ingenieros mecánicos. Pero pronto se comprendió que tenían una
formación química insuficiente y que se requería que conociesen los procesos químicos
cuyo desarrollo ellos mismos facilitaban con sus aportaciones ingenieriles. Entonces
surge el ingeniero químico como se entiende hoy: asociado a procesos de producción a
gran escala, de forma similar a como surgen otras ramas de la ingeniería moderna.

En realidad, en los años veinte los ingenieros químicos todavía eran considerados con
alguna reticencia por parte de los químicos, y debían demostrar su competencia casi
diariamente. Sin embargo, sus cualidades añadían a la idoneidad técnica, las dotes
directivas, de organización y de negociación propias de los ingenieros. La profesión de
ingeniero químico fue el resultado del cruce de conocimientos químicos básicos con el
enfoque productivo del ingeniero. De este modo se produjo una combinación peculiar de
saber científico y labores ingenieriles. En todo caso, en la ingeniería química la
participación de los científicos y de sus métodos es más notable que las que se producen
en otras ramas de la ingeniería. De hecho, la ingeniería eléctrica, que había nacido
también en departamentos de ingeniería mecánica, alcanzó su identidad más
rápidamente, al ser organizada por una industria eléctrica muy concentrada en torno a
algunas grandes empresas, lo que permitió promover un saber y unas prácticas que se
estabilizaron rápidamente, y que no tuvieron competencia significativa por parte de los
físicos, como se ha recordado con anterioridad. Más que la ingeniería eléctrica, la
química se convirtió en el modelo de la mutua interpenetración entre los mundos
universitario e industrial. En la actualidad está sucediendo algo análogo con las
biotecnologías, una de las industrias transformadoras más prestigiosas de finales del siglo
XX, y en general con las aplicaciones en las que está involucrada la biología.

La formación específica en ingeniería química en las universidades americanas se inicia a


principios de los años veinte, cuando se define el concepto de operaciones unitarias (unit
operations). Para formalizar los procesos químicos resultaban indispensables las
nociones de fluido, y de transferencia de energía y de materia. Estos conceptos se
unificaron con la denominación de «fenómenos de transporte», que a su vez dieron lugar
a las operaciones unitarias. Una operación unitaria es una operación básica en química
industrial (cristalización, destilación, combustión, filtración…) y permite descomponer
un procedimiento de fabricación industrial en una serie de operaciones simples y
normalizadas. De este modo, con las operaciones unitarias, los procesos de fabricación se
pueden representar de forma sintética y concisa. En consecuencia, la ingeniería química
se reorganizó en torno a los procesos más que a los productos, y dejó de ser un compuesto
de química y de ingeniería mecánica, convirtiéndose en una especialidad sustentada sobre
unas operaciones regladas. De este modo, la operación unitaria marca el fin del
empirismo puro y la formación artesanal, al sistematizar los procesos de producción que
hasta entonces eran meramente empíricos, y referidos a cada producto que se pretendía
producir.

29
Como resultado se estableció un nuevo enfoque de los problemas de producción en
química industrial, centrado en el estudio de los procesos. En paralelo, se puso de
manifiesto la necesidad de construir plantas piloto y de acumular datos antes de pasar a la
etapa industrial. El fundamento conceptual en torno al que creció la profesión de forma
autónoma fue, pues, el de operaciones unitarias, lo que permitió la transformación de la
ingeniería química desde un saber hacer propio de un ingeniero mecánico, con unos
pocos conocimientos de química, hasta un enfoque con componentes teóricos de los
procedimientos de producción propiamente químicos. A veces se distingue entre
ingeniería química, basada en operaciones unitarias, y química industrial, que tendría un
carácter más vertical, más referida a cada producto que se pretenda obtener, frente a la
primera, más transversal u horizontal, centrada en torno al proceso de producción que
tiene etapas comunes para los distintos productos. No obstante, en la actualidad se
ofrecen titulaciones de ingeniero químico industrial.

Con la fabricación del amoniaco y más tarde del nailon, los ingenieros químicos
reunieron un capital de autoridad profesional que les permitió consolidar su posición en
vísperas de la Segunda Guerra Mundial. Con el nailon, en particular, los ingenieros
perfeccionaron un modo de producción capaz de transformar, en pocos años, lo que no
era al principio más que una curiosidad de laboratorio en un producto comercial fabricado
a gran escala. Gracias al nailon (y también, en mucha menor medida, al teflón) Du Pont se
transformó de una empresa de explosivos, que se había diversificado en algunos dominios
relacionados con la química de explosivos (pinturas y productos a base de celulosa) en los
años veinte, en una firma que exploró nuevos dominios en los que el saber hacer de los
ingenieros químicos alcanzó una gran notoriedad. Asimismo, contribuyó a superar el
trauma que representaba la excesiva identificación de la ingeniería química con la
fabricación de gas venenoso durante la Gran Guerra.

La fabricación del nailon, más aun que su invención en el laboratorio, fue un éxito
notable, que combinaba el invento del producto con las innovaciones en los procesos de
fabricación, lo que constituye un hito en la investigación industrial anterior a la Segunda
Guerra Mundial. De forma análoga a como la lámpara de filamento de tungsteno (o
wolframio), en sustitución de la de carbono de Edison, había sido puesta a punto por
General Electric en los años veinte, el nailon proponía al gran público un producto
elaborado y de gran consumo.

El éxito comercial del nailon, evidente desde los primeros días de su comercialización en
mayo de 1940, convenció a los dirigentes de Du Pont de que la innovación era la clave
para el desarrollo de la firma; al mismo tiempo que convirtió a la química en un foco de
irradiación de la ingeniería comparable al que estaba teniendo la electricidad. Eso hizo
pensar a los directivos de esa empresa que impulsando la investigación aplicada se
podrían alcanzar otros productos semejantes, que producirían beneficios empresariales
similares a los de ese producto mítico. Sin embargo, a pesar de las grandes inversiones en
investigación, no consiguieron que se inventasen los nuevos nailon con los que soñaban
esos directivos. Los más lúcidos de entre ellos comprendieron al final de los años
cincuenta que ya no habría otro nailon. El incremento de las inversiones en investigació n
química no generaba automáticamente productos revolucionarios. El nailon había sido un
producto de circunstancias excepcionales que no iban a reproducirse con facilidad en los
tiempos venideros.

30
Por lo que se refiere a Europa, la industria química inglesa se reorganizó después de la
Gran Guerra. En 1926 se produjo la instauración de las Imperial Chemical Industries
(ICI) reagrupando algunas de las principales firmas británicas. Los ingleses no adoptaron
el modelo alemán, sino el americano, con las operaciones unitarias en el centro de la
disciplina, separándose de las prácticas tradicionales de la propia ingeniería química
inglesa. En Francia, donde primaban las matemáticas y las cuestiones más teóricas en los
programas preparatorios y en las propias Grandes Escuelas, la química se convirtió en el
pariente pobre de la enseñanza de los ingenieros franceses, puesto que se prestaba
bastante mal al modelado matemático. Algo análogo sucedió en España, donde, no
obstante, al crearse el título de ingeniero industrial, en 1850, se hizo con dos
especialidades: la mecánica y la química. En cualquier caso, al contrario de lo que sucedía
en la industria de transformación mecánica, que adoptó rápidamente, e incluso con
entusiasmo, los métodos de Frederick Taylor (1856-1915), la industria química europea
continental, posiblemente por influencia alemana, permaneció más bien ajena a las
operaciones unitarias hasta bien avanzado el siglo.

El vuelo de objetos más pesados que el aire


Otro logro que tuvo lugar a principios del siglo XX, en la misma época en que apareció la
electrónica, fue el de la aviación, que aporta un capítulo especialmente representativo en
la historia de la ingeniería. Como es bien sabido, a principios del siglo XX los hermanos
Wilbur y Orville Wright (1867-1912 y 1871-1948) culminaron un largo y minucioso
proceso experimental de más de un decenio de ensayos como paso preliminar a la
construcción de una máquina voladora. Aunque trataron de informarse de cuanto se sabía
sobre el vuelo de artefactos más pesados que el aire, no fue mucho lo que encontraron 19.
Lo más provechoso que obtuvieron fue el consejo del ingeniero alemán Otto Lilienthal
(1848-1896), fallecido en un accidente con uno de sus propios planeadores, quien había
advertido que para saber volar primero había que aprender a planear.
A partir de la recomendación de Lilienthal, y analizando las causas del mortal accidente,
comprendieron que uno de los grandes problemas con los que se enfrentaban los
planeadores era el del control de la estabilidad del artefacto volador para contrarrestar las
perturbaciones bruscas del viento, lo que resolvieron mediante un ingenioso sistema de
control lateral basado en la deformación independiente de las dos alas, derecha e
izquierda —acompañado de un timón también coordinado con esa flexión— que se
denominó «control por torsión de las alas» (figura 3), y que se reveló como una de las
claves del triunfo que acabarían logrando. Idearon también un túnel aerodinámico en el
que experimentaron con el perfil y la inclinación de las alas para obtener diseños más
eficientes, en una muestra de trabajo experimental propio de ingenieros cuando no
disponen de conocimientos científicos establecidos sobre aquello que tienen entre manos.
Por último, en la etapa final se ocuparon de la propulsión del ingenio, para lo que fue
decisivo el entonces reciente perfeccionamiento del motor de explosión del automóvil,
aunque tuvieron serias dificultades para encontrar uno con las peculiaridades adecuadas,
siendo al fin ellos mismos los que proyectaron y construyeron un motor de combustión
interna de cuatro cilindros que cumplía los requisitos pretendidos.

19
Orville Wright, How We Invented the Airplane.

31
Figura 3.- Boceto del Flyer extraído de la patente de los hermanos Wright, en la
que se aprecia la diferente torsión de las alas derecha e izquierda.

El 17 de diciembre de 1903 sus esfuerzos se vieron coronados por el éxito y su prototipo,


el Flyer, un frágil aeroplano más pesado que el aire, consiguió volar durante unos
segundos en un corto vuelo aceptablemente controlado. En lo sucesivo, los progresos
fueron rápidos. De este modo, los Wright inventaron un ingenio llamado a revolucionar la
ingeniería del siglo XX y que asimismo sería el germen de importantes descubrimientos
científicos, especialmente en mecánica de fluidos, de los que nació la aerodinámica. Los
hermanos Wright inventaron y construyeron el Flyer motivados por un objetivo práctico
y sin contar con un conocimiento científico previo a partir del cual concebir esa máquina
—como no fuese el empírico recolectado respecto a los planeadores, no muy propio de
científicos. El Flyer voló y abrió la vía a la aviación, aunque no se hubiese resuelto el
problema de comprender cómo se sustentaba en el aire un artefacto de esa naturaleza.

Para la resolución de ese problema, el ingeniero Ludwig Prandtl (1875-1953) fue capaz
de explicar qué sucedía con un sólido que se movía en el seno de un fluido, algo que hasta
entonces los físicos especializados en mecánica de fluidos no habían logrado
comprender, como tampoco habían sabido calcular la fricción sobre una superficie en
movimiento inmersa en un fluido. Solventar estas cuestiones resultó imperioso después
del vuelo del Flyer. Y para eso Prandtl propuso, en 1904, la teoría de la capa límite,
desarrollada ad hoc por él, que permitió afrontar con éxito esos problemas. Gracias a sus
descubrimientos, Prandtl fue acogido con todos los honores en el restrictivo club de los
físicos teóricos, por lo que no es extraño que en la literatura se aluda a él con frecuencia
como científico y no como ingeniero, si bien esa era la carrera que había estudiado y el
título que poseía, y en sus primeros años de ejercicio profesional había trabajado como tal
en la Maschinenfabrik Augsburg, aunque la mayor parte de su labor la dedicó a la vida
universitaria. Se le considera el padre de la aerodinámica, si bien sus contribuciones se

32
produjeron después de que el avión de los Wright hubiese volado, a lo que hay que añadir
que las aportaciones de Prandtl no encontraron aplicación al vuelo de los aviones hasta
muchos años después de ser publicadas. Fue entonces cuando se elaboró un cuerpo
teórico que explicó el comportamiento del artefacto, y no al revés, repitiendo la pauta de
los ingenios que han pavimentado la historia de la técnica. Se aprecia un estrecho
paralelismo entre el Flyer y la aerodinámica, por una parte, y lo que había sucedido más
de un siglo antes con la máquina de vapor de Watt y la termodinámica, por otra.

Otra portentosa realización de la ingeniería moderna ha sido la llamada, quizá con un


exceso de jactancia, conquista del espacio, la gran hazaña de los ingenieros
aeroespaciales. Con la llegada del hombre a la Luna, en el decenio prodigioso de los
sesenta, se cumplió un viejo sueño de la humanidad. Lustros después, la presencia de
vehículos de exploración planetaria, mediante robots exploradores (rover), como el
Opportunity (2003) y el Curiosity (2012) en la superficie de Marte, tras un viaje largo y
azaroso, aunque concluido con un difícil, si bien satisfactorio, aterrizaje («amartizaje»,
empieza a oírse), permite ilustrar claramente los rasgos que distinguen la actividad de los
ingenieros de la de los científicos. Los primeros han sido los encargados de llevar el peso
del proyecto, diseñando, planificando, construyendo y ensayando el portento de
ingeniería que es un módulo marciano, como el Curiosity, que ha logrado su objetivo al
alcanzar el suelo de Marte con pocos centenares de metros de error, tras recorrer 567
millones de kilómetros, con solo cuatro correcciones de rumbo. Algo análogo puede
decirse de la sonda Rosetta enviada a explorar el cometa 67P/Churiumov-Guerasimenko
(pese a los problemas con el módulo Philae) y de tantas otras, como la New Horizons, que
ha explorado los confines del sistema planetario, llegando hasta Plutón.
En todos esos casos, los ingenieros han desempeñado un cometido primordial para llevar
a cabo el largo proceso: idearon los propulsores adecuados; imaginaron el propio módulo,
su estructura mecánica resistente al largo viaje y al incierto aterrizaje; desarrollaron los
componentes electrónicos; concibieron el software para el proceso; ensayaron el
funcionamiento de los componentes hasta que consideraron que era adecuado para el
objetivo perseguido; y, por último, dieron el visto bueno con relación a los lugares
apropiados para lograr un aterrizaje seguro en una superficie desconocida.
Inmediatamente después del aterrizaje, los ingenieros procedieron a activar y verificar
todos los sistemas e instrumentos científicos. Solo entonces el centro de gravedad se
desplazó a los científicos cuya misión empieza después de la llegada a Marte, una vez
revisado el módulo y efectuada la puesta a punto de todos los equipos de a bordo, con el
fin de estudiar y analizar los datos que suministra el módulo, de modo que se proceda a
descifrar la historia geológica del planeta tal como la registran sus rocas. Para eso el
Curiosity está capacitado para realizar análisis químicos e incluso identificar compuestos
orgánicos. Las sondas espaciales son una obra maestra de la ingeniería, que ha alcanzado
un enorme y justificado eco mediático.

33
Capítulo III.- La información y las máquinas
Las máquinas gobiernan su propio comportamiento
La era del mecanicismo, basada en máquinas mecánicas más o menos sencillas,
evolucionó hasta dar lugar a otra identificada por sistemas complejos que incorporan
dispositivos electrónicos mediante los que procesar la información, lo que permite, entre
otras cosas, que las propias máquinas se gobiernen a sí mismas en función del objetivo
que persiguen. Para llevar a cabo este empeño se ha desarrollado un concepto que
constituye una de las grandes aportaciones intelectuales de la ingeniería moderna: la
realimentación.

El interés de la realimentación para la tesis que se defiende en este libro merece que se le
dedique un capítulo completo. En él se va a exponer la génesis del concepto, su origen en
la solución de cuestiones concretas de ingeniería, así como la universalidad que ha
adquirido en nuestro tiempo, debido a su generalización no solo en aplicaciones técnicas,
sino en los seres vivos y en los sistemas sociales, por lo que ha entrado a formar parte de
la propia imagen científica del mundo. Al escribir esto estoy inmerso en un proceso de
realimentación al estar leyendo lo que acabo de escribir y, tras analizarlo, decidiré lo que

34
seguiré escribiendo —que a su vez leeré; y se reiniciará el proceso. Es lo que hacemos
continuamente en la vida, al perseguir el logro de objetivos concretos, asociados a ciertos
deseos o necesidades. En los correspondientes procesos, la discrepancia o error entre lo
que se quiere y lo que realmente se tiene se emplea para actuar buscando la anulación de
esa discrepancia. En eso precisamente consiste la realimentación, que ocupa un lugar
primordial en nuestra interacción con el entorno. Con el control automático se pretende
que sean las propias máquinas las que lleven a cabo este proceso.

Torres Quevedo y los primeros escarceos de la automática


El gobierno autónomo del comportamiento de las máquinas ha dado lugar a una nueva
especialidad de la ingeniería: la automática. Por lo que respecta al vasto mundo de esta
disciplina, formado por un gran número de dominios transversales que abarcan
prácticamente todas las ramas de la ingeniería —se ha denominado «la tecnología
invisible»––, sus orígenes no son tan fáciles de identificar como lo han sido los de la
aviación o la electrónica, pues no se asocia con ningún artefacto concreto, como sucedía
con esos dos dominios de la ingeniería. En los orígenes de la automática se tiene la figura
del ingeniero español Leonardo Torres Quevedo (1852-1936), quien presenta un perfil de
investigador de la técnica que alcanzó, en su tiempo, cierta notoriedad 20.
En la obra de Torres Quevedo se despliegan variados intereses, que incluyen la
aeronáutica de dirigibles y los transbordadores (el de Monte Ulía, inaugurado en 1907, y
el Spanish Aerocar de las cataratas del Niágara, construido entre 1914 y 1916, todavía en
activo y sin ningún accidente digno de mención). Pero su aportación más notoria, para lo
que se está tratando aquí, fue su labor en lo que luego sería la rama de la ingeniería
dedicada a la automática. Funda, en 1910, el Laboratorio de Automática (cambiando la
denominación previa del Laboratorio de Mecánica Aplicada, que él mismo había
instaurado en 1901, situado en el edificio que entonces era el Palacio de la Industria y de
las Artes, y que hoy ocupan la Escuela Técnica Superior de Ingenieros Industriales de la
Universidad Politécnica de Madrid y el Museo de Ciencias Naturales). En ese
Laboratorio se construyeron algunos instrumentos científicos para satisfacer las
necesidades de notables investigadores españoles (Cajal, Gómez Ocaña, Negrín, Cabrera,
entre otros), lo que llevó a Torres Quevedo a alcanzar fama en medios científicos, aunque
esa labor se redujera al papel auxiliar de producir instrumentos. Para llevarlos a cabo se
basó en tecnología mecánica, de la que haría uso, al mismo tiempo, para sus trabajos
incipientes en máquinas calculadoras.
En esas máquinas se ha querido ver un precedente de las modernas computadoras, ya que
resuelven determinadas ecuaciones algebraicas recurriendo a un modelo mecánico de
esas ecuaciones. También se menciona su contribución al control remoto con el Telekino,
construido en 1903, con el que guiaba a distancia una pequeña embarcación. Además de
estas aportaciones concretas, lo que aquí interesa son sus disquisiciones reunidas en sus
Ensayos sobre la Automática21 y en su memoria sobre El aritmómetro electromecánico,
donde expone consideraciones sobre los autómatas —precedentes, aunque con
importantes matices, de lo que hoy llamamos robots— y la estructura de realimentación.
A Torres Quevedo cabe asignarle la paternidad de la adopción del término automática en

20
José García Santesmases, Obra e inventos de Torres Quevedo.
21
Publicada en la Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales, enero, 1914:
391-419. Se tradujo al francés con el título «Essais sur l’automatique» en la Revue Générale des Sciences
Pures et Appliquées, 2, 15 de noviembre de 1915: 601-611. También se ha publicado en inglés en la
compilación de Bryan Randel The Origins of Digital Computers: Selected Papers, Berlín, Springer, 1973.

35
español en sentido moderno, es decir, como sustantivo que designa un cuerpo de
conocimientos ingenieriles y no como adjetivo que se predica del funcionamiento de
ciertas máquinas. Para Torres Quevedo la automática era una nueva rama de la mecánica,
que trata de sustituir al operador humano en el gobierno de las máquinas, mediante
dispositivos técnicos.
Para este ingeniero, la automática se ocupa de los autómatas, máquinas a las que
considera dotadas de «vida de relación» con el medio en el que están inmersas. Esta
concepción puede considerarse un antecedente de lo que en la actualidad se entiende, en
la ingeniería de control automático, como la interacción efectiva de un sistema con su
entorno, de modo que en el comportamiento de ese sistema prevalezca la preservación de
los objetivos para los que ha sido concebido, con independencia de las perturbaciones a
las que lo somete el medio en el que se desenvuelve. Así, un avión en vuelo con el piloto
automático o una gran factoría química automatizada son ejemplos de funcionamiento
autónomo para mantener un objetivo, en el primer caso, el vuelo con la trayectoria
deseada; y en el otro, la evolución autónoma del proceso conservando aceptablemente
constantes ciertas variables (presiones, temperaturas, flujos…) en el valor requerido y
optimizando, al mismo tiempo, algún parámetro adicional, como el consumo energético.
En la página 3 del ensayo antes mencionado se lee:
se necesita –y este es el principal objeto de la Automática– que los autómatas tengan
discernimiento, que puedan en cada momento, teniendo en cuenta las impresiones que
reciben, y también, a veces, las que han recibido anteriormente, ordenar la operación
deseada. Es necesario que los autómatas imiten a los seres vivos, ejecutando sus actos con
arreglo a las impresiones que reciban y adaptando su conducta a las circunstancias.
[Cursivas de Torres Quevedo].

Figura 4.- Estructura de realimentación, en la que se pone de manifiesto que la

36
dosificación de energía por el actuador se determina por el órgano de control, a partir
de las medidas que suministran los sensores.

El esquema de la figura 4 resume la propuesta de Torres Quevedo y recibe la


denominación de «estructura de realimentación»—término muy posterior a este autor––,
y en ella el papel de la información es esencial. Para actuar se procesa la información
proveniente del resultado de las acciones pasadas, que se obtiene mediante los sensores
(«las impresiones», dice Torres Quevedo) y se «vuelve a alimentar» —eso es
precisamente lo que significa que se re-alimenta— al órgano de decisión, y allí esa
información es procesada de nuevo para decidir las acciones futuras que efectuarán los
actuadores. La información significativa para el comportamiento de un sistema provisto
de la estructura de realimentación es la generada en el órgano central de control (el
«cerebro» de la máquina o del ser vivo), que da las órdenes que gobiernan la actuación del
conjunto. A partir de estas señales se desencadena la correspondiente acción, con la que
se modifica el comportamiento del sistema controlado, lo que a su vez es registrado por
los sensores. Se reinicia así el proceso que, como es bien patente, da lugar a una cadena
causal circular dando lugar a un ciclo sin fin.

Es notable cómo el comportamiento de un sistema equipado con realimentación lleva a


cabo el control —mediante la inyección correctora de energía— a partir de la
información. La energía es necesaria para hacer algo; pero para especificar lo que se
quiere hacer y cómo hacerlo se requiere información: combinadas ambas es posible llevar
a cabo el control (como se muestra en la figura 4). A partir del resultado del
procesamiento de la información que suministran los sensores, y mediante la acción
adecuada, se inyecta energía para que el sistema se comporte del modo apropiado. De esta
manera, un aspecto estructural característico del comportamiento de un sistema equipado
con realimentación negativa es cómo se combinan la información y la energía.
Cada una de las funciones implicadas ––medir, decidir y actuar–– presenta problemas
técnicos específicos. La automática pertenece, en cierto sentido, al ámbito de las
tecnologías de la información, con la particularidad de que a partir del procesamiento de
información se regula la dosificación de energía, entre otras cosas, de acuerdo con los
objetivos que se pretenden alcanzar. De este modo, la información se incorpora al propio
funcionamiento de las máquinas, lo que representa una aportación que no necesita
ponderarse. Es frecuente oír que las máquinas que reaccionan por sí solas a los cambios
en el entorno tienen un comportamiento «inteligente», cuando lo que sucede es que están
dotadas de realimentación, un mecanismo, como se está viendo, relativamente simple,
aunque dé lugar a comportamientos aparentemente complejos.
En efecto, el concepto de realimentación suministra una interpretación causal a los
comportamientos teleológicos, u orientados a un objetivo, de las propias máquinas: es
decir, hace posible concebir máquinas cuyo comportamiento aparenta estar provisto de
un determinado propósito 22 . Piénsese en un termostato, que es un dispositivo cuya
finalidad es mantener aproximadamente constante la temperatura de una habitación, para
lo cual mide la temperatura existente, la compara con la deseada y determina la actuación
de un calefactor para lograr ese objetivo. Se trata, pues, de un mecanismo que actúa como
si tuviera el «propósito» de mantener la temperatura aproximadamente constante. Este
mecanismo es análogo al que subyace a los procesos homeostáticos que tienen lugar en
los seres vivos para mantener sus constantes vitales en valores compatibles con la

22
Howard Rosenbrock, Machines with a purpose.

37
persistencia de la vida. Con la estructura de realimentación se resisten las tentativas de la
naturaleza para degradar el comportamiento de los sistemas mediante las perturbaciones
—el implacable incremento de la entropía. Vivir de forma efectiva presupone disponer de
la información adecuada, en especial respecto al medio en el que se está inmerso,
procesarla correctamente y actuar en consecuencia. Por citar un caso notable, nos
mantenemos de pie mientras andamos porque compensamos constantemente, gracias a la
realimentación, los efectos aciagos de la gravedad que nos harían caer; de modo que el
maravilloso equilibrio de nuestro cuerpo —conmovedor en el caso de un niño al dar sus
primeros pasos––, lo mismo que el resto de los equilibrios vitales, no es estático, sino que
es el resultado de un conjunto de procesos de realimentación que contrarrestan
activamente las tendencias perturbadoras de la gravedad.
Los científicos han sido reticentes a explicar las acciones y comportamientos en términos
de propósito, del objetivo final que se pretende alcanzar, pues ese modo de comportarse
parece presuponer el conocimiento de lo que vaya a suceder en el futuro, al situar el
efecto buscado antes que la causa; como si fuese el efecto el que succiona la causa, y no el
resultado de ésta. El fisiólogo mexicano Arturo Rosenblueth (1900-1970), colaborador de
Norbert Wiener, puso de manifiesto cómo se puede relacionar el propósito con la
realimentación negativa23. De esta manera, en los sistemas dotados de realimentación
negativa se conjugan el determinismo y el finalismo.
La realimentación es un ejemplo notorio de propiedad sistémica: de comportamiento que
emerge de la forma en que se organizan los componentes de un sistema y no de las
propiedades particulares de éstos. Conviene recordar que algunos pensadores han
apuntado que el mundo debería verse más como un conjunto de hechos, de procesos, de
acontecimientos que discurren en el tiempo, que de las cosas —los constituyentes
fundamentales— que lo forman. Entre ellos sobresale Ludwig Wittgenstein (1889-1951),
quien en el aforismo 1.1 de su influyente Tractatus lógico-philosophicus afirma: «El
mundo es la totalidad de los hechos, no de las cosas». La realimentación es un hecho, un
modo de actuación y no una cosa. La forma de ver el mundo como un enmarañado
proceso de interacciones entre las que es posible distinguir bucles de realimentación
positiva, normalmente responsables del crecimiento, y negativa, que estabilizan las
magnitudes involucradas, suministra un ejemplo concreto de una forma de verlo que
muestra cierta consistencia con la propuesta de Wittgenstein, y que es tributaria del
concepto de realimentación.

Un problema que presentan las estructuras de realimentación es que si en la cadena causal


circular se producen retrasos (lo que de una forma u otra sucede siempre debido, entre
otras cosas, al tiempo requerido para la transmisión y el procesamiento de la información
o a la inercia de los componentes de las máquinas), entonces se generan oscilaciones por
los desfases que provocan esos retrasos, y cuya corrección es uno de los problemas con
los que se encuentran, y han de resolver, los que proyectan sistemas realimentados. Estas
oscilaciones, en los casos más sencillos y habituales, son simplemente periódicas; pero en
otros más complejos llegan a ser aperiódicas o caóticas. De este modo, en la universal
realimentación puede haber una causa de comportamiento caótico, con las consecuencias
que eso puede tener respecto a la previsibilidad en el comportamiento de los sistemas
complejos, objetivo éste tan querido por la ciencia —y por todos nosotros.

23
Arturo Rosenblueth, Norbert Wiener and Julian Bigelow, «Behavior, Purpose and Teleology»,
Philosophy of Science, 10(1943), S. 18–24.

38
Conviene comentar también que la amplia presencia de los mecanismos de
realimentación negativa suscita la cuestión de qué ocurre si estos mecanismos quedan
interrumpidos o funcionan deficientemente. ¿Qué sucede si el conductor de un coche se
despista o incluso se duerme? En los sistemas realimentados se presentan también
problemas cuando el actuador se satura (y todos los actuadores lo hacen cuando la
solicitación es elevada). La saturación restringe la actuación, hasta hacer imposible la
recuperación del equilibrio (es lo que sucedió en Chernóbil). En todo caso, el
funcionamiento incorrecto de la realimentación hace vulnerable al sistema que la
incorpora, pudiendo llevarlo al desastre, que es lo que sucede en los seres vivos cuando
sufren de incapacidad para sentir el dolor. Circula un chiste al respecto. Unos obreros
huyen despavoridos de una factoría en llamas gritando: «¡Está automatizada y ha habido
una avería en el sistema de control! ¡No podemos controlarla!».

El amplificador electrónico de realimentación negativa


En el siglo XIX ya se había abordado el estudio de los sistemas realimentados,
especialmente con la máquina de vapor —un ejemplo clásico de ese tipo de sistemas––, a
la que incluso dedicó un artículo el propio James Clerk Maxwell (1831-1879), lo que
pone de manifiesto el interés suscitado por los problemas de estabilidad en esos sistemas
–aunque ese escrito tuviera poca influencia entre ingenieros. Para el proyecto de los
reguladores a bolas de las máquinas de vapor fue más bien un matemático, reconvertido
en ingeniero, el ruso Ivan A. Vischnegradsky (1832-1885), quien realizó aportaciones
relevantes para el proyecto de esas máquinas. Pero no fue hasta el siglo XX cuando se
planteó el estudio sistemático de esos sistemas.

Poco más de un decenio después de la publicación del ensayo de Torres Quevedo sobre la
automática se diseñó el amplificador electrónico con realimentación negativa, concebido
por Harold Black (1898-1983) a finales de los años veinte y que marca un hito en los
estudios sobre sistemas realimentados (y en la adopción de la voz feedback en inglés, que
se propone por primera vez para designar ese amplificador). Cuando este ingeniero se
incorporó a los Laboratorios Bell, en 1921, AT&T se enfrentaba al reto de aumentar la
eficacia en la transmisión de señales de telefonía a larga distancia, pues se producía una
importante pérdida de calidad de la señal con la longitud de la línea, al resultar
enmascarada por el ruido, con lo que se distorsionaba el mensaje (la información) que se
transmitía. Esta pérdida de calidad se intentaba compensar mediante amplificadores en
bucle abierto, entonces de válvulas electrónicas. Pero los amplificadores disponibles no
eran eficaces para ese cometido, pues se comportaban de forma no lineal. Algunos
ingenieros de los Bell, además del propio Black, tuvieron que afrontar el problema de la
carencia de amplificadores adecuados.

En 1923, Black asistió a una charla dada por Steinmetz, ya mencionado como pionero de
la ingeniería eléctrica, y quedó impresionado por cómo el conferenciante conseguía
concentrarse en lo fundamental cuando trataba de resolver un problema en ingeniería. Por
lo que respecta al que le ocupaba, Black se dio cuenta de que lo fundamental para el
correcto funcionamiento del amplificador era que tuviese poca distorsión en la trasmisión
a gran distancia. A partir de eso modificó su forma de abordar la cuestión, revisando su
estrategia previa con relación a la pérdida de señal en una línea de transmisión. Y así trató
de conseguir una baja distorsión mediante un simple mecanismo de cancelación.
La correcta identificación del problema por Black resultó muy fructífera. En efecto, la
mañana del 6 de agosto de 1927, en el transbordador que lo llevaba a los Bell en Nueva

39
York desde Nueva Jersey, donde tenía su casa, tuvo la inspiración —la chispa del
inventor, y también del creador artístico o literario— de que si alimentaba la entrada del
amplificador con la propia salida y con el signo cambiado —lo dotaba de realimentación
negativa––, y era capaz de evitar que el sistema oscilase, obtendría exactamente lo que
necesitaba: atenuar la distorsión de la salida. Y así nació el humilde amplificador
electrónico con realimentación negativa, que ha trascendido con holgura la aplicación
concreta que lo motivó. Es de destacar que ese amplificador fue resultado del ingenio de
Black y de los que colaboraron con él, que aplicaron al problema un rigor que en nada
desmerece al de un científico cuando intenta desvelar algún enigma del mundo natural,
aunque la concepción del influyente circuito no fuera sino el resultado de la imaginativa
creatividad propia de un ingeniero aplicado a la resolución de un problema concreto en
busca de un resultado tangible.
Como sucede con frecuencia, la transformación de la idea original de un invento en un
producto acabado y en correcto funcionamiento necesita mucho más tiempo que el
esfuerzo de concebirlo. A Black se unieron Harry Nyquist (1889-1976), Hendrick Bode
(1905-1982) y otros ingenieros o asimilados para resolver los problemas de estabilidad y
otras dificultades del circuito realimentado. Desde entonces la realimentación negativa ha
sido objeto de un uso generalizado en los sistemas de control automático de todas las
clases, además de servir para iluminar algunos fenómenos naturales, fisiológicos o
incluso sociales. Aunque esta estructura se encuentre en el mundo natural, por ejemplo,
en los ya mencionados procesos homeostáticos de los seres vivos, no ha sido objeto de un
estudio sistemático hasta que los especialistas en control automático se han ocupado de
ella y han alertado sobre su alcance, relevancia y los posibles problemas asociados con su
presencia24.
La constatación de que la realimentación funcionaba de forma similar en una gran
variedad de casos no se produjo hasta la Segunda Guerra Mundial, cuando los ingenieros
de distintas especialidades empezaron a incorporar sistemas de control en sus diferentes
campos de aplicación. Solo entonces la realimentación alcanzó el beneplácito
generalizado, dando lugar a una rama autónoma de la ingeniería, además de irrumpir en
otros dominios del conocimiento.

Los servomecanismos
Entre los ingenios que florecieron con la realimentación destacan los servomecanismos,
que permiten que determinados ejes mecánicos —como el timón de un barco, los alerones
de un avión, el bisturí de un robot quirúrgico o el cañón de un arma antiaérea— alcancen
la posición requerida para una determinada función, con la potencia necesaria para
desempeñarla. Los servomecanismos fueron propuestos originalmente por el ingeniero
francés Jean Joseph Léon Farcot (1824-1908) a fines del siglo XIX, para posicionar el
timón de un barco. Su cometido era mantener el timón en la posición deseada con
independencia de las perturbaciones a las que esté sometida la embarcación. Debe notarse
que sirven de ayuda al timonel (como la servodirección de un automóvil) pero que no
llevan a cabo el pilotaje automático para mantener el barco en la ruta deseada. Eso
requiere un nuevo bucle de realimentación, asociado a una brújula giroscópica u otro tipo
de sensor.
En 1934, un profesor de ingeniería eléctrica del MIT, Harold Hazen (1901-1980), se
ocupó de formular una teoría de los servomecanismos que compendió la cultura empírica

24
Pedro Albertos e Iven Mareels, Feedback and Control for Everyone.

40
desarrollada hasta entonces por los ingenieros en torno a la realimentación. Además,
Hazen observó que estos mecanismos convertían una señal de baja potencia en otra señal
de potencia muy superior; es decir, los servomecanismos se comportaban
fundamentalmente como los amplificadores electrónicos con realimentación negativa.
Los servomecanismos ejercieron una gran fascinación en los años anteriores a la guerra
mundial y durante ella, y dieron lugar al corpus disciplinario a partir del cual se originó la
ingeniería de control. Por otra parte, los servomecanismos son básicos para las partes
mecánicas de un robot, las cuales se posicionan adecuadamente mediante esos
mecanismos —según la acepción más corriente de robot. Permiten que las órdenes
emanadas de un ordenador se materialicen en posiciones concretas para los miembros de
esas máquinas. En este sentido, un ordenador es como un cerebro sin órganos: un robot
incompleto; como si fuera una mente sin cuerpo. La computadora puede actuar sobre su
entorno material, entre otras cosas, mediante brazos robóticos, que están formados por
servomecanismos. Así, la robótica ha florecido en conjunción con la ingeniería de control
por realimentación.
Por lo que respecta a la introducción en España del estudio de los servomecanismos es
notable Antonio Colino (1914-2008), un destacado ingeniero que fue profesor titular25 de
Electrónica en la Escuela Especial de Ingenieros Industriales de Madrid 26. Precisamente,
Colino propuso el término realimentación como atinada traducción de feedback
(recuérdese: realimentar equivale a volver a alimentar), el cual ha hecho fortuna
—aunque también se lea en ámbitos ajenos a la ingeniería el de retroalimentación, a todas
luces menos correcto (¿alimentado por detrás, como en retropropulsor o retroproyector?)
e innecesariamente más largo. No se olvide que Colino pertenecía a la Academia
Española, e incluso fue presidente de la Comisión de Vocabulario Científico y Técnico 27.

El problema del control de tiro naval y sus derivaciones


Otro dominio en el que la información interviene de forma esencial es el de las máquinas
calculadoras. Para adentrarnos en él conviene volver a la Gran Guerra, durante la cual se
puso de manifiesto el problema que representaba para los marinos predecir la futura
posición del barco enemigo que se trataba de atacar, lo que requería conocer no solo la
distancia a la que se encontraba, sino también su rumbo y velocidad. Además, había que
recurrir a tablas de tiro para determinar la elevación de la pieza de artillería para que el
proyectil alcanzase la distancia pretendida. Los oficiales de marina realizaban esos
cálculos a mano sobre planos, valiéndose de brújulas y transportadores. Para asistir en la
25
En aquellos tiempos el profesor titular, en las entonces Escuelas Especiales de Ingenieros, equivalía al de
catedrático en la actualidad.
26
A Colino se debe lo que hoy es una reliquia bibliográfica: el libro Teoría de los servomecanismos,
editado en una fecha tan temprana como 1950 y cuyo contenido puede ser asumido aún en la actualidad en
un curso introductorio a los sistemas realimentados lineales. Este libro ha sido referenciado en la
publicación Historic Control Textbooks (J. Gertler, Ed. Elsevier, 2006), realizada para la celebración del
cincuentenario de la IFAC (International Federation of Automatic Control) y en la que se han recogido los
primeros textos de control automático publicados en las distintas lenguas y países del mundo. Hay una
edición facsímil realizada por la Fundación CEA-IFAC en 2010.
27
El propio Colino y su mentor Esteban Terradas, junto con otros como Pedro Puig Adam, formaron un
pequeño núcleo tempranamente interesado en estas cuestiones, que llegó incluso a invitar a Madrid al
propio Norbert Wiener, quien estuvo en España en 1951, impartiendo un ciclo de conferencias con ocasión
del centenario de la carrera de ingeniero industrial, organizadas por el Instituto de Ampliación de Estudios
e Investigación Industrial, dirigido entonces por José Antonio Artigas. Las conferencias tuvieron lugar en la
entonces Escuela Especial de Ingenieros Industriales de Madrid, entre otros centros de la capital.
Resúmenes de esas conferencias están recogidos en Miguel Jerez Juan, Norberto Wiener, matemático,
filósofo de la ciencia y creador de técnicas, Escuela Técnica Superior de Ingenieros Industriales, 1966.

41
realización de esos cálculos se concibieron ingeniosos mecanismos que permitían
efectuarlos de forma rápida, en un tiempo precioso en unos momentos críticos, como
requería la naturaleza del problema a resolver. Había que tratar, por todos los medios, de
reducir al mínimo ese tiempo. El éxito en la batalla dependía de ello.
En esos mecanismos, que en principio fueron realizados con tecnología mecánica,
desempeña un papel esencial la función matemática de integrar, pues había que resolver
las ecuaciones diferenciales que describían el movimiento del objetivo. La integración es
muy simple de realizar mecánicamente, como se ilustra en la figura 5. El ángulo que mide
el giro del eje vertical se representa por x. La rueda pequeña se sitúa a una distancia f(x)
del centro del disco grande, de modo que al girar éste, el pequeño lo hace a su vez
arrastrado por él, integrando f(x)28. A partir de este mecanismo elemental se proyectaron
dispositivos más elaborados (el disco pequeño se puede sustituir por una esfera, para
evitar que resbale) que permitían llevar a cabo la integración con mecanismos de
naturaleza enteramente mecánica29.

Figura 5.- Mecanismo básico de un integrador mecánico de disco y rueda.

Estas máquinas reciben la denominación de «analógicas», pues en ellas las variables


procesadas se representan mediante los valores alcanzados por magnitudes físicas —en
concreto, posiciones en las que se están considerando (figura 5). Por tanto, tenían una
precisión limitada por la del instrumento empleado para medir las correspondientes
magnitudes. De este modo, durante los años veinte y treinta se dispuso de computadoras
mecánicas específicas que servían de apoyo a los marinos en el cálculo balístico. En todo
caso, el integrador era el componente central en esas computadoras mecánicas; hasta el
punto de que las primitivas computadoras digitales electrónicas también se basaron en
integradores y se llegaron a denominar «integradores electrónicos» (como el ENIAC, ya
mencionado de pasada y al que se volverá un poco más abajo). El secreto con el que se
mantenían estos mecanismos, por su carácter militar, determinó incluso que la aprobación
de sus patentes se retrase hasta que fuesen desclasificados, lo que en algunos casos se
produjo mucho tiempo después, por lo que el carácter precursor de esas máquinas no ha
alcanzado el reconocimiento que merece en la historia de las computadoras.

28
Si 1/k es el radio del disco pequeño, entonces, de la figura 5, es claro que kf(x)·dx=dy luego y=Ak∫f(x)·dx,
donde y es el ángulo girado por el eje horizontal de la figura.
29
Véase David Mindell, Between Human and Machine, p. 39.

42
Y así se dispuso de unas computadoras específicas —por oposición a las universales que
se desarrollarían posteriormente— que permitían, a partir de los datos observados,
determinar el rumbo y velocidad del barco enemigo, predecir su trayectoria en el futuro,
calcular la orientación y elevación de las piezas de artillería para alcanzarlo, y mantener
registros impresos de las acciones pasadas. Funciones necesarias para automatizar el
proceso. En los años treinta entró en servicio el Mark 8 Rangekeeper 30, que ponía de
manifiesto el grado de madurez alcanzado por estas máquinas, que permanecieron activas
incluso durante la Segunda Guerra Mundial.

El analizador diferencial de Bush


A principios del siglo XX los centros universitarios más prestigiosos se encontraban en
Europa, y no en América, como acabaría sucediendo en ese mismo siglo. Los estudiantes
norteamericanos acostumbraban a realizar los estudios posdoctorales en el viejo
continente.

En los años veinte de ese siglo, el Massachusetts Institute of Technology (MIT) era una
institución consagrada a la ingeniería, y no a la ciencia básica, que se encontraba en un
período transitorio de su historia. Había sido concebido como un centro de enseñanza
superior para la formación de ingenieros civiles, mecánicos, eléctricos, de minas, navales,
y similares. También se incluía la enseñanza de matemáticas, física y química, en la
medida en que se consideraban materias relevantes para la formación de los ingenieros,
aunque fuese solo un barniz superficial, lo suficiente para entender el funcionamiento de
las máquinas y realizar algunos cálculos. El Instituto, en esa época, estaba dejando de ser
un exitoso centro de formación técnica de ámbito regional, pero todavía no era la gran
universidad que acabaría siendo unos años más tarde, cuando se convirtió en uno de los
pilares del complejo militar e industrial de su país.

En todo caso, la investigación en áreas fundamentales no se llevaba a cabo en el MIT. El


énfasis en lo práctico y en lo aplicado era consecuente con la tradición pragmática de la
enseñanza superior americana decimonónica. Sin embargo, durante el decenio de los
veinte empezó a considerarse la posibilidad de que se formase un departamento de física
fundamental, con la pretensión de ser diferente del de física aplicada. Cuando Karl T.
Compton (1887-1954), que era un físico experimental, llegó a la presidencia del MIT, en
1930, culminó la transformación que se estaba fraguando en el Instituto, y la ciencia
básica empezó a formar parte esencial de la formación de los ingenieros, quienes
comenzaron a no rehusar ser considerados como científicos aplicados, tanto en ese centro
como en otros similares.

Esa transformación coincide con el proceder de los administradores de la fortuna de los


Rockefeller, y de otras fuentes de riqueza privada, que comenzaban a financiar la
promoción, en Estados Unidos, de las entonces poco cultivadas Ciencias teóricas, con la
pretensión de que este país se situase en una posición avanzada en investigación en la
naciente física cuántica, entre otras ramas de la ciencia fundamental, a las que se intuía un
brillante porvenir. Se fundó el General Education Board, organismo gubernamental
financiado en gran parte con los fondos Rockefeller, para promover los departamentos de
matemáticas y de ciencias. Al mismo tiempo, algunos filántropos americanos habían
fundado el Princenton Advanced Study siguiendo el modelo de los institutos alemanes de

30
Mindell, Op. cit. p. 57.

43
investigación básica. Se establecieron programas de becas para que ese país, con sus
inmensos recursos, pudiese asimilar el conocimiento científico europeo, mucho más
adelantado en aquellos tiempos.
En todo caso, a comienzos de los años treinta se produjo un cambio radical de prioridades
para la investigación en el MIT, que concedió primacía a las investigaciones científicas
sobre las aplicadas industriales, hasta entonces prioritarias. Por citar un caso concreto,
hay que mencionar al que sería luego un famoso ingeniero, Vannevar Bush (1890-1974),
entonces un joven recién incorporado al cuerpo docente del Instituto, quien tuvo que
adaptarse a la permutación de precedencias. Cuando Bush se incorporó como
posgraduado a esa institución a principios de los veinte, recién finalizados sus estudios en
ella, dedicó su investigación a una cuestión básicamente ingenieril: el estudio de la
estabilidad de las redes eléctricas de potencia, en consonancia con los objetivos prácticos
e industriales que prevalecían en aquellos años en ese centro. Bush había constatado que
las aplicaciones de las matemáticas a la Ingeniería estaban condicionadas por la
disponibilidad de medios de cálculo apropiados y dedicó sus esfuerzos a superar esa
limitación.
Para adaptarse a los cambios que se estaban produciendo en el MIT, Bush reconvirtió su
línea de investigación sobre redes eléctricas en otra sobre máquinas de cálculo analógico
que tuvieran aplicación en un amplio espectro de disciplinas: las que recurrían a
ecuaciones diferenciales lineales, que ocupan un lugar destacado en muchas ramas de la
ciencia y de la ingeniería, además de en los sistemas eléctricos y en los sistemas balísticos
navales; para lo cual empleó una tecnología mecánica análoga a la discutida en el
apartado anterior y basada en el principio integrador de disco y rueda (figura 5). Surgió
así el analizador diferencial, la computadora analógica con tecnología mecánica. Los
fundamentos de esas nuevas máquinas de cálculo eran los mismos que los de las redes
eléctricas (y de las calculadoras balísticas de los marinos), pero Bush supo revestirlos de
un aura compatible con las nuevas pretensiones de cientificismo del centro donde
trabajaba. De este modo, lo que empezó siendo un estudio de interés exclusivamente
ingenieril sobre el problema de la estabilidad de las redes eléctricas de potencia acabó
convirtiéndose en un programa de amplia aplicabilidad sobre máquinas computadoras
analógicas y que gozaba del beneplácito de la comunidad científica.
De esta manera, en el MIT se aceptó que esas máquinas podían considerarse como
auténticos instrumentos científicos más que como meros auxiliares para resolver cálculos
de ingeniería, con lo cual la labor que llevaba a cabo Bush alcanzó legitimidad en los
medios científicos y tuvo acceso a fuentes de financiación, como la Fundación
Rockefeller. En los años treinta la investigación en ingeniería no estaba entre los
objetivos de esa Fundación, porque se consideraba que ésta debía ser financiada por las
empresas que se beneficiaban directamente de ella, por lo que estimaban que no debía ser
subvencionada —planteamiento del que aún se encuentran partidarios. Para lograr
recursos económicos de esa Fundación, Bush tuvo que insistir en los frutos científicos
que cabía esperar de su computadora31. En la gestión de la política científica de esa
institución desempeñó un papel relevante un científico, Warren Weaver (1894-1978),
quien no demostró ningún interés por la ingeniería. Sin embargo, Weaver no incluyó en la

31
El desdén de la Fundación Rockefeller por la investigación en ingeniería tuvo también influencia en
España, donde es sabida la importancia que adquirió esa Fundación en el fomento de la ciencia, pues, a
finales de los veinte y principios de los treinta, sufragó el que se conocía como el Instituto Rockefeller, en el
campus que la Junta de Ampliación de Estudios estaba edificando en los Altos del Hipódromo de Madrid,
que en la actualidad alberga el Instituto de Química Física Rocasolano del Consejo Superior de
Investigaciones Científicas.

44
categoría de ingeniería los trabajos de Bush con el analizador diferencial al que
consideró, más bien, un instrumento mecánico con el que era posible hacer ciencia
—aunque en realidad se aplicó a resolver problemas balísticos y más tarde los asociados
con el proyecto Manhattan. Precisamente de estas últimas aplicaciones vino el impulso
para perfeccionar estas máquinas, precursoras directas de las modernas computadoras
electrónicas.

Primeras computadoras electrónicas


El principio de cálculo mediante integradores sobre el que estaba basado el analizador
diferencial inspiró la construcción de la ENIAC (Electronic Numerical Integrator And
Calculator), considerada la primera computadora electrónica. Se trataba de una máquina
enorme que ocupaba una gran sala, y se programaba conectando cables mediante clavijas,
como en las antiguas centralitas telefónicas. Con ella se pretendía realizar las mismas
funciones que llevaban a cabo los analizadores diferenciales mecánicos, como el de Bush.
Pero la nueva máquina no era mecánica, si no electrónica; tampoco era analógica, sino
numérica. Realizaba las operaciones aritméticas con números representados por los diez
dígitos decimales. De este modo, la ENIAC fue la primera máquina computadora
electrónica, si bien todavía estaba constituida por válvulas electrónicas y además no se
beneficiaba de la simplicidad y las enormes posibilidades que permitiría la codificación
binaria. Su funcionamiento era tosco debido a que se fundían válvulas con frecuencia,
aunque se consideró aceptable en comparación con las máquinas mecánicas anteriores.
Se construyó, en 1946, en la Moore School of Electrical Engineering de la Universidad de
Pensilvania, un centro que se había especializado en máquinas de cálculo para problemas
balísticos. Fue fruto del virtuosismo ingenieril de John Presper Eckert (1919-1995) y
John Mauchly (1907-1980). A ellos se atribuye la concepción básica de la estructura
electrónica subyacente a una computadora, desde los registros de desplazamiento hasta
los conceptos de programa almacenado, subrutina y lenguaje de programación,
aportaciones todas ellas pioneras y decisivas para el ulterior florecimiento de la
informática 32 . A los dos citados se sumó posteriormente John Von Neumann
(1903-1957), quien aportó sugerencias con respecto al carácter universal de los resultados
que se podrían alcanzar a partir de lo que ya habían hecho Eckert y John Mauchly.
Publicó una controvertida memoria que aparentemente había sido redactada junto con los
dos anteriores, pero que se atribuyó a sí mismo. La cuestión en debate era de quién había
surgido la idea de la máquina universal, como paso posterior a las computadoras
específicas. Esta polémica aún se mantiene viva entre los informáticos, donde los de
origen ingenieril toman partido por Eckert y John Mauchly (y otorgan el ACM-IEEE
Eckert-Mauchly Award), y los que se han formado primariamente en matemáticas y en
ciencia lo hacen por Von Neumann33, y también por Alan Turing (1912-1954) (éstos con
el ACM A.M. Turing Award). Una muestra más de la interminable rivalidad sobre
prioridades entre ingenieros y científicos, esta vez en el ámbito de la informática.

La EDVAC (Electronic Discrete Variable Automatic Computer), sucesora y heredera de


la ENIAC, construida solo tres años más tarde, en 1949, es considerada como la primera
computadora con tratamiento binario de la información. Su diseño básico incluye una
unidad central de procesamiento (la CPU, por sus siglas en inglés), que es en la que se

32
Los orígenes de la informática son objeto de un intenso debate que no es posible reproducir aquí. Puede
verse, por ejemplo, N. Metropolis y J. Worlton, Annals of the History of Computing, 2(1),1980: 49-55.
33
Martin Davis, La computadora universal, Debate, 2002, pp. 210 y ss.

45
ejecutan las instrucciones, y una unidad de memoria que almacena tanto esas
instrucciones como los datos sobre los que estas tienen que operar; además, de la
conexión entre ambas unidades. Es notable que el proyecto de estas máquinas se
beneficiase de la fama entonces creciente del taylorismo. De hecho, la estructura de los
primeros ordenadores no fue ajena a lo que se hacía en las factorías Ford, en las que se
fragmentaba el montaje del modelo T en una serie de operaciones elementales.
Se sentaron así las bases de lo que posteriormente serían las computadoras universales
que sirvieron de soporte al éxito arrollador de la informática, y con ellas se abrió la ruta
que conduce a las fabulosas realizaciones de nuestros días. En todo caso hay que reseñar
que el ordenador no se concibió ni a partir de un principio básico, ni tiene un único
inventor, sino que fue el resultado de múltiples actuaciones progresivas, a partir de
computadoras específicas concebidas para resolver problemas concretos, hasta llegar a la
computadora universal.

La predicción en el cañón antiaéreo


En septiembre de 1939, a principios de la Segunda Guerra Mundial, los temibles Stukas
alemanes cubrieron los cielos europeos en la guerra relámpago y confirmaron la decisiva
importancia de la aviación en la guerra moderna. Los estrategas angloamericanos
comprendieron que había que evitar a toda costa que Inglaterra quedara fuera de combate
por la acción de los bombardeos alemanes (en la decisiva batalla de Inglaterra), y en
consecuencia el cañón antiaéreo fue uno de los ingenios bélicos que hubo que
perfeccionar, en combinación con algún instrumento que localizase los aparatos
enemigos, lo que se resolvió con ayuda del radar (radio detection and ranging), que
permite descubrir y estimar la distancia a un objetivo, tanto en la guerra antiaérea como
en la antisubmarina (en la también decisiva batalla del Atlántico Norte), y que fue otro de
los agentes indiscutibles en la victoria de los Aliados. Se basó en las ondas
electromagnéticas de alta frecuencia y empleaba semiconductores para la detección de las
señales. La eficacia de estos detectores sugirió la búsqueda de un dispositivo de estado
sólido que llegase a hacer las mismas funciones que las válvulas electrónicas, y dio lugar
al transistor, sobre el que se volverá en el próximo capítulo.

En cualquier caso, además de detectar los aparatos enemigos había que abatirlos, lo que
exigía afinar la puntería del cañón antiaéreo. La elevada velocidad de los aviones
obligaba a no apuntar directamente al blanco sino a calcular su trayectoria para
anticiparse a la posición que tendrían cuando les alcanzase el obús disparado. Por tanto,
se requería, además de piezas de artillería adecuadas y proyectiles de calidad, un sistema
de control que estimase la posición futura del blanco, ajustase la dirección del cañón y
disparase en el instante oportuno, de modo que proyectil y blanco coincidiesen en
posición y tiempo. Esta dificultad se resolvió, en principio, ampliando a un espacio de
tres dimensiones la solución, ya relatada, que se había obtenido durante la Gran Guerra
para el problema correspondiente entre barcos de guerra en el mar, el cual tenía solo dos
dimensiones y menores velocidades. Para tratar de perfeccionar esa solución, el
matemático Norbert Wiener (1894-1964), con la colaboración del ingeniero Julian
Bigelow (1913-2003), propuso emplear la información disponible sobre la trayectoria
pasada del avión para realizar una predicción de su rumbo futuro, con el fin de mejorar la
probabilidad de que el proyectil acertase en el blanco. Para lograrlo dio un tratamiento
estocástico al problema de la realimentación.

La contribución de Wiener fue una teoría matemática de gran calado que permitía realizar

46
predicciones a partir de información incompleta sobre el movimiento del objetivo, el cual
además podía alterar su ruta por decisión inescrutable del piloto enemigo. En los orígenes
de los estudios sobre sistemas realimentados, los análisis matemáticos se limitaban a
situaciones presididas por una causalidad estricta; pero Wiener fue capaz de concebir una
formulación rigurosa del procesamiento de informaciones imprecisas o inexactas,
mediante el análisis estocástico. Esa teoría fue una aportación notable al campo de los
servomecanismos, al colocar en primer plano las consideraciones estocásticas en el
funcionamiento de esos sistemas34, y dio lugar a un método con el que se minimiza el
error medio cuadrático de la desviación entre la trayectoria pretendida para el cañón y la
efectivamente posee. Sin embargo, la aplicación del método al problema antiaéreo
presentaba serios problemas, pues requería el registro del comportamiento en un tiempo
infinito en el pasado sobre el que basar la predicción. Por el contrario, en defensa
antiaérea el objetivo real debe ser detectado poco tiempo antes de que se necesite
disponer de la predicción. Además, la minimización del error cuadrático medio no es una
buena opción puesto que ese índice no describe con la precisión adecuada lo que se
persigue. Si el proyectil no explota a una distancia de unos pocos metros del blanco,
entonces no resulta efectivo; de modo que el error debe penalizarse de forma más
enérgica que con el cuadrado de su valor. También resultaban dudosos los supuestos
acerca del comportamiento basado en el estudio estadístico de los pilotos humanos. Por
todo ello, la solución que se obtuvo a partir de esa teoría no llegó a cumplir el objetivo
perseguido y fue desechada, en 1942, por la administración militar que la estaba
financiando, pese a los esfuerzos de Bigelow que pronto se dio cuenta de que aquello no
iba a funcionar correctamente. Un científico, como Wiener, puede tener una maravillosa
idea, pero es el ingeniero el que, al fin, es capaz de advertir si aquello va a funcionar bien,
o no; es el que posee la clase de conocimiento sobre si lo que se pretende llevar a cabo es
viable, o no lo es. Es lo que sucedió con Bigelow ante la propuesta de Wiener, en el caso
del control del cañón antiaéreo.

El problema al fin tuvo que resolverse de una forma diferente a como proponía Wiener 35,
quien demostró tener una fe ingenua en una solución analítica ideal, como sucede con
frecuencia con los científicos que abordan cuestiones de origen práctico: los aspectos
internos de la teoría, la elegancia de la formulación y otras consideraciones de esta índole
desvían del empeño concreto que motivó el estudio. Se ilustra así la compleja relación
entre los planteamientos puramente teóricos, propios de un matemático, por muy finos y
elaborados que sean, y la escurridiza práctica ingenieril, que difícilmente se somete a un
marco teórico exclusivo: las teorías científicas rara vez cubren los problemas de los
ingenieros, como pretendía Hempel que sucedía en la ciencia, y para lo que formuló la
conocida Ley de Cobertura Legal36.

34
Wiener estudió la naturaleza probabilística de la comunicación y la relevancia de lo estocástico para los
problemas de control, especialmente en su monografía de 1941 Extrapolation, Interpolation, and
Smoothing of Stationary Time Series (Cambridge, MIT Press, 1949), conocida entre los ingenieros que lo
tuvieron que estudiar durante la guerra con los japoneses como el peligro amarillo, por el color de las tapas
del memorándum y por la dificultad de las matemáticas empleadas en ella. Una excelente y legible
introducción a este tema puede verse en la obra del colaborador de Wiener, Yuk-Wing Lee, Statistical
Theory of Communication, Wiley, 1960.
35
Pesi R. Masani, Norbert Wiener, cap. 14; Stuard Bennett, “Norbert Wiener and the Control of
Anti-Aircraft Guns”, IEEE Control Systems, December 1994, pp. 58-62.
36
Carl Hempel, Aspects of Scientific Explanation and Other Essays.

47
A pesar de que hubiese sido incapaz de aportar una solución efectiva al problema que se
le había planteado, la teoría de Wiener, circunscrita a sistemas dinámicos lineales y a
criterios cuadráticos, alcanzó brillantes resultados matemáticos, que tuvieron repercusión
en el desarrollo posterior de la ingeniería de control 37 . En realidad, ese matemático
encontró en los sistemas realimentados un campo fecundo en el que ejercer sus dotes para
teorizar. Al aplicar las matemáticas a la información y las comunicaciones extendió el
rigor y la precisión de la ciencia a un dominio hasta entonces poco explorado con recursos
estocásticos —en paralelo lo estaban haciendo Andréi Kolmogorov (1903-1987), con
planteamientos análogos a los de Wiener, y Claude Shannon, este en la teoría de la
información.
En lo que se acaba de exponer se repite, de nuevo, lo infundado del dogma del
cientificismo según el cual la ciencia antecede necesariamente a la técnica moderna, y es
el genio científico (matemático en este caso) quien genera ideas originales dejando a
otros, normalmente ingenieros, el trabajo ordinario y de menor categoría de llevarlas a la
práctica. Pero, como se está viendo, en lo referente a la realimentación las cosas no fueron
exactamente así. Más bien sucedió lo contrario: el empleo de la realimentación para
resolver problemas de control automático suscitó especulaciones científicas e
intelectuales de indudable interés, pero que surgieron a partir de desarrollos ingenieriles
previos. Eso es lo que sucedió precisamente con la cibernética.

Pero antes de ocuparnos de ella, conviene insistir en cómo en el concepto de


realimentación se ilustra claramente algo que es sintomático de las prioridades de los
ingenieros con respecto a las de los científicos: el ingeniero busca la utilidad, y es lo que
hace cuando incorpora la realimentación a sus concepciones. Luego resulta que esa
estructura posee un valor universal, lo cual está muy bien, pero al ingeniero lo que le
motiva e interesa son los fundamentales beneficios que suministra la realimentación para
determinados proyectos. Para él solo en una segunda etapa aporta un concepto cuya
relevancia para la comprensión del mundo es indiscutible y, por tanto, resulta acreedor de
un estudio pormenorizado. Con el científico ocurre justamente lo contrario: primero trata
de saber, de satisfacer la curiosidad, y luego, en segundo lugar, tanto en la motivación
como en el tiempo, busca posibles aplicaciones a ese conocimiento (es lo que sucedió con
la teoría desarrollada por Wiener, a la que los ingenieros supieron encontrar utilidad
práctica, aunque no la tuviera para el caso concreto que la inspiró). Eso es lo que marca la
diferencia radical entre ingenieros —y acaso también médicos— y científicos aplicados.
Se dispone también así de una neta cortadura entre la investigación científica y la
ingenieril, que impregna los métodos que se emplean en ambos dominios. En la segunda
parte de este libro se insistirá sobre estos extremos.

Se formula la cibernética
Aunque Wiener se decepcionó por su fracaso al tratar de inventar un dispositivo que
contribuyese al esfuerzo bélico, quedó prendado por la realimentación a la que se lanzó a
buscar en campos ajenos a la ingeniería y a postular su ubicuidad. Así, dio comienzo a su
colaboración con el ya mencionado médico Arturo Rosenblueth y con el fisiólogo Walter
Cannon (1871-1945) para explorar la presencia de la realimentación en fisiología y en
neurología, con lo que reorientó sus estudios hacia sistemas biológicos. Con su nuevo
enfoque pretendía poner de manifiesto semejanzas estructurales entre los seres vivos y las

37
En la última parte de su vida trató de ampliar su teoría a los sistemas no lineales. No obstante, esta
ampliación no ha tenido repercusión en la ingeniería de control.

48
máquinas, y progresar en la comprensión de la naturaleza de la vida y de la mente. En este
período concibe la «visión cibernética» que lo haría famoso después de la guerra.
En la primavera de 1942, Wiener se dio cuenta de las implicaciones conductistas de su
trabajo sobre la realimentación. Observó que el modelo estímulo-respuesta de la
psicología conductista se asemejaba al enfoque entrada-salida en sistemas eléctricos, que
ya estaba sólidamente implantado y era empleado con asiduidad por los ingenieros.
Igualmente, se aprovechó de su familiaridad con los progresos que se estaban realizando
en las máquinas computadoras, especialmente por su relación con el analizador
diferencial de su amigo y valedor Bush. Comenzó a considerar a estas máquinas como
posibles extensiones o prótesis de los poderes mentales de sus usuarios.
El direccionamiento del cañón antiaéreo había hecho comprender a Wiener el papel
esencial que jugaba la realimentación, y con ella la información, no solo en las máquinas
dotadas de control automático, sino también en los mismos seres vivos y hasta en los
sistemas sociales. A partir de eso realizó la síntesis que denominó «cibernética»38, a la
que definió como la disciplina que se ocupa del gobierno mediante la realimentación en
los seres vivos y en las máquinas. El subtítulo de su libro es expresivo al respecto:
«control y comunicación en el animal y en la máquina» 39 . Este subtítulo subraya la
pretensión de que un mismo cuerpo teórico permita acometer cuestiones relativas a los
seres vivos y a las máquinas, centrando la cuestión en la comunicación y el control, y no
en los componentes físicos. En el procesamiento de la información es donde se
encontrarían rasgos comunes en fenómenos que se dan en el mundo natural, artificial e
incluso social. Con el concurso de la cibernética —en realidad de la realimentación— se
pretendieron entender los mecanismos básicos asociados a la percepción del ambiente y a
las respuestas que éste suscitaba. Ello inspiró las primeras realizaciones de la robótica con
las que emular, de forma simple, el comportamiento de organismos vivos. Wiener
participó de la fascinación que produjeron, tras la Segunda Guerra Mundial, las
actividades técnicas que permitían relacionar las máquinas con los organismos vivos.
Surgió así una generación de ingenieros y científicos que tenían por objetivo crear
sistemas artificiales dotados de algunas de las capacidades de los seres vivos.
En el primer capítulo de su libro, Wiener analiza las diferencias entre el tiempo
newtoniano y el bergsoniano. El primero, regido por las leyes de la mecánica clásica, es
inherentemente reversible; mientras que el segundo, como el que rige el devenir de las
nubes en el cielo, no lo es. A él le interesaba especialmente el segundo, al que subyace un
orden más sutil que en el otro. Ese tiempo irreversible es el que denominó «bergsoniano»
y es a los fenómenos que se desenvuelven en ese modo del tiempo a los que pretendió

38
El término cibernética ha sufrido una cierta degradación en estos últimos lustros y ha perdido el
significado original que pretendía imprimirle Wiener. Deriva de la voz griega kubernetes, que se traduce
como piloto o timonel, el que gobierna una nave teniendo en cuenta el variable estado del mar y de los
vientos, y a partir de esa información toma la decisión del rumbo que debe seguir la nave. Ya en el siglo
XIX, André-Marie Ampère (1775-1836) lo había utilizado para referirse a la política como el arte de
gobernar los pueblos. También se ha propuesto que la cibernética es el arte de conseguir la acción eficaz
mediante el oportuno gobierno a partir de las consecuencias de esa actuación; es decir, mediante la
realimentación. En la actualidad, ha alcanzado gran difusión formando parte de palabras compuestas como
ciberespacio, ciberguerra, ciberutopismo o aun ciberfetichismo, así como la muy extendida ciborg o
cyborg (de cybernetic organisms, resultado de la integración de dispositivos técnicos en los seres
humanos).
39
Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine.

49
dedicar sus estudios a partir de la formulación de la cibernética. De este modo surge su
interés por los organismos vivos, tan ajenos al mecanicismo clásico, y que son formas que
se desenvuelven en un tiempo irreversible.
Wiener postuló que la estructura de realimentación es ubicua y está presente en los
sistemas que gobiernan su comportamiento de forma autónoma, como ya se ha visto
reiteradamente en este capítulo. La realimentación determina que la información esté
presente en la interacción con sus entornos tanto de los seres vivos como de las máquinas.
En su libro afirma que hasta el siglo XVII se vivió la edad de los relojes; el siglo XIX fue la
edad de las máquinas de vapor; y que el XX es la edad de la comunicación y el control
mediante la información. La cibernética promovió la transferencia, por medio de
analogías, de conceptos cibernéticos desde la ingeniería a las ciencias sociales, lo que
determinó que los especialistas en estas últimas materias empezasen a prestar atención a
la noción de sistema40.
Es chocante que en sus escritos sobre cibernética Wiener nunca mencionase a los
ingenieros que le habían precedido en la utilización y el estudio de la realimentación,
como Harold Black, Harry Nyquist, Hendrick Bode o Harold Harzen, en los que se había
inspirado necesariamente (en el índice onomástico de su libro sobre cibernética los únicos
ingenieros que aparecen son su amigo Bush y Shannon, que era mitad matemático y
mitad ingeniero). Sin embargo, en otro de sus libros, Cibernética y sociedad41 (en el
capítulo I), menciona a Leibniz, Pascal, Maxwell y Gibbs como antecedentes de la nueva
disciplina. Pretendía darle a la cibernética un lustre divorciado de la tradición de la
ingeniería, en la cual realmente se había forjado el concepto de realimentación, pero que
no debía de parecerle que suministrase suficiente pedigrí intelectual a la empresa que
estaba promocionando. Sin embargo, varias culturas ingenieriles de entreguerras (el
circuito electrónico de realimentación negativa, los servomecanismos, la predicción en el
cañón antiaéreo, la regulación de procesos industriales y la ingeniería de
comunicaciones) habían promovido la convergencia de las comunicaciones y el control
que precedieron y sustentaron a la cibernética. En realidad, Wiener desempeñó solo un
cierto papel en esa convergencia al contribuir a divulgarla, al tiempo que formulaba
algunos aspectos de las matemáticas subyacentes.
Para terminar este capítulo conviene subrayar que los seres vivos no somos sino
configuraciones efímeras que se mantienen durante un corto período gracias a la
organización adquirida y sustentada mediante la información; es decir, somos formas
inestables que mediante la homeostasis mantenemos la organización que nos caracteriza
y que, al fin, acaba siendo arrollada por el fatal crecimiento global de la entropía del
universo, que arrasa con todo —la fugacidad de la vida nos concede una trágica grandeza
a los humanos, al estar dotados de conciencia. Todos los procesos autorregulados
comparten ser islotes de entropía decreciente, ya que se oponen temporalmente a la
dramática homogenización que preconiza la segunda ley de la termodinámica.

40
Javier Aracil, Máquinas, sistemas y modelos.

41
Norbert Wiener, Cibernética y sociedad.

50
Capítulo IV.- La revolución digital
Los progresos de la electrónica y la informática en la segunda mitad del
siglo XX
En la segunda mitad del siglo XX se producen considerables innovaciones en la
ingeniería, como son: los sistemas automáticos y los robots, que han permitido, entre
otras cosas, la automatización y robotización de la producción industrial, y que incluso
están invadiendo la vida doméstica; los logros de la ingeniería química; los desarrollos en
la aeronáutica y la aventura espacial, incluida la estación espacial internacional o las
sondas enviadas a los confines del sistema solar; los cultivos que han propiciado la
revolución verde; los productos de la ingeniería genética; las revoluciones energéticas,
tanto la nuclear como las renovables; el esplendoroso auge de las telecomunicaciones, de
la informática y los ordenadores personales, que están ocupando un lugar destacado en
nuestras vidas; la instrumentación de la nueva medicina; los materiales sintéticos; e
internet, entre tantos otros. En la ingeniería posterior a la Segunda Guerra Mundial, los
sistemas de gran dimensión, con electrónica incorporada, adquieren un papel
preponderante frente a las máquinas que caracterizaron la mecanización del siglo XIX y
principios del XX. La integración de la electrónica para el procesamiento de información
dentro de grandes sistemas suministra un rasgo exclusivo a la técnica moderna.

En todas esas aplicaciones han sido decisivos los progresos en microelectrónica (el arte
de incrustar ingentes cantidades de componentes electrónicos de estado sólido en una
pequeña placa de silicio, el elemento más abundante en la corteza terrestre después del

51
oxígeno) por lo que, en lo que sigue, se va a dedicar algún espacio a esta rama de la
electrónica, en cuyo desarrollo se repiten las pautas que se han bosquejado en páginas
anteriores, aunque adaptadas a las cambiantes circunstancias.

La microelectrónica surge como consecuencia de la aparición del transistor, por lo que


interesa detenerse en el proceso de invención de ese componente electrónico básico. Este
acontecimiento ilustra la inflexión que se produce tras la Segunda Guerra Mundial en las
relaciones entre ingeniería y ciencia física. A partir de entonces la participación de
científicos adquiere mayor relieve en la fase de concepción de los nuevos productos
técnicos; pero los objetivos que prevalecen en la génesis del transistor son los utilitarios
propios del ingeniero, que ha trabajado siempre auxiliado por todo lo que le puedan
suministrar los científicos de su tiempo. Esto último se hace especialmente patente en
nuestra época.

Después de la Segunda Guerra Mundial, Mervin Kelly (1894-1971), de los Laboratorios


Bell, quien había dirigido el departamento de válvulas de vacío y conocía bien los
problemas que presentaban estos componentes por su gran disipación de energía y corta
vida media, estaba convencido de que el futuro residía en la electrónica de estado sólido.
En ella se presumía que los nuevos constituyentes electrónicos estarían formados por
semiconductores, materiales capaces de conducir la electricidad, pero que, como está
implícito en su denominación, no eran tan buenos conductores como los metales. Estos
componentes ya se habían empleado desde que Ferdinand Braun (1850-1918) (que
compartió con Marconi el Premio Nobel de Física en 1909) inventó, en 1874, el
rectificador de estado sólido —el diodo de punta— basado en el contacto entre un
alambre metálico y la superficie de una pieza de galena policristalina (sulfuro de plomo),
que forman una unión metal-semiconductor que solo conduce bien la electricidad en un
sentido. Por otra parte, los semiconductores habían conseguido éxitos notables en el
radar, como ya se ha indicado en el capítulo anterior. Todo eso los hacía claros candidatos
para reproducir el papel jugado por los diodos en la electrónica de válvulas. Pero para
emular completamente esa electrónica, ya sólidamente establecida en aquellos años de
posguerra, se necesitaba, además, concebir un dispositivo que desempeñase una función
análoga a la de la rejilla en las válvulas de vacío, con el fin de conseguir amplificar.

Esa labor, sin embargo, no iba a ser tan sencilla como había ocurrido en el caso de las
válvulas. Así, la exploración para lograr el análogo al triodo con semiconductores partió
con un enorme grado de incertidumbre respecto a cuál sería la manera de conseguirlo. Por
ello, en la génesis del transistor desempeñó un papel determinante la experimentación con
prototipos, en la que la teoría iba a la zaga de esos ensayos. La primera patente de un
transistor del tipo de efecto de campo (FET) fue registrada por Julius E. Lilienfeld
(1882-1963) en los años veinte, pero sobre este dispositivo no hay noticia de que llegara a
ser fabricado, aunque sí se tenía conocimiento de su patente entre los investigadores que
trabajaban con semiconductores. Además, se carecía de una explicación de su
funcionamiento, al no disponerse todavía de la mecánica cuántica. La aplicación de esta
nueva mecánica a la comprensión de la física del estado sólido, especialmente del
movimiento de electrones y huecos, y de las bandas de energía en los metales, permitió
disponer de una explicación teórica del comportamiento de aislantes y semiconductores.

La magnitud del problema y su potencial interés económico determinó que se crearan


grupos de investigación sobre semiconductores en distintas partes, y en especial en los ya
mencionados Laboratorios Bell, donde se formó uno dirigido por William Shockley

52
(1910-1989), quien, aunque físico de formación, tenía el doctorado por el MIT y desde
1936 trabajaba en aquellos laboratorios, que eran laboratorios de investigación en
ingeniería 42 . Conviene notar que la investigación que se llevaba a cabo en los
Laboratorios Bell —como en otros centros de investigación técnica tras la Segunda
Guerra Mundial— no era monolítica, sino que comprendía dos culturas ingenieriles: la de
la mayoría de ingenieros, como el mismo Black, el del amplificador electrónico
realimentado, cuyo interés residía en proyectar circuitos electrónicos y hacerlos funcionar
correctamente de acuerdo con objetivos predeterminados; y la de los ingenieros con un
alto nivel de ciencia, interesados por las cuestiones fundamentales y que colaboraban
estrechamente con científicos.

El grupo liderado por Shockley, que se asocia a la segunda cultura de las dos anteriores,
acometió una minuciosa exploración de las propiedades del silicio y del germanio de la
que resultaría el transistor (transfer resistor). Así, en los Laboratorios Bell se inició un
largo proceso de búsqueda de dispositivos basados en semiconductores con los que
emular los diodos y en especial los triodos de la electrónica de válvulas. En 1947, John
Bardeen (1908-1991) y Walter Brattain (1902-1987), miembros del grupo, obtuvieron el
primer transistor de germanio, un pequeño dispositivo encapsulado de punta de contacto
similar, pero más estable y pequeño, al detector de galena. Así Bardeen y Brattain
obtuvieron experimentalmente el primer transistor metálico de punta de contacto, que era
capaz de amplificar. En estas continuas experimentaciones, al intentar construir un
dispositivo de efecto de campo (FET), sucedió que el metal contaminó accidentalmente al
semiconductor y se creó una unión pn imprevista dando origen a lo que sería el transistor
bipolar. Posteriormente Shockley llevó a cabo un análisis teórico de las uniones pn, con
cuyo concurso se desarrolló un transistor de unión bipolar que fue realizado por John
Shive (1913-1984). En junio de 1948 se hizo público el primer transistor de este tipo.
Así, se patentó en los Bell un pequeño transistor semiconductor por la terna formada por
Bardeen, Brattain y el propio Shockley, a los que se otorgó conjuntamente el Premio
Nobel en 1956 por ese logro (Bardeen ha sido el único ganador del Premio Nobel de
Física en dos ocasiones, la segunda por la teoría estándar de la superconductividad). Sin
embargo, la historia no es tan simple y el papel jugado por los tres protagonistas requiere
muchas precisiones, que ocuparían más espacio del disponible aquí.

Como se acaba de poner de manifiesto, el transistor se inventó en un laboratorio de


investigación en ingeniería, los Laboratorios Bell. Además, se llevó a cabo sin que
previamente se dispusiese de una teoría de la que el transistor fuese una simple
aplicación, aunque se contase con el concurso de la mecánica cuántica para estudiar la
física del estado sólido, lo que permitía evaluar los progresos experimentales y ayudar a
definir los pasos posteriores; es decir, fue el producto de múltiples tanteos de laboratorio,
con el apoyo de previsiones teóricas, en busca de un objetivo aplicado: producir una
electrónica de estado sólido que permitiese sustituir las válvulas de vacío. Un objetivo
inequívocamente ingenieril.

Por otra parte, una cosa era inventar el transistor y otra muy diferente fabricarlo a gran
escala de manera fiable, robusta y productiva. Aunque en su génesis participasen físicos,

42
En España, en la actualidad, se está dando también el fenómeno de que licenciados en las facultades de
ciencias realizan su doctorado en escuelas de ingenieros. Estos doctores normalmente se asimilan
perfectamente con los ingenieros, al menos con los investigadores. En este sentido, es frecuente encontrar a
físicos que afirman que trabajan como ingenieros.

53
después ya fue cosa de ingenieros o de quienes hacían sus mismas funciones. Los
primeros transistores de laboratorio tenían un funcionamiento irregular y su velocidad era
muy baja; además, los prototipos de laboratorio tenían una corta vida media y en su
manufactura solo se conseguía un pequeño porcentaje de éxitos. Es la diferencia que
media entre el laboratorio de investigación y las factorías de producción industrial. En
efecto, la ruta desde el primer modelo de demostración de un nuevo invento hasta un
producto fiable, susceptible de ser fabricado en masa de forma económica y robusta, es
ardua y larga. Fueron los ingenieros los que resolvieron esos problemas, convirtiendo el
transistor en un componente electrónico eficaz y de bajo coste, susceptible de un lucrativo
rendimiento económico.
De hecho, el propio Shockley afirmó que quería ver su nombre en el Wall Street Journal
y no solo en la Physical Review y, en consecuencia, en 1955 abandonó los Bell alegando
que deseaba ganar un millón de dólares, y creó una empresa para explotar los transistores,
con la que alcanzaron ciertos éxitos tanto él como sus colaboradores, además de impulsar
el Silicon Valley. Para ello adoptó un papel que recuerda al convencional de un ingeniero,
o al menos al de un inventor y empresario (como lo fuera Edison en su tiempo)
comprometido con el desarrollo de un invento hasta culminar en un producto para el
mercado. Shockley, personaje muy controvertido por otra parte, adoptó a lo largo de su
vida un papel que no se parecía al que hasta entonces se había considerado como propio
de un científico. Se convertía así en un precursor de lo que iba a suceder a fin de siglo y
que se comentará más adelante, al final de la segunda parte de este libro.
Con el fulgor de la microelectrónica surgió el Silicon Valley en torno a la Universidad de
Stanford en California. Allí proliferaron empresas cuyas innovaciones impulsaron la
revolución digital. Estas empresas fueron impulsadas por inventores-empresarios que a
partir de una determinada idea innovadora la maduraban hasta culminar en un producto
comercial. La cultura productiva del Silicon Valley se encuentra en el epicentro de una
revolución promovida por una forma peculiar de entender la labor empresarial dotándola
de gran dinamismo y de una peculiar informalidad.

Conviene recordar que los transistores intentan remedar a los triodos al disponer de tres
terminales que realizan funciones análogas a las del ánodo, la rejilla y el cátodo en las
válvulas termoiónicas. Con ellos se obtienen las mismas funciones básicas, mediante
circuitos equivalentes, que ya se habían conseguido con las válvulas que, como se
recordará, son rectificar, amplificar y modular, además de las propiamente digitales. En
relación con las válvulas, los transistores tienen una vida útil mucho más larga, una
respuesta más rápida, un escaso consumo energético (con la consiguiente menor
disipación de energía) y un tamaño mucho más pequeño, por lo que rápidamente
desplazaron a las válvulas y se convirtieron en los componentes habituales de los aparatos
de radio y televisión, los teléfonos, los ordenadores y los múltiples artilugios electrónicos
que componen nuestro entorno doméstico, en la electrónica de consumo, cuya difusión ha
tenido una considerable incidencia en la existencia de una gran mayoría de los seres
humanos, hasta el extremo de que el transistor es uno de los inventos con mayor
repercusión del siglo pasado —en el que hay tantos candidatos a esa distinción.
Aunque los transistores hacen su aparición para sustituir a las válvulas electrónicas, su
impacto no se limitó a reemplazarlas, sino que permitió fabricar productos que no serían
viables sin ellos. En particular, su desarrollo espectacular tuvo lugar cuando se
resolvieron problemas de integración inabordables con las válvulas. En efecto, los
circuitos integrados, el paso posterior que propiciaron los transistores y el nuevo hito en
la revolución de la electrónica están formados por semiconductores y componentes

54
pasivos integrados en una única pastilla y diseñados de acuerdo con objetivos bien
definidos, que dan lugar a componentes básicos tan versátiles como el amplificador
operacional integrado y, sobre todo, el microprocesador que ensambló, en 1971, Marcian
Hoff (1937-), un ingeniero de Intel Corporation. Se trata de un dispositivo mucho más
complejo que un circuito integrado convencional y que incluye centenares de miles de
componentes dedicados a la lógica, al cálculo y al control, con lo que resulta ser una
computadora en un chip.
Jack Kilby (1923-2005) ha sido uno de los contados ingenieros que han conseguido el
premio Nobel, que le fue otorgado en el año 2000 precisamente por haber concebido y
construido el primer circuito integrado. El precursor que intuyó la posibilidad de un
circuito de esta naturaleza fue el ingeniero británico Geoffrey W. A. Dummer
(1909-2002), quien no pudo llevarlo a la práctica por falta de recursos. Tanto a Kilby
como a Robert Noyce (1927-1990) se les considera los creadores del circuito electrónico
integrado. Ambos lo idearon y construyeron de manera independiente, adelantándose el
primero unos meses. Kilby lo sintetizó trabajando en Texas Instruments y Noyce en
Fairchild Semiconductor. El concepto básico es que todos los componentes de un
circuito, y no solamente los transistores, se podían construir en silicio o en germanio.
Hasta entonces nadie había hecho condensadores y resistencias sobre un sustrato de
semiconductor; pero ambos lo lograron y llegaron a la conclusión de que, puesto que
todos los componentes podían fabricarse en el mismo material, el circuito completo
podría confeccionarse en un único chip monolítico. Esa fue la gran idea.

Resulta pertinente traer aquí la pequeña historia del montaje, por parte de Kilby, del
primer circuito integrado. Siendo un joven ingeniero carente de experiencia fue
contratado por Texas Instruments, a mediados de 1958. Ese verano no tenía derecho a
vacaciones, por lo que se quedó trabajando sin ninguna supervisión. Se le había
encomendado estudiar uno de los mayores problemas que tenía la electrónica en aquellos
tiempos: la complejidad de la interconexión aumentaba con el número de componentes en
los circuitos electrónicos usuales para la época. En septiembre del mismo año logró
mostrar el correcto funcionamiento de un oscilador con todos sus componentes
integrados en un único sustrato de germanio, incluidas las conexiones. Ésta es una
ilustración patente de la actitud del ingeniero ante un problema determinado, que es capaz
de resolver ideando un cambio radical en la forma de abordarlo, junto con imaginativos
tanteos experimentales para resolver cada dificultad concreta, depurados, en su caso, por
oportunos tratamientos teóricos. El caso del circuito integrado es un claro contraejemplo
del llamado modelo lineal, de moda durante aquellos años, que presupone que la
ingeniería moderna deriva necesariamente de la ciencia, y sobre el que se volverá en el
capítulo VIII.
Por otra parte, Noyce es una muestra de alguien cuyo título universitario es el de físico,
pero cuyo primer puesto de trabajo fue de ingeniero investigador y cuya fecunda labor
profesional es indistinguible de la de un ingeniero. De hecho, siempre estuvo rodeado de
ingenieros a los que, eso sí, exigía que tuvieran el doctorado. Es otro claro ejemplo de
alguien que no habiendo estudiado para ingeniero, se comporta como tal, poniendo de
manifiesto que la formación inicial no es determinante de las actividades que se llevan a
cabo a lo largo de la vida profesional; pues la ingeniería es algo más que un título
universitario, como lo es también la ciencia, por su parte.

Los circuitos integrados de aplicación específica y los microprocesadores se beneficiaron


desde el principio del impulso recibido por sus usos militares, lo que favoreció su
55
producción en masa y la consiguiente reducción de precios. Con ellos se abrieron
posibilidades vertiginosas para la electrónica, como los ordenadores, los teléfonos
móviles o los órganos de control de los sistemas automatizados, incluidos los
imprescindibles para la carrera espacial —que no habría sido posible como la conocemos
sin esos componentes. Estos circuitos miniaturizados se fabrican en masa directamente
mediante fotolitografía, por lo que resultan mucho más baratos y fiables que los formados
por partes soldadas. La disposición de un gran número de componentes en un bloque muy
pequeño de material semiconductor se perfeccionó con gran rapidez, y con ello se activó
un progreso imparable en la electrónica que germinó en el efervescente mundo de la
California de los años sesenta43.
Los transistores son componentes imprescindibles en el mundo actual. Pero un ordenador
es mucho más que una simple maraña de transistores. Estos son solo un medio para el fin
específico de esa máquina: el procesamiento y la transmisión de información. Está claro
que sin componentes adecuados no se pueden hacer las cosas (¿¡qué habrían hecho
Charles Babbage o el mismo Leonardo da Vinci si hubiesen dispuesto de
microelectrónica!?), pero lo está también que la sola disposición de los componentes no
presupone el resultado final —una cosa es fabricar ladrillos y otra muy diferente construir
edificios con ellos. Para llegar a él son necesarias inmensas dosis de ingenio. La
concepción de los sistemas formados por transistores para llevar a cabo una cierta función
práctica, con un propósito explícito y concreto, ya forma parte del dominio peculiar de la
ingeniería al que pertenecen esos sistemas.
Cabe citar también aquí a Claude Elwood Shannon (1916-2001), quien obtuvo en el MIT
los grados en Ingeniería eléctrica y en Matemáticas, y empezó a trabajar como asistente
de investigación en el analizador diferencial de Bush, en 1936, que se convirtió en su
mentor, apoyándolo en sus comienzos. Shannon es un personaje fundamental en la
génesis de las computadoras electrónicas. Mientras trabajaba en la máquina de Bush se
interesó por los relés y los conmutadores electrónicos, así como en sus posibilidades de
ser empleados para sintetizar aritmética binaria, con lo que se convenció de la posibilidad
de usar circuitos electrónicos para llevar a cabo operaciones lógicas. El descubrimiento
fundamental de Shannon fue que era posible establecer una correspondencia biunívoca
entre la lógica binaria de Boole y conmutaciones en circuitos eléctricos, lo que
revolucionó la ingeniería de la segunda mitad del siglo XX. Se dice que sin Shannon,
Boole no sería famoso en la actualidad; pero que a causa de Boole, Shannon alcanzó el
reconocimiento de la comunidad científica. En efecto, mediante un golpe brillante,
Shannon fusionó el diseño de circuitos de conmutación con el mundo de la lógica binaria.
El descubrimiento de esa relación es el resultado del ingenio de Shannon, a partir del cual
tuvo lugar el esplendoroso desarrollo de las máquinas informáticas, hasta llegar a las
portentosas realizaciones actuales, tanto los ordenadores personales y los móviles, como
las supercomputadoras. Otra gran contribución de Shannon fue su teoría de la
información, con la que elaboró teóricamente la transmisión de mensajes a través de un
canal, con ancho de banda finito y ruidoso; y con la cual Shannon mostró
subsidiariamente que en el ámbito de la ingeniería se producen conocimientos teóricos
propios.

A partir de aportaciones como la de Shannon se produjo el advenimiento de la invención


más representativa de nuestro tiempo: la máquina computadora electrónica u ordenador,

43
Un relato periodístico de cierta calidad e interés lo encontramos en «Dos jóvenes que fueron al Oeste»,
Tom Wolfe, El periodismo canalla y otros artículos, Ediciones B, 2002.

56
en torno a la cual floreció una nueva disciplina, la informática, basada en cuestiones como
los compiladores o los sistemas operativos: en general el interminable mundo del
software, que se desarrolló para hacer cómodo, fecundo y eficaz el uso de esa compleja
máquina, una vez que ya existía. En un principio el software fue considerado como algo
periférico al computador, al que se consideraba esencialmente una máquina electrónica,
aunque pronto se convirtió en el ingrediente esencial y autónomo de la naciente
disciplina.

Una nueva primitiva en la imagen científica del mundo: la información


Durante el siglo XIX la ciencia física (la ciencia básica de lo natural por excelencia, pues
no se olvide que physis, en griego, significa naturaleza) presumía de que se podrían
explicar todos los fenómenos físicos con ayuda de dos únicos conceptos primitivos: la
materia y la energía —herencia de la materia y el movimiento de los mecanicistas––,
fundidos luego en uno solo por la teoría de la relatividad. Pero al llegar al XX, como se ha
visto en páginas anteriores, en el ámbito de la ingeniería hace su eclosión un nuevo
concepto básico: la información.
A lo largo de toda la historia de la ingeniería las invenciones mecánicas habían servido,
entre otras cosas, para incrementar la capacidad física de los usuarios de las máquinas.
Así, ya en tiempos recientes, los martillos hidráulicos multiplican la fuerza de los brazos,
las grúas y los montacargas capacitan para elevar grandes pesos y los microscopios
agudizan la mirada. Pero la electrónica, al suministrar instrumentos con los que
manipular con eficiencia la información, ha abierto un insólito universo de posibilidades
a la ingeniería: de la amplificación mecánica de la potencia del músculo se ha pasado a la
multiplicación electrónica de la eficacia de lo mental. Ni las enormes máquinas de
construcción, ni el avión, ni el automóvil, ni tantos ingenios que conforman la vida
moderna han producido tanta conmoción en la vida del hombre contemporáneo como los
progresos de la técnica que ha propiciado el procesamiento de la información. En efecto,
en la actualidad el ser humano está dando un paso gigantesco en el dominio del mundo
mediante la técnica: construye máquinas que emulan labores mentales. Aún nos
encontramos en la infancia de esos ingenios, pero el significado es inmensurable. Todos
estos logros hacen pensar que se está produciendo una transformación humana y social de
repercusión semejante, si no superior, a las que en su día produjeron las Revoluciones
Neolítica e Industrial. Para ilustrar esa transición, considérese una mano artificial. Ésta
puede ser puramente mecánica, limitándose a algo parecido a un garfio; o incorporar la
información en sus mecanismos y llegar a ser un artefacto que permita realizar funciones
que progresivamente se asemejan más y más a una mano natural, al estar dotada de
capacidad de prensión y de cierta sensibilidad al tacto. En ella, a la precisión y potencia
mecánica, se suma la sutilidad que aporta la realimentación y el procesamiento de
información. Esto último es lo que determina la radical diferencia entre una mano
artificial con electrónica incorporada y un simple garfio (o entre una pierna mecatrónica,
como las de Hugh Herr, y una pata de palo).

Así pues, con el advenimiento de las máquinas que procesan información, el siglo XX ha
hecho tambalearse las pretensiones simplificadoras de reducirlo todo a materia y energía,
al incorporar un nuevo concepto primitivo en la imagen científica del mundo: la
información, que está llamada a desempeñar un papel creciente en el siglo que estamos
empezando, incluso en la ciencia básica, como sucede en la biología —nos parecemos a
nuestros progenitores porque el ADN de nuestras células contiene la información del
código genético––; y aunque encontraba difícil acomodo en la física tradicional, en la que

57
estaba confinada al entorno de la entropía, ahora parece rebrotar en el mundo cuántico,
con el concepto de entrelazamiento. Esta nueva primitiva tiene un carácter inmaterial y
aunque cabalga sobre un sustrato físico es independiente de él: puede hacerlo sobre
diferentes soportes, bien sean señales eléctricas, posiciones mecánicas o incluso
mensajeros químicos. La información no es materia, es forma; no está hecha de átomos
(de los que los físicos han pretendido que estaba formado todo), está formada por
unidades de información (bits), que no son partículas físicas; involucra procesos
semejantes a los cognitivos, no transformaciones materiales. Consumimos información
tanto en nuestro trabajo profesional como en nuestra vida cotidiana, de maneras muy
variadas: informes, cálculos, libros, medios audiovisuales… Aunque siempre hemos
utilizado información, en nuestros días se está produciendo un cambio radical en ese
contexto. Gracias a la revolución digital, la mayor parte de nosotros trabaja —interviene
en el mundo— más con la mente que con las manos. El concepto de información,
originado en el ámbito de la ingeniería, ha entrado a formar parte imprescindible de la
imagen científica del mundo.

¿Las últimas fronteras de la técnica?


La capacidad de transformación del mundo que posee la técnica ha adquirido en nuestro
tiempo posibilidades insólitas. Acaso las más destacadas sean, por una parte, las
derivadas de la capacidad de emulación de actividades mentales mediante máquinas, a las
que se acaba de aludir, y, por otra, el ingente y perturbador mundo de modificaciones
biológicas que posee la moderna genética. Estos dos dominios de la técnica están
llamados a ejercer una influencia en el futuro de nuestra especie que, hoy por hoy, resulta
difícil de imaginar. Ahora vamos a dedicar el último apartado de esta parte del libro al
primero de ellos, que se puede considerar como una prolongación de lo que se ha estado
viendo en este capítulo y en el anterior, en los que se han comentado ramificaciones
derivadas de la incidencia de la información en la técnica de última hora. El segundo se
yergue en el horizonte con un poder de transformación difícilmente imaginable. Su
consideración detenida obligaría a sobrepasar los límites propuestos para este libro.

En nuestros días está madurando una nueva rama de la informática a la que se denomina
inteligencia artificial y que trata de diseñar algoritmos que una vez programados en las
máquinas informáticas hagan que estas emulen algunos aspectos del comportamiento
inteligente. Esta disciplina se desarrolla en torno al hecho de que algunas de esas
máquinas son capaces de hacer cosas para las que diríamos que hace falta tener
inteligencia para hacerlas, como ganar partidas al ajedrez o conducir coches. Se han
desarrollado diferentes formas de abordar este asunto. En un principio, se programaban
en la máquina las reglas con las que se actúa en un determinado ámbito, por ejemplo, en el
diagnóstico médico. En su tiempo estos programas se denominaron «sistemas expertos»,
ya que pretendían incorporar los conocimientos de los especialistas en un cierto dominio.
Pero, posteriormente se ha comprobado que resulta más eficaz, en lugar de incorporar a la
máquina las reglas de comportamiento en cierto ámbito de la experiencia, reunir ingentes
cantidades de datos (big data) de ese campo para que sea la propia máquina la que
extraiga de ellos esas reglas. Esta forma de acometer el problema se beneficia de técnicas
computacionales basadas en las redes neuronales artificiales. Estas redes se organizan en
capas que corresponden a niveles progresivos de abstracción en los datos que analizan.
Con ellas que se han conseguido éxitos considerables en el proceso de aprendizaje de las
máquinas (deep learning).

En esos casos el problema es más de software que de hardware. Sin embargo, los
58
progresos realizados en este último son también relevantes. En este sentido, cabe resaltar
la compactación electrónica que permiten los circuitos integrados. La posibilidad de
comprimir enormes cantidades de componentes electrónicos en un volumen cada vez
menor, permite vislumbrar la emergencia de máquinas computadoras a su vez más
pequeñas y con mayor capacidad de cálculo y memoria. Una muestra de lo anterior se
tiene en la conocida como Ley de Moore —que no es ninguna ley en el sentido
convencional que tiene este término en ciencia––, enunciada por Gordon Moore (1929-)
en 1965, según la cual cada cierto período (que varía entre uno y dos años) se produce una
duplicación de la integración de los circuitos electrónicos, y de las correspondientes
velocidad y capacidad de cálculo.

Esta «ley» es en realidad una regla heurística que afecta a diferentes perfeccionamientos
en el mundo digital. Se enunció inicialmente para 10 años, aunque posteriormente se ha
ido reformulando, y parecía que estaba destinada a tener una cota por los problemas que,
según la física, encontraría la integración a partir de un cierto umbral de proximidad entre
los átomos 44 . Sin embargo, se está logrando sortear esa frontera y continuar la
compactación de los componentes, entre otras formas disponiéndolos en varias capas
situadas una encima de otra, en lugar de una sola, con lo que se abren nuevas
posibilidades de continuar con el proceso de reducción del volumen. Por otra parte, el
establecimiento de redes de computadoras permite también obtener unas enormes
capacidades de cálculo en paralelo con la miniaturización.

Si el proceso de compactación que predice la Ley de Moore continuase al mismo ritmo


que hasta ahora, en los medios correspondientes se aventura que en los próximos
decenios se construirían máquinas computadoras de dimensiones razonables y altas
prestaciones, que lograrían emular a la misma mente humana. El momento en que esto
ocurriera ha sido bautizado como punto de singularidad por el matemático y escritor de
ciencia ficción Vernor Vinge (1944-), denominación que ha propagado con gran
entusiasmo el escritor e ingeniero informático Raymond Kurzweill (1948-).

En otros medios se estima que eso es una quimera, porque no parece razonable que una
máquina pueda llegar a reproducir la mente humana —algo como pretender que las
máquinas que elevan pesos reproduzcan los músculos (el bíceps, por ejemplo). En
realidad, la predicción del punto de singularidad está siendo muy cuestionada,
especialmente por su significado profundo, ya que presupone un consenso sobre qué es la
inteligencia del que hoy no se dispone, y que es precisamente lo que deberían emular las
máquinas. Por tanto, no se trata de duplicar la mente humana, sino solo, lo que no es poco,
de que las máquinas resuelvan determinados problemas ejerciendo una función que
tildaríamos de mental.

En todo caso, la inteligencia artificial está alcanzado gran difusión y es indudable que,
con independencia de esa denominación excesiva, en ese dominio se están produciendo
progresos esplendorosos: los sistemas de reconocimiento de voz; la conducción
autónoma de automóviles; el reconocimiento facial en una multitud; los robots
quirúrgicos formados por brazos articulados que permiten una cirugía mínimamente
invasiva, reduciendo al mínimo el tamaño de las incisiones; el comportamiento autónomo
de los rover que investigan otros planetas; las computadoras que ganan campeonatos de
ajedrez y otros concursos, como las máquinas Watson, supercomputadoras desarrolladas

44
Véase E. Brynjolsson y A. McAfee, The Second Machine Age, p. 48.

59
por IBM, sobre las que volveremos un poco más abajo. Recientemente, en marzo de
2016, la computadora Google DeepMind AlphaGo ha batido al surcoreano Lee Sedol
(1983-), uno de los mejores jugadores del mundo de Go —el milenario juego chino
famoso por su complejidad estratégica. En algunos de estos adelantos se puede dar
además la confluencia de la informática con otra rama de la ingeniería de brillante futuro:
la robótica. Pero, en todos los casos mencionados, es patente que las máquinas creadas
hasta ahora son inteligentes en un sentido limitado; ejecutan solo las tareas concretas que
han suministrado los datos relativos a esas tareas —por eso se está tan lejos de que se
pueda sustituir al ser humano en tareas de alta política, en las que hay que afrontar
situaciones presididas por la novedad y de las que se carece de datos representativos de
circunstancias análogas. De modo que aunque se consiga una inteligencia artificial
específica, limitada a aplicaciones concretas, no es concebible, de momento, una
inteligencia artificial de carácter general (esta es una de las cuestiones con las que más se
cuestiona el pretendido punto de singularidad). Las máquinas no poseen la capacidad,
propia de los humanos, de pasar de la resolución de un problema preciso a otro
completamente distinto. Una máquina (un programa) capaz de jugar al ajedrez a nivel de
gran maestro es incapaz de jugar a las damas, pese a tratarse de un juego mucho más
sencillo.

El publicitado peligro de que las máquinas lleguen a dominar a los hombres hay que
tomarlo con muchas reservas. Precisamente es en el ámbito de la inteligencia artificial
donde ese peligro pudiera hacerse más patente. En efecto, después de que Garry Kaspárov
(1963-) perdiese frente a Deep Blue, en 1997, se empezó a propagar una ola de recelo ante
el poder que podrían llegar a tener las computadoras. El propio Stephen Hawking (como
en su día Stanley Kubrick y Arthur Clarke, los creadores de la computadora HAL en la
película 2001: Una odisea del espacio, que se rebela contra los humanos) ha expresado su
temor de que la inteligencia artificial alcance un punto de no retorno por el que las
máquinas tomen las riendas de su propia evolución45. ¿Se producirá una explosión de
inteligencia cuando esas máquinas sean capaces de mejorarse ellas mismas cada vez más?

Pero, sin llegar a esos extremos, es notable que cuando le preguntaron al campeón y
maestro de ajedrez holandés Ja Hein Donner (1927-1988) cómo prepararse para un
encuentro con una de ellas respondió: «Llevando un martillo». Parecía que los humanos
no volverían a tener nada que hacer en el juego del ajedrez. Sin embargo, el invento del
«estilo libre» (freestyle) en los torneos de ajedrez, en el que los equipos enfrentados están
formados conjuntamente por humanos y máquinas, puso en entredicho esa afirmación.
Como el propio Kaspárov afirmó a raíz de los resultados de un enfrentamiento de estilo
libre en 2005: «La combinación de la dirección estratégica por parte de los humanos con
la agilidad táctica de una computadora era abrumadora» 46 . Aunque las cuestiones
estratégicas empiezan a ser abordadas por los programas informáticos (por ejemplo, en
determinados juegos).

Entre tanto, el núcleo del asunto se encuentra en que las personas y las máquinas
computadoras poseen distintas aptitudes. Las computadoras destacan por su velocidad de

45
Stephen Hawking et ali., «Transcendence looks at the implications of artificial intelligence - but are we
taking AI seriously enough?», The Independent, Vol. 2014, No. 05-01, 1 May 2014.

46
Garry Kaspárov, «The Chess Master and the Computer», New York Review of Books, 11 febrero, 2010.

60
cálculo, mientras que los humanos —y en general los seres vivos, como los recurridos
ratones de laboratorio— lo hacen por la mayor complejidad, plasticidad, versatilidad y
sutileza de sus cualidades para el procesamiento de la información, por lo que resultan
indispensables en todo proceso de decisión, especialmente cuando están involucradas
decisiones de alto riesgo. Las máquinas pueden aprender cómo mimetizar la habilidad
humana de jugar al ajedrez; pero los humanos pueden aportar estrategias al más alto nivel
cuando coordinan su actividad con las máquinas, en lugar de jugar contra ellas. Lo que
sucede es que las máquinas incrementan progresivamente las habilidades humanas en
lugar de sustituirlas.

¿Impondremos alguna cota a propiciar la autonomía de las máquinas? Por mencionar un


caso concreto: ¿en un automóvil con piloto automático, cómo resolver el dilema de elegir
entre opciones contradictorias? ¿Qué debe prevalecer, en situaciones críticas, la
seguridad del conductor o la del peatón? Procede mencionar aquí también el vuelo
autónomo de los drones bélicos, que incluso eligen los blancos que van a bombardear, lo
mismo que los denominados «robots asesinos».
Cabe referirse ahora, aunque sea solo un instante, a las máquinas Watson, a las que ya se
ha aludido de pasada, las cuales contestan correctamente preguntas retorcidas en
programas de televisión, y que serán sin duda de ayuda para los médicos y para
diagnósticos de todo tipo. Estas máquinas están basadas en el aprendizaje automático
(machine learning) y se comportan como sistemas cognitivos en los que la máquina
aporta su capacidad de procesamiento de ingentes cantidades de datos, y son capaces de
encontrar conexiones en el conocimiento disponible, sobre un dominio determinado, que
haya sido digitalizado —sean partidas de ajedrez o composiciones musicales. Mediante el
aprendizaje automático se pretende generar algoritmos de aprendizaje con los que una
máquina llegue a desentrañar las pautas subyacentes a los datos y con ello consiga
emular, mediante las ya mencionadas redes neuronales, el aprendizaje a partir de los
ejemplos que se le presentan. La computadora está demostrando ser capaz de realizar
inferencias a partir de casos preexistentes.

Los nuevos sistemas cognitivos informáticos de lo que tratan es de ayudar al usuario. Es


lo que sucede en las aplicaciones a la medicina. Sin embargo, la capacidad para
diagnosticar de los médicos es aún insustituible; pues de momento, el diálogo personal
entre el médico y el enfermo se considera inevitable, excepto en casos rutinarios. La
confianza que podemos tener en un médico no es fácil que se sustituya por un algoritmo.
Además, muchos de los problemas involucrados en un diagnóstico requieren más de
sentido común que de procesamiento de enormes cantidades de datos. Por ello, la
actuación conjunta de un médico y una computadora (como en el freestyle) resulta ser
más creativa y eficiente que cualquiera de los dos trabajando por su cuenta. En este
contexto parecería más propio hablar de colaboración hombre-máquina que de
inteligencia artificial.

En fin, no tiene sentido plantear si estas máquinas, tal como las conocemos hoy, pueden
llegar a tener conciencia de su existencia. De momento no son capaces de responder a
preguntas del tipo: ¿sabes lo que estás haciendo? En este sentido, son interesantes las
reflexiones del físico Roger Penrose47, quien defiende que el software actual, y por tanto
las computadoras, tiene los mismos límites que las máquinas de Turing. Según ese autor
la conciencia necesitaría elementos no computables, que no se pueden lograr con los
47
Roger Penrose, Las sombras de la mente.

61
componentes electrónicos de los que actualmente se dispone.

La inteligencia artificial ha sido terreno abonado para disquisiciones literarias. Entre ellas
se encuentran las del científico y escritor de ciencia ficción Stanislaw Lem (1921-2006),
autor de una Historia de la literatura bítica48 en la que hacía irónicas predicciones para
finales de los años ochenta del siglo XX (sic), fantaseando con la decimoquinta «binastía»
de ordenadores parlantes, según su peculiar denominación. Sugería también que habría
que dar a las máquinas unos períodos de reposo en los que éstas, sin estar sometidas a
acciones programadas, pudieran desenvolverse de forma errática para permitir regenerar
su propia capacidad. En esta misma obra escribe (p. 74):

Sería absurdo […] empezar el análisis de una obra diagnosticando que el autor de Tristán
e Isolda o de la Canción de Rolando fuese un organismo multicelular, perteneciente al
subtipo de vertebrados terrestres, mamífero vivíparo, pulmonar, plaquetario, etcétera. En
cambio, el asunto ya no es el mismo si precisamos que el autor de Anticanto, ILLIAC
164, es un ordenador de binastia 19, semotopológico, paraleloserial, electrónico,
inicialmente políglota, con un potencial interelectrónico que alcanza 10 10 epsilon-semos
por 1 milímetro de espacio configurativo n-dimensional de canales utilizables, con
memoria enalienada en red y con una monolengua de procesos interiores de tipo
UNILING.

En todo caso, la inteligencia artificial está viviendo una época dorada, repleta de enormes
promesas y ocupa un lugar destacado en las innovaciones técnicas que conforman
nuestras vidas. Con su concurso, las máquinas informáticas están estableciendo una
fecunda relación simbiótica, intensa e íntima con el hombre, que abre posibilidades
renovadas al mundo artificial, protagonizando una de sus últimas fronteras.

En fin, en la primera parte de este libro, que ahora concluye, se han visto casos concretos
de cómo se origina la ingeniería al producirse las formas más elaboradas y complejas de
la técnica para tratar de resolver problemas específicos en distintos ámbitos de la
actividad humana. Al mismo tiempo se ha puesto de manifiesto cómo presenta rasgos
específicos que sustentan su singularidad y autonomía. Estos rasgos, que permiten
identificarla, se van a analizar en la segunda parte.

48
Stanislaw Lem, Magnitud imaginaria.

62
Segunda parte

En busca de la identidad

63
Capítulo V.- La técnica y la civilización
Entre lo natural y lo artificial
Con lo visto en la primera parte del libro estamos ya en disposición de abordar cuestiones
transversales, menos ligadas a casos concretos, como se hizo allí, que afecten a las
distintas ramas de la ingeniería. Con esa transversalidad emerge lo que ésta pueda tener
de común y unitario. Es lo que se va a hacer ahora, en la segunda parte, empezando, en
este capítulo, por recordar el íntimo y profundo vínculo entre la técnica y la civilización,
para así sentar las bases de la indagación que se desarrollará en los siguientes.

En el mundo civilizado, en casi todo lo que nos rodea se encuentran huellas de alguna
intervención técnica llevada a cabo por alguien a partir de una idea que ha presidido esa
actuación y que está inspirada en un designio, lo que acaba por traducirse en un producto
artificial. Nos topamos con estas huellas no solo en los entornos doméstico y urbano más
inmediatos, donde todo lo que se ve, incluidos los verdes jardines y los parques, son
artificiales, sino también, en una casa de campo, al asomarnos por una ventana veremos
tierras cultivadas, plantaciones, bosques repoblados, también resultado de la labor
humana. Si miramos a nuestro alrededor prácticamente la totalidad de lo que alcanza la
vista revela algún rastro de nuestra intervención. Con ella se ha erigido el mundo
artificial, consecuencia de la acumulación de actuaciones técnicas.

Algunos autores literarios han tratado de imaginar un mundo en el que se prescinda por
completo de los logros de la técnica y de la ingeniería, pero al hacerlo nunca han sido
consecuentes hasta el final. Por ejemplo, Samuel Butler 49 no prescindió de alimentos,
edificios, vestidos, utensilios de cocina y un largo etcétera. A lo sumo, proscribió de su
mundo ficticio las sucias, grasientas y ruidosas máquinas producto de la Revolución
Industrial —posiblemente hubiese excluido también las pulcras máquinas de la era
digital. Al proceder así ha dejado una brecha en la consistencia de su planteamiento. La
conclusión, tras lo fallido del intento, es que la vida de los humanos, desde los inicios de
la humanidad hasta nuestros días, no es concebible sin el concurso de la técnica, que se
alza como uno de los pilares básicos de la civilización, a la que ha contribuido con la
construcción y expansión del mundo artificial o humanizado —hecho por y para el
hombre––, el cual se ha convertido en una segunda naturaleza para nosotros —la
sobrenaturaleza de la que hablaba Ortega— y en el que nuestra vida se desenvuelve de
una forma progresivamente más confortable y longeva —al menos hasta la actualidad.
Renunciar a los problemas inherentes a ese mundo nos impediría sobrevivir tal como hoy
entendemos la vida.

A partir de la hominización, el hombre ha tratado de reconducir las fuerzas de la


naturaleza en su beneficio, fabricándose un entorno formado por objetos que la naturaleza
no le había dotado y que le hacen la vida más grata. La génesis de ese mundo se produce
49
Samuel Butler, Erewhon.

64
mediante la proliferación de artificios que surgen como soluciones a cuestiones prácticas
o son simples objetos que materializan el poder de quien los detenta. Se pone así de
manifiesto una capacidad desconocida en el mundo animal mediante la cual, como se ha
resaltado tantas veces, la propia adaptación del ser humano al entorno se hace mediante
una alteración de ese medio para adaptarlo a sí mismo, al menos hasta cierto punto, al
contrario de lo que sucede con el resto de las especies naturales, que son las que se tienen
que adaptar al medio. La evolución humana es el largo proceso por el que las sociedades
humanas han creado un entorno que atenúa las inconveniencias del natural.

Nosotros mismos somos artificiales por naturaleza 50 . Sobrevivimos a muchas


enfermedades ante las que lo «natural» sería que sucumbiésemos si su gravedad lo
determinase, y alcanzamos una edad, en promedio, impensable para nuestros remotos
antepasados. Nos beneficiamos de prótesis con las que compensamos determinados
deterioros y deficiencias, y sin las que nuestra vida no alcanzaría la calidad que
progresivamente posee. Hemos conseguido ser la única especie de gran tamaño que
sobrevive tanto en las zonas frías circumpolares como en los desiertos y las selvas
tropicales —prescindiendo de los microorganismos, las primeras formas de vida sobre el
planeta y que presumiblemente serán las últimas. Poblamos el planeta entero, a partir de
nuestro origen en África.

Desde los albores de la civilización, el conjunto de las plantas y animales que están en la
base de nuestra alimentación son producto de la selección artificial inducida por
agricultores y ganaderos. Ninguna de estas variedades es natural, en el sentido de haberse
generado espontáneamente en el mundo natural y de persistir sin el ineludible y laborioso
celo de los granjeros. Así pues, nuestra alimentación está basada en productos que son
resultado de una selección artificial por la que están sobreviviendo aquellas especies más
productivas para la nuestra y no aquellas mejor adaptadas para perpetuarse en el mundo
natural, como había sucedido a lo largo de toda la evolución biológica.

Utilidad y curiosidad
Desde sus orígenes el hombre ha demostrado estar especialmente capacitado para
detectar las pautas cíclicas que se dan en el comportamiento de la naturaleza. Una de las
cualidades de la inteligencia humana es precisamente su facultad para reconocer
uniformidades en los fenómenos que ocurren en el mundo. De este modo, ha encontrado
relaciones permanentes y repetibles que subyacen al incesante y aparentemente azaroso
flujo de los fenómenos. Esas relaciones muestran comportamientos regulares y, por tanto,
previsibles, lo que permite beneficiarse astutamente de ciertos rasgos reproducibles en el
funcionamiento del mundo natural, de los que se puede sacar partido para actuar sobre él
y obtener algún beneficio, e incluso mitigar sus inclemencias. Entre las primeras
regularidades que se descubrieron, y que tuvieron gran importancia en la evolución
posterior del hombre, destacan las asociadas con los ciclos periódicos de la naturaleza,
tanto en el itinerario de los astros, como en los cursos vitales de las plantas y los animales,
a partir de los cuales se pudo organizar la agricultura y la caza migratoria. Asimismo,
observando la altura del sol se podía estimar cuánto faltaba para que llegara la noche. Se
aprendió que con el día más largo del año se iniciaba una época cálida; y también se
comprobó la posibilidad de predecir las fechas más adecuadas para la siembra y la
cosecha. De hecho, en el mundo arcaico el cielo sirvió como brújula, reloj y calendario.
Estos conocimientos acabaron incorporándose al patrimonio común de la humanidad.

50
Fernando Savater, Las preguntas de la vida, cap. 7.

65
Además, y en paralelo con el aprovechamiento de esos ciclos, nuestros antepasados
empezaron a hacer cosas que previamente no existían, como lascas, anzuelos, flechas,
lanzas… De este modo, se dotaron de artificios con los que desencadenaron el imparable
proceso que les iba a llevar a ser la especie dominante sobre la Tierra.

Por otra parte, a partir de cierto momento, mucho después de los escarceos primitivos
inspirados en la búsqueda de lo útil, el hombre pretende que de las regularidades
detectadas se desprenda un conocimiento con el que saciar la curiosidad que suscita la
asombrosa variedad de fenómenos que conforman el mundo natural, aunque de ese
conocimiento no se obtenga ningún beneficio, como no sea el gozar de saber: surge
entonces el portentoso mundo de la ciencia. Conocer por qué el cielo es azul o por qué en
el centro de nuestra galaxia existe un agujero negro no parece aportar un especial
beneficio directo para nuestra especie —en todo caso sería indirecto. Una de las primeras
manifestaciones de ese saber es la astronomía, que nació a partir de la fascinación que
provoca la sobrecogedora observación nocturna del firmamento —aunque esta rama de la
ciencia no era ajena, en sus orígenes, a pretensiones no tan magnánimas, como son las
asociadas con la astrología, la cual llegó a alimentar, en sus fases más arcaicas, al oráculo
más que a la ciencia; sin olvidar que, al mismo tiempo, contribuyó decisivamente a las
artes de la navegación.

No está claro cuándo se establece una clara diferencia entre ciencia y técnica. Pero, ya en
el mundo griego, el propio Aristóteles en su Ética a Nicómaco delimita de forma diáfana
la dicotomía entre estas dos formas fundamentales de quehacer humano: «el carpintero y
el geómetra buscan de distinta manera el ángulo recto: el uno en la medida que es útil para
su obra; el otro busca qué es y qué propiedades tiene, pues es contemplador de la
verdad»51. Desde entonces los ingenieros han hecho causa común con el carpintero;
mientras que los científicos, y también los filósofos, la han hecho con el geómetra.

De este modo, la doble especialización del conocimiento del mundo natural ha producido
dos modos de actividad característicos de nuestra especie: la técnica y la ciencia,
definidos por dos conceptos filosóficos asimétricos: tékhnē (arte) y epistḗmē (saber).
Aquí nos interesa sobre todo la primera aunque, por razones que ya se han puesto de
manifiesto en capítulos anteriores, tendremos que ocuparnos también de la segunda.
Estos dos modos de actividad han adquirido, a lo largo de los tiempos, una creciente
especialización y autonomía relativa, que los diferencia claramente entre sí —aunque, sin
embargo, hay quienes niegan este extremo, como sucede con los partidarios del término
tecnociencia (más adelante, en este mismo capítulo, volveremos sobre él). Si hay que
trazar una divisoria neta entre una y otra, se puede decir que la técnica busca lo útil, de
forma prioritaria, mientras que la ciencia persigue la satisfacción de la curiosidad,
alcanzar una rigurosa explicación de los fenómenos que suceden en el mundo. De
acuerdo con ello, el contraste entre técnica y ciencia se reduciría al correspondiente entre
utilidad52 y curiosidad. Es claro que esta reducción es excesivamente simplista, pues
tanto la técnica como la ciencia son fenómenos demasiado complejos para ser
caracterizados con ayuda de un solo término —ay, la ineludible simplificación, sea en un

51
Aristóteles, Ética a Nicómaco, versión de M. Araujo y J. Marías, Universidad de Valencia, 1993, 1098a,
p. 34.
52
El concepto de utilidad que aquí se emplea es diferente al que usan los economistas, por ejemplo, en la
teoría del consumo neoclásica cuando hablan de la función de utilidad. En este libro tiene un sentido más
laxo.

66
mapa, una ecuación o un concepto, pero que nos resulta indispensable para
desenvolvernos intelectualmente en el mundo. Pero, así y todo, esa simplificación acaba
siendo fecunda, grosso modo, para la exposición que aquí se está haciendo. En el próximo
capítulo se elaborará con más detalle esta disyuntiva.

No obstante, conviene recordar que aunque la ciencia se ocupa en primera instancia de


saciar la curiosidad, también puede ocuparse de lo aplicado, pero siempre en segundo
lugar, a partir de los resultados obtenidos por la investigación básica, que es
fundamentalmente especulativa o exploratoria y está por tanto, en principio, divorciada
de necesidades concretas a corto plazo. Con la técnica sucede lo contrario, ya que su
objetivo prioritario es obtener resultados provechosos, aunque no se descarte, en segundo
plano, satisfacer también la curiosidad. Al hablar de la realimentación ya se apuntó cómo,
con ella, se tenía un caso concreto de un concepto surgido de la ingeniería (es decir, de la
técnica) que, posteriormente, ha adquirido un significado mucho más amplio, que la
transciende.

¿Sapiens o Faber? ¿Es pertinente la pregunta?


Como se está viendo, el hombre posee unas facultades, que no se observan en el resto del
mundo animal, al menos en el mismo grado, mediante las que hace cosas buscando un
beneficio deliberado de ellas, y de este modo transforma el mundo natural que se ha
encontrado en otro artificial. Pero, además, posee otras capacidades, no menos
definitorias, por las que sabe, con las que ha conseguido, mediante símbolos —palabras,
figuras y números––, construir en su mente descripciones que emulan los
acontecimientos que se producen en su entorno, logrando así comprender y descifrar
algunos aspectos del funcionamiento del mundo con el que se topa, que incluso le
facilitan intervenir en él.

La ciencia está basada en la estructuración del conocimiento del mundo natural, obtenido
con una peculiar mezcla de experimentación y razonamiento. Una recompensa por
comprender las cosas es adquirir la capacidad de predecir su comportamiento, lo que
facilita su manipulación. Asimismo, se alcanza un singular deleite intelectual cuando se
logra saber sobre los fenómenos que se producen en el mundo y se consigue explicarlos.
Cuando eso sucede por primera vez, se dice que se ha obtenido la primicia de un
descubrimiento en ciencia: lo que es uno de los grandes premios a los que aspiran los
científicos de todos los tiempos que, cuando lo consiguen, les produce una comprensible
euforia. Una vez realizado un descubrimiento de este tipo, se desencadena la decisión de
publicarlo para compartirlo con el resto de la comunidad científica; y para que,
igualmente, pueda ser utilizado por quien le encuentre beneficio práctico.

Saber y hacer son, pues, dos modos diferentes y que resultan complementarios, y
corrientemente simbióticos, por lo que la caracterización del hombre como Homo sapiens
se queda corta. El hombre es también Homo faber, aunque esta última denominación no
haya alcanzado categoría taxonómica. Como ya se ha recordado, los paleontólogos
identifican la aparición del género Homo por la presencia, en el entorno de sus restos
fósiles, de vestigios líticos que son huellas de una actividad como técnico incipiente. Para
encontrar restos que lo acrediten como «sapiente» hay que remontarse solo a unos pocos
milenios atrás, ya en los albores de la civilización, cuando se inventa la escritura (hay
quienes alegarán que antes de esa invención, con el arte rupestre o el ornamental,
determinados artefactos dejan de ser exclusivamente funcionales y persiguen otros fines
que ya no se pueden considerar como estrictamente provechosos, con lo que se apuntan
67
ya rasgos distintivos de sapiens). Por tanto, calificar al hombre solo como sapiens es
insuficiente. De que es faber no hay ninguna duda. Basta con mirar a nuestro alrededor y
comprobar cómo ha intervenido para remodelar su propio entorno, enclaustrándose en el
mundo artificial del que se ha dotado.

Lo anterior nos lleva a preguntarnos: ¿entonces qué es lo que define más


significativamente a nuestra especie, el saber o el haber construido el mundo artificial?
¿Qué denominación sería más apropiada: Homo sapiens u Homo faber? Tras un debate
que tuvo lugar en la segunda mitad del siglo XVIII, cuando la ingeniería no había
alcanzado la incidencia en la vida humana que posteriormente lograría, se impuso la
primera denominación, pues partía de un hombre de ciencia, Karl von Linneo
(1707-1778), quien estableció la taxonomía de los seres vivos y aprovechó para arrimar el
ascua a su sardina de hombre que sabe (hombre sabio, científico). De este modo, la
adopción de Homo sapiens fue propuesta por alguien que era a la vez juez y parte. La otra,
la que no tuvo fortuna, fue defendida por personas como Benjamin Franklin (1706-1790),
para quien el hombre es principalmente un fabricante de útiles. Con esta acepción se
identifican mejor los ingenieros.

En nuestro mundo occidental, las raíces de la minusvaloración hacia lo relacionado con la


técnica se remontan al mundo griego, en el que el ciudadano libre menospreciaba la labor
de los que hacían cosas prácticas, lo que era considerado propio de las clases serviles,
mientras que los hombres libres (liberados, sobre todo, del trabajo manual) se dedicaban a
la especulación filosófica o política. Éstos, en algunos casos, puede que dedicasen algún
esfuerzo a resolver problemas prácticos, pero siempre considerándolos como de rango
inferior a los puramente contemplativos —lo que es patente en el caso de Arquímedes.
Es, posiblemente, el gran Platón quien elaboró filosóficamente, con mayor repercusión,
ese desdén y sentó las bases de la actitud que desestima lo técnico en el mundo
intelectual. En paralelo empieza a apuntarse el distanciamiento entre ciencia y técnica, de
modo que la primera cobra dignidad al convertirse en una actividad intelectual propia del
ciudadano, mientras que la segunda tiende a denigrarse. De este modo, lo práctico se
subestimaba frente a la pretendida excelsitud de la reflexión desinteresada. No obstante,
también es cierto que en el mundo romano la ingeniería tuvo una relevancia decisiva, y
los ingenieros, confundidos con los arquitectos, fueron muy apreciados.

Los rescoldos de esa actitud desdeñosa aún se detectan en nuestros días, en los que la
propia ciencia intenta ejercer una tutela intelectual sobre la técnica, por la que esta última
se liberaría del tradicional menosprecio solo a cambio de restringirse a un modo de
actividad tributario de la ciencia: ancilla scientiae, y también hija de la ciencia, se ha
llegado incluso a decir de la técnica. Pero se olvida que las grandes realizaciones
históricas de la técnica, empezando por la puesta a punto del fertilizado y fecundo suelo
agrícola —artificio sin el que la agricultura, ni entonces ni ahora, sería posible––; las
obras públicas de las antiguas civilizaciones; la revolucionaria imprenta; las máquinas
que promovieron la Revolución Industrial; los grandes avances de la ingeniería moderna
como la aviación, la electrónica, la robótica y la informática; las nuevas variedades de
plantas que están atajando el hambre en el mundo; así como tantas otras maravillas de la
ingeniería no han sido, en su génesis, aplicación directa de la ciencia establecida cuando
se llevaron a cabo. Esas realizaciones son el resultado de una forma de proceder que se
remonta a los orígenes de la civilización, en la que las facultades dominantes han sido la
imaginación y la capacidad de innovación en la búsqueda de lo útil, con el explícito e
ineludible concurso de la razón.

68
La técnica, la hominización y la humanización
De acuerdo con lo que se está exponiendo, la técnica es uno de los modos de actividad
definitorios de la especie humana, en cuya evolución destaca, juntamente con el poderoso
cerebro —capaz de recordar el pasado e imaginar el futuro, y de construir un mundo
simbólico concordante con el real––, el papel jugado por la mano, con los dedos prensiles
y la muñeca articulada. Basta comparar la mano con otros órganos de animales como los
dientes, las patas, el pico o los cuernos para percibir las extraordinarias posibilidades para
las que faculta al que está dotado de ella. Por otra parte, lo que hacen los animales se
reduce a aquello genéticamente determinado por su especie, que es compartido por todos
sus congéneres y que normalmente no sobrelleva ninguna invención individual. Es un
modo de comportamiento que no se enriquece con aportaciones de sus ejecutores (así, los
habilidosos nidos de los pájaros son siempre iguales para cada especie —al menos eso
nos parece un); mientras que el ser humano es radicalmente un animal innovador que
reforma de continuo el mundo con el que se encuentra, sea el natural o el artificial.
Mediante la mano se puede tanto forjar herramientas como manejarlas. El hombre no solo
elige las herramientas que usa, sino que las construye tras discurrir sobre ellas, después de
ejercitar su razón respecto a su forma y su función; lo que determina que cada una de ellas
sea el producto de una reflexión, aunque se inspire en utensilios llevados a cabo por otros.

Por consiguiente, la técnica humana va mucho más lejos que la del resto de los animales,
ya que es personal, voluntaria y dotada de inventiva. El hombre aprende, incorpora
mejoras y acopia experiencia, y de esta forma afina su práctica vital. Con todo ello es
capaz de realizar actos singulares, libres y conscientes, diferentes de la actividad
predominantemente instintiva que llevan a cabo las otras especies animales. Considérese,
por ejemplo, la producción del fuego. Todos los animales pueden ver cómo prende un
matojo seco por un rayo en una tormenta. Pero solo el hombre ha sido capaz de concebir
una técnica para producir, controlar y conservar el fuego; y de este modo ha imaginado un
medio para alcanzar un fin.

Así pues, estamos dotados del privilegio de tener comportamientos que no están
programados genéticamente. Al comportamiento aprendido, modulado por una actividad
creadora, se le suele denominar cultura, y en ella la técnica ocupa un lugar prominente
—si bien esto se olvida con demasiada frecuencia. Con su concurso la especie humana se
va desprendiendo paulatinamente de los vínculos directos con la naturaleza, de la que nos
vamos distanciando con el progreso de la civilización. La actividad técnica confiere al
hombre unas posibilidades que hacen de éste no solamente un ente natural, sino que
además va de suyo que lleve incorporado lo artificial, como ya se ha apuntado hace poco.

Por tanto, el ser humano es un animal para el que hacer técnica es algo inherente a su
naturaleza. Además, mediante la técnica va transformándose a sí mismo al adaptarse al
mundo artificial que va creando. Desde la caza prehistórica, las aptitudes necesarias para
llevarla a cabo han sido seleccionadas por la evolución humana. El modo de estar en el
mundo del hombre es primordialmente el de un usuario de las cosas que lo pueblan, de las
que dispone utilizándolas para fines que él mismo establece, en función de sus
necesidades o de sus apetencias. Lo anterior nos lleva al meollo de la técnica: el hombre
actual lo es en la medida en que ha alterado el mundo natural en su propio beneficio, pues
no hay nada más natural para el ser humano que modificar en su provecho el inhóspito
—aunque a veces bellísimo— mundo de la naturaleza agreste para crear otro más amable:
el artificial. Eso es precisamente lo que define la acción técnica a la que, por ello, cabe

69
considerar la espina dorsal de nuestra civilización53.

En consecuencia, pretender prescindir de la técnica es, en el sentido más estricto, actuar


contra natura; pues solo en el mundo artificial puede desenvolverse nuestra especie tal
como hemos llegado a ser. Hemos convertido nuestro progreso en la «desnaturalización»
de nuestro entorno para subordinarlo a nuestras apetencias y ambiciones. Y de esta
manera, en nuestros días, estamos en un punto en el que la cuestión estriba en cómo hacer
que la transformación que la técnica está provocando en el mundo permita a nuestra
especie mejorar sus posibilidades tanto de bienestar como de pervivencia; en cómo ser
más eficientes en el uso de los limitados recursos disponibles, habida cuenta del
abrumador volumen alcanzado por la población humana; en cómo conseguir un mundo
sostenible (por usar un término de moda, aunque revestido de una indeleble ambigüedad).
Se trata de concebir, producir y controlar artefactos y máquinas con las que conseguir un
mundo mejor, aunque no sea el mejor que podamos desear. Asociadas a estas cuestiones
se encuentran también ineludibles responsabilidades de las que se hablará en su
momento.

La técnica es heredera de un ingente patrimonio del que cabe afirmar, con Fernando
Savater 54 , que: «junto al lenguaje simbólico, la técnica es la capacidad activa más
distintiva de nuestra especie». Refuerza nuestra humanidad cuando nos facilita el
conseguir objetivos que consideramos que forman parte de lo que nos identifica como
humanos. En la medida en que la vida es una lucha contra el ineludible destino, la técnica
se convierte en un arma poderosa al servicio de ese designio.

En todo caso, la técnica ha desempeñado un papel esencial en el proceso de


hominización; en la aparición del ser humano a partir del simio superior. Desde entonces
hasta nuestros días es inseparable de lo que se conoce como progreso de la humanidad.
Pero, además, promueve también la humanización, la adquisición de los rasgos humanos
más característicos. Por eso resulta tan sorprendente escuchar a menudo que hay que
humanizar la técnica: ¡si ha sido precisamente su concurso lo que ha contribuido
decisivamente a hacernos humanos! Sin embargo, una parte significativa del mundo del
pensamiento no parece estar interesada, con la intensidad que requiere, por la técnica, no
haciendo justicia al papel fundamental que juega esta forma de quehacer en la vida de
cada uno de nosotros y de la propia civilización. La técnica —y hasta tiempos recientes
también la economía— ha sido considerada como algo prosaico y carente de interés
intelectual. Si se compara a un ingeniero o a un comerciante con artistas, escritores y
pensadores se corre el peligro de ser acusado de desconocer cuál es la «verdadera»
cultura.

Ésta aspiraría a ocuparse de lo que se denomina el factor humano, por lo que los que la
cultivan alegan que se ocupan del dominio del pensamiento provisto de auténtica y
profunda dimensión (lo que se entiende por el sentido de la vida) frente al
pretendidamente superficial y huero de la técnica. Sin embargo, el hombre actual es

53
El filósofo de la técnica Friedric Dessauer, en su Discusión sobre la técnica, ve en la generación del
mundo artificial una continuación de la Creación. A lo largo de la historia no han faltado los que han
considerado la técnica como el instrumento instituido por Dios para recuperar el Paraíso perdido. Aunque
también hay quienes, por el contrario, han considerado la alteración del mundo natural como tarea propia
del Diablo, proponiendo una demonización del saber técnico.
54
Fernando Savater, Op. cit., p. 184.

70
incomprensible sin la, en apariencia, minusvalorada técnica. Aunque, al mismo tiempo,
hay que aceptar que una cierta dosis de las facultades críticas y reflexivas que despliegan
los humanistas, al examinar lo que es único y particular, los casos concretos, aporta
también otra forma de abordar el fenómeno de la técnica.

En la sociedad moderna, saturada por lo artificial, se produce una paradoja no siempre


reconocida. Los productos de la técnica se han convertido en tan familiares que resultan
«invisibles». En la medida en que lo técnico se ha convertido en medular en nuestras
vidas, parece haber desaparecido de lo que nos ocupa conscientemente —solo cuando se
nos averían las máquinas de uso cotidiano notamos con angustia su ausencia. Asimismo,
los ciudadanos no suelen estar capacitados para tomar decisiones relativas a lo técnico, o
pensar críticamente acerca de ello, lo que resulta sumamente peligroso en una democracia
donde hay que tener criterio sobre las ventajas y los peligros de determinadas cuestiones
técnicas —así los debates sobre la energía o sobre los transgénicos (en general, sobre los
objetos modificados genéticamente, los OMG) están envueltos en grandes dosis de
desconocimiento público.

Las actividades técnicas más influyentes poseen una inherente componente de creación
en la que está involucrado el más depurado ingenio humano. Aunque la creatividad es
usual que se restrinja a las bellas artes, los inventores también la reclaman legítimamente
para su proceder —lo mismo que los científicos. Por otra parte, las emociones personales
son imposibles de comparar, pero ¿cabe decir que lo que siente un artista al concluir una
obra personal es de índole superior a lo que experimenta un ingeniero cuando realiza un
artefacto hasta entonces inédito? ¿O la del científico que alcanza la primicia de un
descubrimiento?

La técnica del ingeniero


En su sentido más amplio, la voz técnica se asocia con habilidades para hacer, que pueden
ser de naturaleza muy variada, desde la técnica de un pintor hasta la técnica jurídica, sin
omitir la que emplea el científico en el laboratorio. Cada una de las actividades técnicas se
hermana con un arte: el arte de hacer utensilios o de tirar con el arco, el de cabalgar, el de
escribir o pintar. Cuando se trata de hacer hay siempre detrás algún modo del arte. En este
libro cuando se habla de técnica se alude a la que emplean los ingenieros en sus
intervenciones para erigir el mundo artificial. Por consiguiente, el ingeniero se considera
a sí mismo un técnico, ya que la técnica que emplea está formada por una grandiosa
cordillera en cuyas cumbres florece la ingeniería. De ahí se sigue que la ingeniería sea la
forma superior de la técnica (Ortega dixit).

Una posible definición extensiva de la técnica del ingeniero es la que comprende tanto los
artefactos tangibles que pueblan el mundo artificial (puentes, aviones, automóviles,
computadoras, transgénicos, satélites, etc.) y los sistemas de los cuales esos artefactos
forman parte (transporte, comunicaciones, producción y distribución de alimentos y
bienes, etc.), así como los profesionales y los conocimientos requeridos para diseñar,
manufacturar, operar y mantener en funcionamiento todos esos artefactos. En
consecuencia, el término artefacto, o sus sinónimos artificio, ingenio, dispositivo,
artilugio u objeto técnico, se emplea aquí con una gran generalidad que incluye a todos
los pobladores del mundo artificial, con los que hemos reconducido y distorsionado el
mundo natural.

Con la técnica no se trata de saber solamente como fabricar artefactos, sino también de su
71
manejo y utilización. Es más bien una actividad que un conjunto de utensilios, aunque
estos sean consustanciales con ella. En un sentido moderno, la técnica comprende la
actuación de ingenieros, inventores, artesanos, mecánicos e incluso científicos que
emplean herramientas, máquinas y conocimiento para crear y explotar el mundo artificial.
Esto distingue las obras técnicas propias del ingeniero de otras que, por tener también un
propósito práctico, podrían confundirse con ellas, como es el caso de los contratos legales
o del dinero. Es claro que cuando se habla de mundo artificial, este no se limita al mundo
material hecho por los ingenieros, sino que de él también forman parte otros artificios
como el lenguaje, las relaciones sociales, la política y tantos otros. Sin embargo, en este
libro cuando se alude al mundo artificial no se consideran explícitamente esos otros
importantes aspectos.

Los artefactos que produce la técnica son el resultado de múltiples tanteos realizados con
anterioridad y que confluyen en el hecho, que tiene mucho de mágico, de la producción
de algo que previamente no existía y que se comporta de acuerdo con los designios de su
creador. La técnica suele mejorar sus productos de forma gradual y progresiva, sin
alcanzar nunca la perfección absoluta. Pero en determinados momentos históricos se
producen cambios drásticos que dan lugar a artefactos en los que ese cambio suave se
desdibuja ante una innovación sustancial que marca la impronta de un nuevo artefacto;
como, por ejemplo, cuando se sustituyeron los motores de hélices en los aviones por
motores de reacción; o se pasó de la electrónica de válvulas a la de transistores, y luego a
la de circuitos integrados. Se produce entonces una radical innovación que permite
concebir dispositivos hasta entonces imposibles de imaginar. Sucede en tal caso lo que se
conoce como una revolución técnica. Sin embargo, a partir de esa discontinuidad el
progreso vuelve a ser gradual. Este modo de mutación recuerda a los equilibrios
puntuados de la evolución biológica.

Técnica antigua y moderna


Después de la Revolución científica ha alcanzado cierta difusión la propuesta cientificista
de que la componente de conocimiento de la técnica está formada por conjuntos de reglas
de actuación que deben derivarse a partir de leyes científicas para garantizar su eficiencia.
De acuerdo con este punto de vista lo que distinguiría la técnica tradicional, las artes y
oficios precientíficos, de la técnica contemporánea, es precisamente la fundamentación
científica de las reglas que utiliza el ingeniero. En este sentido, algunos autores han
pretendido haber encontrado una clara cortadura entre la técnica de la antigüedad, a la que
han asociado con una componente artesanal dominante, y la técnica moderna, que estaría
basada en la ciencia, hasta el extremo de que la llaman técnica científica —y la identifican
también con la tecnología; volveremos sobre esto al final de este mismo capítulo––, pero
esta cortadura se hace difícil de sostener si se tiene en cuenta lo dicho hasta aquí. Esa
distinción olvida que los fines de una y otra forma de la técnica son los mismos, con
independencia de la época en la que hayan florecido; y que esa identidad de fines está por
encima de otras consideraciones circunstanciales o epistemológicas. Ambas formas de la
técnica están presididas por el mismo afán de búsqueda predominante de lo provechoso,
aunque los recursos, sean materiales o intelectuales, se adapten a las disponibilidades de
cada época.

En efecto, no parece aceptable reivindicar que haya una técnica anterior a la Revolución
Científica, la denominada con algún menosprecio técnica artesanal, de la que se dice que
es meramente empírica (¡como si la ciencia no tuviese también una componente empírica
radical!) y que se hace sin ciencia, sin un conocimiento estructurado, lo que se interpreta
72
como si no se supiese bien lo que se hace; mientras que con posterioridad a esa
revolución, con la aparición de la ciencia moderna, ya se dispondría de un basamento
teórico y sólido para justificar el excesivamente endeble de las artes técnicas
tradicionales, con lo que se produciría un cambio sustancial en la historia de la técnica,
por el que ésta pasaría a estar subordinada al conocimiento científico. Pero, ¿acaso se
puede pensar que los constructores de las admirables obras civiles de la antigüedad, los
sagaces ganaderos y agricultores que mejoraban sus ganaderías y sus cultivos mediante la
selección de los ejemplares o de las semillas más nutritivas o productivas, o los que
concibieron los majestuosos trirremes, no ejercían la razón para hacer lo que hacían?
¿Podemos mantener seriamente que aquellos antepasados no desplegaron un prodigioso
ingenio que en nada desmerece del nuestro? ¿De verdad creemos que lo que hace un
ingeniero en la actualidad, cuando concibe y fabrica un nuevo ingenio, es de naturaleza
superior a lo que hicieron aquellos artesanos? Aparte, claro está, de que en nuestros días,
el ingeniero lo hace con unos medios, de todo tipo, que le conceden mucha ventaja, pero
¿nuestro proceder actual merece una consideración cualitativamente distinta y superior a
la de los que desencadenaron el fascinante proceso de la civilización? La falacia del
argumento se comprende mejor si se proyecta al futuro: ¿qué se dirá del modo como
nosotros hacemos ingeniería dentro de un par de siglos? ¿Se negará la existencia de un
hilo conductor común entre lo que hacen hoy los ingenieros y lo que harán entonces?

En este libro se postula una inequívoca continuidad de la técnica moderna con la


tradicional, y no una ruptura tajante como han defendido autores como Martin Heidegger
y otros. De hecho, las variadas formas de la técnica del ingeniero de todos los tiempos,
comparten el mismo espíritu de transformación del mundo buscando algún tipo de
provecho, mediando el ejercicio de la razón y de acuerdo con los recursos disponibles.
Una constante del método del ingeniero (y del técnico general), en todos los tiempos, ha
sido el llevar el orden de la razón a sus realizaciones.

Las tecnologías
Cuando se habla de ingeniería resulta inevitable referirse también a las tecnologías.
Según el uso tradicional, y de acuerdo con su etimología, una tecnología es un saber —un
logos, un tratado, un estudio— sobre cierto dominio de la técnica; por ejemplo, se habla
de la tecnología mecánica o de la tecnología electrónica. En este sentido, el sufijo -logía
apunta a saberes en un dominio determinado del quehacer técnico. De hecho, una
tecnología puede entenderse como una colección de métodos o procedimientos para
resolver una clase de problemas técnicos; y también como una indagación racional sobre
esos métodos —normalmente con resultados compatibles con la ciencia que trata de los
fenómenos naturales involucrados en esos procedimientos. El primer sentido es el que
emplea Julio Caro Baroja en su Tecnología popular española; mientras que el segundo se
tiene en denominaciones como las anteriores de tecnología mecánica o tecnología
química, las cuales comprenden el estudio de las actividades técnicas relacionadas con la
mecánica o la química, según el caso. El uso de tecnología adjetivada ha sido habitual
para referirse a las disciplinas del ingeniero, y da nombre a gran número de las
asignaturas normales en las escuelas correspondientes; de donde se desprende el papel
capital de las tecnologías en la formación de esos profesionales. Por tanto, una tecnología
es el conocimiento relativo a un ámbito determinado de la técnica ingenieril, que es el que
suministra el adjetivo correspondiente.

La estructuración lógica de los conceptos y procedimientos técnicos en cada una de las


tecnologías se asemeja, con frecuencia, a la que establecen los científicos con los suyos
73
propios. De hecho, en las tecnologías se incorporan conocimientos científicos,
normalmente en sus fundamentos, además de los propiamente técnicos, que son los
dominantes. Así, en la electrotecnia se parte de unos elementales conocimientos físicos,
como son las leyes de Ohm o de Kirchoff, incapaces por sí solos de resolver los
problemas que afrontan los ingenieros; estos conocimientos deben ser profundamente
reelaborados, llegando a formulaciones como los teoremas de Thévenin y de Norton,
enunciados por los dos ingenieros que les dieron nombre. Estos teoremas ya pertenecen
plenamente a la electrotecnia y forman parte de lo que normalmente emplean los
ingenieros eléctricos en sus proyectos. En este sentido se dice que las tecnologías aportan
los conocimientos mediante los cuales se hace la ingeniería. Y así, la técnica del ingeniero
resulta de una orquestación de tecnologías, por lo que es indistinto hablar de la técnica o
de las tecnologías del ingeniero (aunque sea preferible la primera denominación, al
menos por más corta).

Otra acepción tradicional es la que se emplea cuando se habla, por ejemplo, de tecnología
militar. Se alude entonces a las actividades técnicas que se llevan a cabo en un dominio
determinado, como es el militar. Este uso se relaciona con el de Caro Baroja en su libro
sobre tecnología popular española, que se acaba de recordar. Por extensión, ya en tiempos
recientes, también se habla de una tecnología como del conjunto de procedimientos
técnicos para resolver una cierta clase de problemas. En este uso la adjetivación está
implícita. Esta acepción posee sentido un tanto laxo que, sin embargo, goza de bastante
aceptación. En un libro como éste no se abundará en esa acepción.

En general, tenemos un notable conocimiento acerca de las distintas tecnologías en el


sentido concreto de cada una de ellas, pero no hemos desarrollado un saber único y
sistematizado acerca de la técnica como un modo general de comprensión de nuestra
relación con el mundo para intervenir en él y transformarlo de acuerdo con nuestras
pretensiones. Por eso es impropio hablar de la tecnología sin adjetivar. Tradicionalmente,
nunca se hablaba de la tecnología, aunque sí de una tecnología concreta.

Pero, dicho lo anterior, hay que añadir que durante el último tercio del siglo pasado las
voces técnica y tecnología han sufrido una gran distorsión. A principios de ese siglo,
especialmente a partir de los años veinte, el término que adquiere mayor valor y que se
consolida es el de técnica, que es el que se contrapone a ciencia. Así, se hablaba de
ciencia y técnica. Es el término que utiliza Ortega en su celebrada Meditación de la
técnica —en la que, por cierto, no aparece ni una sola vez la palabra tecnología— y, en
general, así lo hacen todos los autores de las primeras dos terceras partes del siglo XX.
Este uso está asociado con la influencia que las culturas alemana y francesa (die Technik
y la technique) ejercían en esa época sobre el panorama intelectual español, y sobre el
europeo en general. También se adoptó en su día para distinguir los centros de formación
de los ingenieros, que se denominan Escuelas Técnicas Superiores (posiblemente por
inspiración alemana). Asimismo los centros universitarios en los que la ingeniería es
dominante se llaman Universidades Politécnicas. Lo mismo sucede con centros europeos
análogos, como la École Polytechnique de París (la primera institución técnica de rango
superior, fundada en 1794) y en otros muchos centros politécnicos de la Europa
continental: el de Milán, el Federal de Zúrich, el de Rumanía, la Chalmers Tekniska
Högskola, así como en las Technische Hochschulen alemanas; mientras que en el Reino
Unido, se tiene, entre otras muchas, la antigua Royal Polytechnic Institution. En cualquier
caso, los equivalentes españoles de los Institutes of Technology americanos son las
Universidades Politécnicas (sin olvidar que en Estados Unidos la institución más antigua

74
dedicada a la enseñanza técnica superior es el Rensselaer Polytechnic Institute, fundado
en 1824).

Así pues, en español la palabra tecnología se usaba tradicionalmente adjetivada, sea


explícita o implícitamente. Este uso era el que se le daba hasta, más o menos, el último
tercio del siglo pasado. Su utilización sin adjetivar se ha difundido recientemente, sin que
haya adquirido un significado siempre preciso y claro, debido a las distintas raíces que
tiene esa voz en las culturas anglosajona y europea. En este cambio lingüístico tuvo cierta
influencia el que, en 1959, la Society for the History of Technology empezase a publicar la
revista Technology and Culture. Con esa revista recibe un notable impulso el uso de la
voz inglesa technology en los medios académicos españoles de humanidades, que en
nuestra lengua se tradujo de forma precipitada e incorrecta como tecnología, rompiendo
con una tradición lingüística bien asentada —a fin de cuentas, lo más sencillo es traducir
technology por tecnología y dejarse de complicaciones. Esta traducción ha hecho fortuna
en los medios académicos relacionados con la historia de la ciencia y otros dominios del
mundo del pensamiento, lo mismo que entre científicos 55 ––éstos especialmente en la
expresión «ciencia y tecnología», sobre la que se volverá más adelante. Es notable cómo
la difusión actual de esa voz tiene su origen en un mundo ajeno al de los ingenieros, que
son precisamente los que practican las tecnologías, las han estudiado y saben de ellas.

Al mismo tiempo y en paralelo se generaliza, en determinados ambientes eruditos, la


aceptación de la propuesta de Jacob Bigelow, un profesor de Harvard que en 1831
propuso, en su libro Elements of Technology: on the Application of the Sciences to the
Useful Arts, que la tecnología era la aplicación de la ciencia a las artes prácticas. En esos
medios se pretende que tecnología pase a significar ‘la técnica hecha con logos, con
razón’, lo que identifican exclusivamente con ciencia ––¡como si la técnica hecha por el
hombre desde los orígenes de la humanidad hubiese carecido de la razón como atributo
definitorio, como ya se ha apuntado anteriormente! Sin embargo, la proposición de
Bigelow tuvo éxito y fue adoptada en el mundo anglosajón y a partir de ahí se produjo su
difusión más allá de ese mundo. De este modo, para algunos autores, el contenido de
conocimiento científico de la técnica moderna es básico y dominante, y la convierte en
tecnología (no faltan los que llegan a proponer que la tecnología es el estudio científico de
lo artificial 56 ). Esta forma de ver la tecnología ha sido muy bien acogida por los
científicos, quienes la han hecho suya, pues está hecha a su medida. No resulta extraño oír
decir a algún científico eminente que él no sabe nada sobre ingeniería, pero sí de
tecnología. Por otra parte, y en el otro extremo, están quienes proponen que ingeniería y
tecnología son sinónimas. En fin, otros autores, cercanos al mundo de los ingenieros, han
querido ceñirse a la etimología y hablan de la tecnología como una ciencia de las técnicas,
en cuyo núcleo duro se encontraría la ciencia de la concepción de artefactos 57 . Sin
embargo, esta última propuesta no ha sido suficientemente elaborada ni está aceptada
entre todos los que teorizan sobre la historia y la filosofía de la técnica, más dados a

55
Así, en la Universidad de Sevilla, por citar un caso concreto, existen Escuelas Técnicas Superiores de
Ingenieros, de Arquitectura, de Ingeniería Informática y una Escuela Politécnica Superior, en las que se
forman ingenieros y arquitectos. En todas ellas está presente la voz técnica en su denominación. Pero existe
también el Centro de Investigación, Tecnología e Innovación de la Universidad de Sevilla (CITIUS),
creado en torno a las Facultades de Ciencias tradicionales, donde aparece la palabra tecnología.
56
Mario Bunge, Epistemología, p. 206.
57
Jean-Louis Le Moigne, «Les sciences de l’ingénierie sont des sciences fondamentales. Contribution a
l’épistémologie de la technologie», Revue Internationale de Systémique, 7 (2), 1993 : 183-204.

75
aceptar la propuesta de Bigelow y sus variantes.

En todo caso, se está produciendo un inmoderado abuso del engolado y pomposo


archisílabo tecnología, a rebufo de su dudosa traducción. Los políticos58 y los medios de
comunicación son también propensos al uso de este término. Asimismo, en el lenguaje
corriente la voz técnica empieza a ser desplazada por tecnología sin mayores matices (por
ejemplo, se habla de tecnología culinaria, con la que el arte de los fogones adquiriría
mayor empaque); o incluso es posible que acabe considerándose la voz técnica como una
antigualla. Igualmente, el uso sinónimo de las dos voces es frecuente en ciertos textos
para evitar redundancias. Pero lo que está claro es que ese mismo éxito mediático ha
desvirtuado la pretensión de considerar la tecnología como una forma superior de la
técnica, basada en la ciencia moderna. Por todo ello, el terco empeño de dar a tecnología
el fraudulento significado de ‘técnica basada en la ciencia’, violentando el uso
tradicional, está resultando vano a la postre.

La difusión de tecnología en el lenguaje ordinario se ha visto favorecida por su uso en la


expresión «nuevas tecnologías» (traducción, a su vez, de new technologies), formadas
originalmente por los productos del mundo digital. Esta locución ha tenido gran éxito
comercial al identificarse con la modernidad y con el último grito, primero en
dispositivos electrónicos, y luego se ha extendido a otros ámbitos de la técnica como el
automovilismo, entre tantos otros —en anuncios comerciales se ha hablado incluso de
lavadoras con tecnología inteligente. Se dice también que los jóvenes consumen mucha
tecnología, donde tecnología, en este caso, es una abreviación de «tecnología digital».
Ciertos medios periodísticos dedican espacios en cuyo encabezamiento se incluye ese
término y que están dedicados a exhibir productos de la técnica más vanguardista y
novedosa, con preferencia electrónica, aunque no solo. Todo lo anterior ha dado lugar a
un barullo lingüístico en el que resulta incómodo desenvolverse si se pretende cierto
rigor, como cabría esperar de los ambientes académicos o sencillamente cultos.

Aquí se limita el uso de la voz tecnología a aquellas ocasiones en las que se emplea
adjetivada, implícita o explícitamente, que es como se venía usando tradicionalmente
entre ingenieros y que es consistente con la etimología. Se hablará siempre de una
tecnología determinada, a veces de las tecnologías, y nunca de la tecnología.

58
En este orden de cosas, en España se convirtió, a mediados de los ochenta del siglo pasado, la antigua
CAICYT (Comisión Asesora de Investigación Científica y Técnica) en la CICYT (Comisión
Interministerial de Ciencia y Tecnología), en vigor en la actualidad. Desde los años 2000 a 2004 funcionó
un Ministerio de Ciencia y Tecnología al más alto nivel de la Administración pública española. Por otra
parte, los reconocimientos a la investigación del más alto nivel que se otorgan en España son los Premios
Princesa de Asturias de Investigación Científica y Técnica.

76
Capítulo VI.- Los diferentes enfoques de la ingeniería y la
ciencia
Algunas definiciones
Tras lo visto hasta ahora, ya procede tratar de definir qué es la ingeniería. Una de las más
tempranas definiciones de lo que es un ingeniero aparece en el Tesoro de la lengua
castellana o española (1611), de Sebastián de Covarrubias: «el que fabrica con
entendimiento y facilita el ejecutar lo que con la fuerza es dificultoso y costoso». En las
Ordenanzas del Real Cuerpo de Ingenieros Militares, 1739, se lee que el ingeniero debe
«remediar con el arte los defectos de la naturaleza»59, definición consistente con lo dicho

59
Citado en Manuel Silva, El siglo de las luces, p. 23. Viene a cuento también la locución latina ars vincit
omnia, a todas luces excesiva, pero no descaminada

77
páginas atrás. Asimismo, una definición de ingeniería que es un claro precedente de la
que posteriormente se impondría es la que propuso Thomas Telford, (1757–1834), primer
presidente de la Institution of Civil Engineers británica (y que había empezado como
cantero), quien afirmó de la ingeniería: «being the art of directing the great sources of
power in nature for the use and convenience of man». Al analizar esta definición conviene
recordar que arte y técnica tienen raíces etimológicas comunes —la primera latina (ars) y
la otra griega (tékhnē)–– aunque con el tiempo tiende a asociarse con arte una invocación
a la creatividad y a la inventiva para la concepción y la fabricación de algo previamente
inexistente, mientras que técnica se reserva para las reglas, procedimientos o habilidad
para hacerlo. Además, la voz arte se va delimitando paulatinamente al significado con
que se emplea en Bellas Artes, aunque la Academia Española mantenga como primera
acepción: «capacidad, habilidad para hacer algo». Definiciones posteriores a la de
Telford cambian significativamente el acento en «arte» por «aplicación de conocimientos
científicos», inflexión que se está objetando en estas páginas.

Así, en 1925 aparece en el Diccionario de la Academia Española una definición que ya


posee los rasgos de la que acabaría imponiéndose durante algunos decenios: «arte de
aplicar los conocimientos científicos a la invención, perfeccionamiento y utilización de la
técnica industrial en todas sus determinaciones»; mientras que ingeniero es «el que
profesa la ingeniería». En la edición de 1984 se modifica ligeramente a «conjunto de
conocimientos y de técnicas que permiten aplicar el saber científico a la utilización de la
materia y de las fuentes de energía, mediante invenciones y construcciones útiles para el
hombre». Estas definiciones han hecho fortuna y han calado en muchos ámbitos de
opinión, lo que ha terminado por crear una imagen distorsionada de la ingeniería. En este
libro se está cuestionando esa acepción, de la que pudiera desprenderse que la ingeniería
no es sino la mera aplicación del saber científico, por lo que quedaría reducida a una labor
subalterna. Los casos expuestos en capítulos anteriores deberían ser suficientes para
poner en entredicho ese punto de vista. Pero es el caso que la ciencia posee en nuestros
días un gran ascendiente intelectual debido a que ese modo del saber es un rasgo
distintivo del mundo moderno, hasta el punto de que la ciencia pura suele presentarse
como la clave para la prosperidad de la sociedad actual. Por ello ha entrado a formar parte
del modo dominante de pensamiento en nuestro tiempo, en el que es identificada con la
modernidad y el progreso, incluso se le atribuye la forma más pulida de la razón.

Volviendo a la ingeniería, en recientes ediciones del Diccionario se ha convertido en:


«conjunto de conocimientos orientados a la invención y utilización de técnicas para el
aprovechamiento de los recursos naturales o para la actividad industrial». Una forma
alternativa de definirla sería: «la intervención meditada y calculada en el mundo con el fin
de producir y gestionar los artefactos que forman el entorno artificial, cuyo fin es hacerlo
más benigno para el hombre que el natural», definición en la que la ingeniería no limita su
actuación al mundo natural, sino que se extiende también al artificial, ya ampliamente
implantado en nuestros días.

La acepción más corriente de la ingeniería es la que la contempla como el empleo de la


imaginación y el razonamiento para crear productos, instalaciones, estructuras y
explotaciones dotadas de finalidad práctica. El mundo artificial no está hecho solo de
ideas brillantes o de originales especulaciones, sino de realizaciones que funcionan
eficientemente y alcanzan una amplia aceptación social. Sin descartar que los ingenieros
se conviertan también en líderes de las empresas para las que trabajan, y desde esos
puestos tutelen y encaucen la técnica en la búsqueda del beneficio común.

78
No obstante, en nuestros días la ingeniería se resiente de la definición, antes mencionada,
que la considera como mera aplicación del conocimiento científico. Ello justifica que se
dedique una parte considerable de este capítulo a las relaciones de la ciencia con la
ingeniería. Es lo que se va a hacer en las páginas siguientes.

La prestigiosa ciencia
Por su parte, la ciencia aspira a establecer un cuerpo de conocimientos con los que los
fenómenos que se dan en el mundo natural adquieran una existencia transparente y
comprensible. Los logros de la ciencia lo invaden todo: en todas las profesiones modernas
en las que intervienen esos fenómenos están presentes, de una forma u otra, sus
resultados. Por citar un caso extremo, está fuera de toda duda que los conocimientos
científicos son de un valor inestimable para la policía en sus labores de identificación de
pruebas. Sin embargo, esas aplicaciones no privan a la acción policial de sus métodos
específicos y de autonomía para definir y alcanzar sus propios objetivos. En este mismo
sentido, es obvio que todo lo relacionado con el conocimiento y manejo de las cosas
materiales es distinto después de la aparición de la ciencia moderna.

Uno de los pioneros de esa ciencia fue Galileo Galilei (1564-1642), cuya obra
Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias, escrita en
1638, cuando ya estaba casi ciego y recluido en Arcetri tras la condena por la Inquisición,
se ocupa precisamente de dos ciencias básicas para la ingeniería: la resistencia de
materiales y la dinámica. Desde Galileo sabemos que algunos fenómenos naturales se
pueden describir con fórmulas matemáticas. Este autor mostró una especial admiración
por los métodos cuantitativos y geométricos de los artesanos de los astilleros de Venecia,
llegando a proponer la aplicación de esos mismos métodos a los problemas que afrontaba
la filosofía natural. Conviene recordar que los científicos son descendientes por línea
directa de los filósofos naturales ––el libro germinal de la ciencia moderna, de Isaac
Newton, lleva por título Principios matemáticos de la filosofía natural.

Uno de los objetivos más ambiciosos de la ciencia física es unificar fenómenos físicos
aparentemente diferentes en una teoría única y coherente, siguiendo la senda de Newton
al identificar la fuerza que provoca la caída de una manzana con la que mantiene la luna
en órbita —orbitar es una forma especial y crítica de caer––, o la de Maxwell al unificar la
electricidad y el magnetismo en un único marco teórico —y de paso la óptica. Aunque
esta unificación es más una aspiración que un imperativo lógico —ya sabemos que no se
da en las matemáticas, la otra gran ciencia exacta60––, ha sido una fuente de inspiración
para los físicos teóricos, que de este modo revelan su pretensión primordial de desvelar la
inasible realidad, que no podría ser más que una y por tanto debería admitir una
representación unitaria (lo que es un supuesto ––¿metafísico?–– que no admite
demostración). Los científicos formulan teorías que tienen la capacidad de comprimir
conocimientos dispersos en unidades epistemológicas a las que, además, se les atribuye
una peculiar forma de belleza 61. El atractivo de la teorización reside en su facultad de
sistematizar en un cuerpo compacto de conocimientos los variados datos obtenidos
experimentalmente en un dominio determinado, por amplio que éste sea.

60
Aquí procede recordar también los teoremas de Gödel que establecen limitaciones formales a la
posibilidad de estructurar el conjunto de las matemáticas.
61
Frank Wilczek, El mundo como obra de arte.

79
Así pues, la pretensión de los científicos sería alcanzar una descripción del mundo lo más
consistente y amplia posible que lo explique, haciéndolo inteligible y diáfano. Este ideal
es algo que no parece que se vaya a alcanzar nunca en lo que tiene de aspiración a conocer
cómo son las cosas de facto; es decir, de modo que se lograse la verdad definitiva,
completa e inmutable que describiese el ser profundo de las cosas —con la aventurada
hipótesis adicional de que ese ser existe, y de que disponemos de un lenguaje que permita
expresarlo.

Piénsese, por ejemplo, en la teoría de la gravitación de Newton, uno de los grandes hitos
de la historia de la ciencia, con la que se llegó a pensar, en su tiempo, que se había
alcanzado la meta fundacional de la física: que todo cuanto se podía saber respecto a las
interacciones gravitatorias entre masas estaba contenido en esa teoría, resultado de la
ingente empresa iniciada miles de años atrás para descifrar el errático movimiento de los
planetas en el firmamento. Durante ese dilatado lapso se llegaron a proponer modelos,
como el de Ptolomeo, para calcular, con cierta precisión, los movimientos de las estrellas
errantes, aunque se carecía de una explicación de ese movimiento. La teoría de Newton
proporcionó esa explicación y una forma de calcular los movimientos de sorprendente
simplicidad. Pese a los éxitos alcanzados con su aplicación, que aún hoy en día sigue
siendo una herramienta habitual para calcular las trayectorias orbitales, la propia teoría
newtoniana escondía algo intelectualmente inadmisible como es la acción a distancia
ejercida de forma instantánea (el propio Newton lo reconocía así). Además del problema
de la acción a distancia, había otros62, como el de la órbita de Mercurio, que esa teoría
tampoco alcanzaba a solucionar. Asimismo, tampoco logró dar una explicación
cuantitativa de fenómenos más complejos que los movimientos simples de los planetas,
los péndulos o las trayectorias de los proyectiles. Es el caso de las mareas, que no acertó a
interpretar de manera correcta.

El problema de la acción a distancia no tuvo un tratamiento alternativo hasta la


formulación de la teoría de la relatividad generalizada de Einstein, con la introducción de
la curvatura del espacio-tiempo (concepto que recuerda al éter decimonónico), otra
noción que, como la de acción a distancia instantánea, también escapa a nuestra intuición
más allá de su formulación matemática. De acuerdo con esta teoría, la gravedad aparece
imbricada con la geometría del universo. El premio Nobel de Física Frank Wilczek
(1951-) cita la forma poética con la que otro físico, John Wheeler (1911-2008), describe
la relatividad general63:

La materia le dice al espacio-tiempo cómo curvarse.


El espacio-tiempo le dice a la materia cómo moverse.

Además, se admite que la teoría de Einstein es solo un paso más en la comprensión del
cosmos. Es de notar que después de esa teoría, la de Newton queda reducida a una
primera aproximación. La ciencia posee un inherente componente subversivo por el que
destrona teorías aceptadas y las sustituye por otras más acordes con las observaciones
practicadas. Por ello, la ciencia no aspira a dar certezas definitivas, aunque en la cultura
moderna se tiende a identificar las explicaciones científicas con la verdad. Sin embargo,

62
El problema conocido como de las tres masas posee una inherente dificultad, como puso de manifiesto
Henri Poincaré abriendo la ruta de la teoría del caos, en la que la hipersensibilidad a las condiciones
iniciales proscribe la predicción a largo plazo aun en sistemas deterministas.
63
Wilczek, Op. cit. p. 241.

80
en ingeniería, la renovación de los resultados teóricos no resulta tan adversa como en
ciencia, pues no busca la verdad, sino resolver problemas parciales.

La interpretación estándar de la mecánica cuántica —que constituye una ruptura radical


con lo que había sido la representación matemática del mundo físico hasta su aparición—
es otro buen ejemplo de cómo, incluso en un dominio de la ciencia física muy elaborado,
creado para estudiar los fenómenos del mundo subatómico —y donde se alcanza una
prodigiosa coincidencia numérica de muchos decimales entre los cálculos teóricos y las
medidas experimentales––, se desiste de ahondar en el fundamento de las cosas, para
limitarse a describir su comportamiento tal como se revela al observador. Se asume que
no se puede alcanzar más «realidad» que la que nuestros sentidos perciben, aunque sea
con el concurso de elaborados instrumentos. Sin embargo, en consonancia con la herencia
de la filosofía natural, algunos físicos, entre ellos incluso fundadores de la misma
mecánica cuántica como Max Planck (1858-1947), Erwin Schrödinger (1887-1961),
Louis de Broglie (1892-1987) y el propio Albert Einstein, no renunciaron a su aspiración
a aprehender el mundo de manera determinista y única. Pero, de acuerdo con Niels Bohr
(1885-1962), la ciencia, especialmente a partir de la mecánica cuántica, no hace nada de
eso. Lo que la física ha conseguido, según el sabio danés, no es una descripción
matemática del mundo como es en sí mismo (como la que aspirarían los filósofos
naturales), sino más bien una descripción de cómo se nos manifiesta a nosotros en
interacción con él mediante las oportunas mediciones. Solo podemos hablar
significativamente de nuestras observaciones del mundo, ya que a la insondable realidad
física —sea eso lo que sea— accedemos solo mediante las correspondientes
percepciones. No se pretende comprender el mundo subatómico tal como es en sí, sino
simplemente conseguir que encajen los datos experimentales. El debate sigue hasta
nuestros días en los que se ha ampliado con el problema del entrelazamiento cuántico.

Para algunos empiristas, la ciencia se reduce a la posibilidad de realizar previsiones a


partir del procesamiento de datos empíricos, sin ocuparse de adquirir un conocimiento
que pueda calificarse como verdad definitiva 64 . Las teorías científicas son sistemas
hipotético-deductivos, en el mejor de los casos formales. Son esquemas intelectuales que
consiguen organizar nuestras percepciones y que, además, permiten hacer previsiones
para poder actuar, o sencillamente para orientar nuestro comportamiento. En realidad, la
teoría es solo una imagen mental simplificada de aquello que no alcanzamos a conocer
con profundidad. Es una conjetura de trabajo intelectual, que hay que someter a la
experimentación continuada comparando las consecuencias que se desprenden de ella
con la observación. De hecho, el método científico puede enunciarse, de manera
abreviada, como la formulación de hipótesis que serán aceptadas en tanto su posterior
verificación experimental no las contradiga. De una hipótesis científica resulta
controvertido decir que sea verdadera más allá de ser consistente con los datos
experimentales disponibles. Esto concuerda con lo que saben los ingenieros.

El empirismo se limita, en el fondo, a aprovecharse de que algunos aspectos del mundo


natural se comportan de forma regular, lo que en los casos más notables es posible
representar mediante pulcras formulaciones matemáticas. En esas expresiones a veces se
produce el «milagro» —como lo denominó el matemático francés René Thom65–– de que
pueden organizarse en teorías cuya capacidad predictiva llega a ser tan poderosa que
64
Bas Van Fraassen, La imagen científica.
65
René Thom, Parábolas y catástrofes.

81
produce la alucinación de estar reconstruyendo intelectivamente la propia realidad como
es en sí misma. A ello ha contribuido el hecho sorprendente de que la fertilidad de
determinadas teorías permita predecir nuevos fenómenos y proporcionarnos poder sobre
la naturaleza. En todo caso, si se olvida la pretensión de la ciencia clásica de reproducir
miméticamente el mundo y se asume la restricción de que lo que nos suministra en
realidad son descripciones o modelos, todo lo buenas que se quieran, pero de dominios
restringidos, nos vemos abocados a adoptar una perspectiva respecto al conocimiento del
mundo físico en la que, desde siempre, el ingeniero se ha desenvuelto con mayor
comodidad que el científico.

El ingeniero, que es un paladín del utilitarismo y del pragmatismo, es más escéptico con
respecto al valor de la unificación que busca la ciencia, ya que no afecta a sus objetivos
peculiares. Aunque comparte las mismas raíces experimentales y análogas formulaciones
matemáticas que el científico, ha desarrollado mayores dosis de escepticismo sobre la
pretendida «verdad universal» de las teorías, de las que retiene fundamentalmente su
carácter pragmático, y en cierto sentido fenomenológico, reducido a un determinado
dominio de la experiencia —no importa que ese dominio sea acotado, siempre que dentro
de él el conocimiento sea fecundo. Por sus orígenes, empeñados en conseguir el provecho
explícito, no se deja deslumbrar respecto al alcance de esos conocimientos: es más
prevenido con relación al saber, aunque más osado con respecto al hacer. Concilia su
entusiasmo por buscar soluciones prácticas con cierto escepticismo con relación al
fundamento último de lo que sabe. A los ingenieros lo que les importa es aquello que es
relevante para resolver los problemas utilitarios que tienen entre manos. Solo necesitan
saber sobre el ámbito acotado en el que actúan para hacer una transformación parcial en él
—la que compete a su especialidad. Para el ingeniero el objetivo es el producto final. Si al
fin logra que lo que lleva a cabo funcione aceptablemente bien, y soporte una
experimentación a gran escala, lo dará por bueno.

Así, el ingeniero debe tener una mente eminentemente práctica, volcada hacia los
resultados tangibles, por lo que no suele interesarse por las cosas en sí mismas, sino en la
medida en que le sean provechosas y puedan someterse a su manipulación y control. Para
él, si le es posible integrar lo que dicta la experiencia en corpus teóricos y sintéticos, tanto
mejor, más fácil le resultará manejar y sacar partido de ese conocimiento; pero la
integración en una teoría es algo que beneficia su economía de pensamiento, y no resulta
un objetivo primario de su labor. En todo caso, el método que aplica el científico no es
ajeno al empleado por el técnico desde la más remota antigüedad, aunque en una versión
ajustada a sus propios y depurados objetivos epistemológicos (esto ya lo comprendió
Galileo, cuando invitó a los filósofos a acercarse a los astilleros de Venecia para aprender
de cómo trabajaban los artesanos midiendo y calculando, según se ha recordado hace
poco).

Por último, conviene reseñar que la voz ciencia se emplea con frecuencia como un
comodín para designar actividades muy variadas que incluyen la medicina, la propia
ingeniería y también otras muchas actividades que pretenden arrogarse el prestigio
intelectual que otorga la ciencia.

Los científicos y los ingenieros se especializan


Lo habitual en la historia de la técnica, como se ha puesto de manifiesto en la primera
parte de este libro, ha sido que se concibieran los ingenios técnicos antes de disponer de
un conocimiento del tipo que hoy consideraríamos como científico básico de los
82
fenómenos involucrados en cada máquina, artefacto o proceso. El ingenio y la agudeza
derrochados en la concepción de esos artefactos compensaban esa carencia. Desde los
tiempos antiguos, el éxito en el funcionamiento pretendido por un artefacto, así como en
su aceptación social, han suplido la necesidad de que estuviera científicamente
fundamentado. El alcanzar un uso correcto, de acuerdo con los fines prácticos para los
que había sido concebido, hacía innecesario permitirse el lujo de una investigación
prolongada para lograr que la solución fuese adecuada bajo una perspectiva científica.
Los inventores han carecido de la motivación de los científicos. Lo que los ingenieros han
hecho durante siglos ha sido concebir soluciones operativas a los problemas, incluso de
una forma que se calificaría de superficial de acuerdo con los estándares de la ciencia, que
además no hay que perder de vista que no es un todo homogéneo y que se renueva con los
tiempos.

No obstante, en los medios académicos ha tenido gran predicamento la discutible tesis


baconiana de que la naturaleza solo podía controlarse conociéndola, de donde se
desprendería una necesaria e inevitable precedencia intelectual de la ciencia con respecto
a la ingeniería. Ya se ha visto hasta qué punto eso no ha sido así en el pasado. En realidad,
la técnica y la ciencia han discurrido por sendas propias bien diferenciadas —a lo sumo
paralelas. La ingeniería ya tenía miles de años de antigüedad cuando aparece la ciencia
moderna, si bien en la astronomía primitiva, también con raíces en los orígenes de la
civilización, ya se detectan rasgos de lo que será la ciencia posterior, aunque estuvieran
envueltos en fuertes dosis de superstición.

A finales del siglo XVIII, al calor de los discursos ilustrados sobre el conocimiento útil, el
término ciencia se empleaba para aludir tanto a los saberes adquiridos con relación al
mundo natural, como a realizaciones técnicas o incluso industriales —las ciencias y las
artes. En cierta forma, lo que se estaba produciendo era la adopción de un método
empírico y racional, alejado de idealismos y abstracciones metafísicas, para la
elaboración de una ciencia legítima a partir del estudio empírico de los hechos que
suceden en el mundo, y con la que satisfacer la intriga que esos hechos suscitan —y
obtener de paso algún provecho, cuando fuera posible. Se hablaba de ciencia, o de
ciencias, en un sentido muy amplio, que podía incluir las máquinas, pero a lo largo del
XIX el significado de ciencia adquiere un vigor propio y definido, por el que la que
reclama serlo en sentido estricto va restringiendo su ámbito de actividad y pasa a
ocuparse con preferencia del mundo natural, en el que es posible llevar a cabo una
experimentación repetitiva y controlada —las ciencias duras. (Las ciencias humanas y
sociales han contemplado siempre con cierto resquemor el carecer de esa posibilidad, por
lo que hay quienes llegan a poner en tela de juicio el carácter científico de gran parte de
los resultados en estas disciplinas.) En todo caso, hasta principios del siglo XIX ingeniería
y ciencia podían marchar relativamente acompasadas, pues las búsquedas de la verdad y
de la utilidad no se habían especializado tanto como para requerir procederes lo
suficientemente diferenciados que invitasen a separar esos dos modos de actividad.

83
Figura 6: Portada de un ejemplar de Mundo Científico, que se publicaba a principios del
siglo XX y tenía como secciones «Apuntes politécnicos», «Industria», «Ciencias», «Artes
y oficios», «Notas útiles» y «Agricultura». El título de estas secciones pone de manifiesto
que, pese a la denominación de la revista, las cuestiones técnicas ocupaban en ella un
lugar prominente.

Pero durante el siglo XIX se produce una necesaria y progresiva especialización que

84
conduce al establecimiento de cánones distintos para las prácticas de la ciencia y de la
ingeniería. A lo largo de ese siglo, primero los ingenieros y después los científicos se
profesionalizan, cada colectivo por su lado, creando sociedades profesionales, publicando
revistas especializadas y estableciendo sus propias normas y reglas. El científico
desarrolla un método inspirado en la experimentación y la contrastación con rigor
extremo; mientras que el ingeniero se dota de un método que es una mezcla de creatividad
imaginativa y de rigor, también extremado, en la ejecución de sus concepciones.

En este contexto, debe mencionarse que el término científico fue acuñado en los años
treinta de ese siglo por William Whewell (1794-1866) para designar, como sustantivo, a
quienes se ocupaban preferentemente del saber relativo a lo natural, sin especial
preocupación por obtener beneficios de él, al menos de forma prioritaria y distintiva.
Asimismo, ese término se usa también, como adjetivo, para aludir a una forma peculiar de
producción de conocimiento sobre el mundo natural (aunque, como se acaba de recordar,
las disciplinas sociales y humanas también pretenden emplearlo en sus dominios. En este
libro el uso de científico se restringe, en general, al conocimiento de lo natural).
A partir de principios del siglo XX la forma de entender la profesionalidad por parte de los
científicos vinculados a actividades aplicadas sería premonitoria de lo que sucedería a lo
largo de la centuria que se iniciaba. En esos tiempos, cuando colaboraban científicos e
ingenieros lo hacían, las más de las veces, con las pautas de laboratorios industriales,
como el de Edison. Pero con el XX empieza a desarrollarse un proceso, hasta entonces
más o menos larvado, por el que algunos científicos dedican completamente su actividad
profesional a atender objetivos concretos y prácticos, de modo que trabajan en estrecha
relación con ingenieros y con los mismos objetivos que éstos. De este modo, un número
creciente de ellos abandona el ejercicio de la investigación científica regida por principios
destinados, en primer lugar, a la búsqueda del saber puro, para empezar a practicar lo que
se conocería como ciencia aplicada, en la que se explora sistemáticamente una posible
aplicación de los resultados previamente alcanzados en alguna disciplina científica
principal. Esto es notorio en la ciencia experimental que, en algunos casos, deriva con
facilidad hacia objetivos utilitarios, se diría que propios de ingenieros, olvidando los
genuinamente científicos. Los resultados alcanzados por estos científicos parecen
descarrilarse de las sendas de la ciencia convencional, buscadora de saberes con validez
universal.

Con relación a la ciencia aplicada se invoca, por ejemplo, que una vez conocida la
estructura de anillo del benceno se pudo hacer de forma sistemática la producción de
tintes, en lugar de dar con ellos accidentalmente, como había sucedido hasta entonces; o
que el desvelamiento de la sucesión de los estratos geológicos permitió que los ingenieros
de minas estuvieran mejor preparados para saber dónde excavar nuevas vetas; y tantos
otros casos que se podrían traer a colación. Pero, dicho esto, no puede negarse que las
invenciones de la desmotadora de algodón, la máquina de vapor y las máquinas textiles
que propiciaron la Revolución Industrial, productos inequívocamente ingenieriles, no
partieron de ningún resultado científico previo y alcanzaron más repercusión social a
partir del siglo XVIII que la formulación matemática de la fuerza de atracción gravitatoria
entre los planetas. En esos casos se pone de manifiesto la incuestionable singularidad de
la acción técnica propia de los ingenieros a lo largo de la historia de la civilización. En
realidad, éstos tienen la vocación de llevar a cabo una peculiar transformación del mundo
en busca de lo productivo, más que aspirar a conocerlo mejor.

85
De cualquier forma, conviene también precisar, como ya se apuntó en el capítulo anterior,
que hacer cosas útiles no es patrimonio exclusivo de los ingenieros: es obvio que los
científicos también lo hacen. Por citar un caso de los múltiples que se podrían dar, es
ampliamente reconocido que Lord Kelvin (1824-1907) contribuyó a hacer viables los
primeros cables telegráficos submarinos, aunque el grueso de su obra, aquello por lo que
ha pasado a la historia, se desenvuelve en otro contexto.

Durante la primera mitad del siglo XX, en el ámbito industrial, la ingeniería se


desenvolvía con relativa independencia, aunque en los medios académicos se asumía la
prioridad intelectual de la ciencia sobre la técnica. Es significativa al respecto la
fundación, en Múnich y en 1903, del Deutsches Museum von Meisterwerken der
Naturwissenschaft und Technik (Museo Alemán de Obras Maestras de la Ciencia Natural
y la Técnica), considerado, al menos entonces y durante mucho tiempo, el más importante
museo de la ciencia y de la técnica del mundo. Fundado y dirigido por un ingeniero
eléctrico, Oskar von Miller (1855-1934), en su denominación se hace explícita la
precedencia de la ciencia natural, de acuerdo con el pensamiento imperante en la época,
que alcanzaría su más palmaria formulación después de la Segunda Guerra Mundial con
el modelo lineal, como se verá en el capítulo VIII. Así pues, en los años anteriores a esa
guerra estaba en vigor en el mundo académico la concepción de que el científico debe
descubrir y el ingeniero aplicar —el lema de la Exposición Universal de Chicago de 1933
fue: «Science Finds, Industry Applies, Man Conforms». No obstante, las cosas distaban
mucho de ser como esa ortodoxia postulaba. Basta con recordar lo dicho en el capítulo II
sobre lo que sucedía con la aviación y la electrónica, las dos grandes revoluciones
técnicas de principios del siglo XX, el cual daba sus primeros pasos balbucientes en unos
tiempos de profundas convulsiones científicas, estéticas, políticas, económicas y también
técnicas que abrían las puertas al nuevo siglo 66.

Sin embargo, no puede silenciarse que la cuestionada subordinación de la ingeniería a la


ciencia era —y es— aceptada también por muchos ingenieros cuando consideraban que
su estatus profesional adquiriría mayor prestancia si sus procedimientos estaban basados
o se derivaban de la acreditada ciencia, y no se reducían a una colección de reglas
empíricas sin mayor elaboración intelectual. Con esta actitud complaciente con la ciencia
los ingenieros pretendían evitar que se les considerase como simples herederos y mera
prolongación de los artesanos, y no como una profesión ilustrada, culta y moderna.
Además de estas cuestiones de estatus, es innegable que los ingenieros han estado
siempre comprometidos con un modo de entender la racionalidad que guarda estrechas
semejanzas con el que se emplea en el método científico, y del que se han embebido al
adquirir formación científica durante sus estudios, aunque luego lo hayan aplicado de
acuerdo con sus propios objetivos. En todo caso, el ingeniero profesional se distingue del
científico en la medida en que para aquel es decisiva la búsqueda de soluciones efectivas
a problemas aplicados y, para ello, es capaz de instrumentalizar los conocimientos que
aporta la ciencia, cuando estos pueden contribuir a esas soluciones. Pero, al mismo
tiempo, también se diferencia del técnico en general, pues posee una sólida formación en
ciencia que le permite permanecer en contacto con los progresos de los saberes
relacionados con su especialidad, para utilizarlos cuando sea pertinente.

Metas diferentes
Los distintos fines que persiguen ingenieros y científicos han sido recogidos, de forma

66
Gabriel Tortella, La revolución del siglo XX.

86
especialmente clara y sintética, en dos conocidas citas semejantes entre sí: una del
economista y pensador Herbert Simon (1916-2001) y otra del ingeniero aeronáutico
Theodore von Karman (1881–1963), que se invocan para ilustrar la diferencia entre las
motivaciones de unos y otros, y que compendian lo que se acaba de ver en páginas
anteriores. Según Simon, el científico se ocupa de las cosas como son, y el ingeniero de
cómo deben ser. Mientras que von Karman, aunque repite también que el científico
describe las cosas como son, añade que el ingeniero crea lo que nunca ha sido.

En efecto, el científico, al pretender comprender la razón profunda de las cosas, se ve


abocado a tratar con lo natural. En tanto que el ingeniero al concebir lo que la naturaleza
no ha producido por sí misma, o todavía no existe en el mundo artificial, tiene que crear
cosas desconocidas; y, por ello, no se ocupa de las cosas como son, como se encuentran
en el mundo, sino que su cometido es radicalmente distinto: es concebir otras que
apetecemos y de las que no disponemos, y conseguir hacerlas realidad, no solo como
prototipos más o menos ingeniosos, sino como productos robustos que consigan una
amplia implantación social. La principal función de los científicos es descubrir y
comprender, no inventar. El científico se aísla con la cuestión que le preocupa en su
gabinete o en su laboratorio; en tanto que el ingeniero acomete sus problemas inserto en
el complejo entramado de lo económico y lo social.

Es cierto que la fuente de todo conocimiento, sea científico o ingenieril, es siempre la


experimentación procesada por la razón y a ser posible estructurada con ayuda de
recursos matemáticos. Pero la propia experimentación adquiere un carácter diferente en
el método que se aplica en uno y otro campo. El científico pretende con sus experimentos
(en realidad intervenciones artificiales en el comportamiento de los fenómenos que
estudia) alterar lo mínimo posible el curso natural de las cosas, pues trata precisamente de
reproducir aquello que pretende estudiar y contribuir a comprenderlo y explicarlo;
mientras que el ingeniero persigue otra cosa: reconducir el propio acontecer natural con el
fin de obtener algún provecho de él mediante una intervención, que sea incluso agresiva
para la naturaleza. De este modo, la experimentación es un recurso artificial que forma
parte del meollo tanto de la ingeniería como de la ciencia moderna, aunque en cada caso
con sus propios y diferenciados rasgos.

En ingeniería el punto crucial es el diseño —aquí se emplea este término en un sentido


laxo, como parte inicial de la concepción de un proyecto––: el imaginar una combinación
de elementos que debidamente interconectados sean capaces de realizar la función
deseada. De esta manera, el diseño desempeña un papel esencial en ingeniería. Se ha
dicho que «desde el punto de vista de la ciencia moderna, el diseño no es nada, pero desde
el punto de vista de la ingeniería, el diseño lo es todo»67. Los ingenieros hacen conjeturas
acerca de cómo diseñar lo que están proyectando, de modo que se garantice la viabilidad
del proyecto aun en momentos críticos. Además, los problemas con los que tratan los
ingenieros no tienen una única solución. Todo proyecto ingenieril comporta elegir entre
diferentes opciones posibles. La elección entre las múltiples alternativas que se
despliegan ante un proyecto implica un juicio, una visión y un instinto que se consideran
propios de ingenieros.

67
Edwin T. Layton, «American ideologies of science and engineering», Technology and Culture, 17, 1976,
p. 696.

87
Un proyecto entraña una mezcla ponderada de imaginación, por una parte, y de síntesis de
experiencia y conocimientos, por otra. La invención, la creación de un objeto técnico
previamente inexistente, posee una radical componente de intencionalidad dirigida a
satisfacer un determinado objetivo aplicado. Pudiera pensarse que aquí nos estamos
ocupando principalmente del componente de invención que tiene toda innovación; pero
no se puede olvidar que la bondad de los productos de la ingeniería se sustancia en su
aceptación por el cuerpo social, lo que es un condicionante fundamental a la hora de
concebir y producir. Conviene recordar que la innovación, en su acepción ordinaria,
presupone tanto la invención de algo nuevo como la implantación social de lo inventado.
La ingeniería, al contrario que la ciencia, da lugar a productos sometidos a las leyes del
mercado lo que determina, entre otras cosas, la inherente confidencialidad de los trabajos
de ingeniería.

Uno de los contrastes fundamentales entre los modos de actuación de científicos e


ingenieros es que, tradicionalmente, los científicos realizan su labor en el marco de una
disciplina particular, mientras que los ingenieros lo hacen en torno a proyectos concretos,
que no suelen ceñirse a una única disciplina. La labor del científico se ha desenvuelto
normalmente en el seno de una disciplina bien definida (la física, la química, la
biología…) ––cada una de ellas formada por compartimentos más o menos estancos,
aunque a veces con pretensiones de transversalidad—, además de estar dotada de una
estructura fuertemente jerarquizada. Esta forma de organización responde a los
imperativos que definen el marco disciplinar correspondiente. Sin embargo, en el ámbito
de la ingeniería no han sido dominantes rasgos semejantes. Las labores del ingeniero se
desenvuelven normalmente en el seno de un equipo multidisciplinar dirigido hacia un
objetivo concreto y aplicado, que actúa como coordinador de las distintas actividades (en
estos equipos además de ingenieros de distintas ramas pueden participar también otros
especialistas —médicos, científicos, economistas…–– implicados en el problema en
cuestión aunque, normalmente, bajo la batuta de un ingeniero). En este contexto,
conviene destacar que todos los involucrados en un proyecto de ingeniería deben tener en
cuenta desde el principio el objetivo perseguido, que es lo que motivará la coherencia del
conjunto de sus acciones. De este modo, el proyecto establece un vínculo de colaboración
entre los que participan en él, que sirve para articular un equipo de trabajo. El esfuerzo
conjunto debe estar coordinado, de manera que las diferentes disciplinas contribuyan a
una solución que sea satisfactoria de acuerdo con las posibilidades técnicas y los
objetivos a cubrir, comprobando además los componentes, estimando los costes y
controlando las prestaciones, así como otros factores relevantes.

En todo caso, las dos clases de profesionales, ingenieros y científicos, han estado
sometidos a normas de aceptación social de su trabajo completamente distintas entre sí,
como comprueba fácilmente quien vea trabajar a unos y otros. Los primeros son
radicalmente pragmáticos, buscan un funcionamiento aceptable de lo que hacen, con toda
la laxitud de ese calificativo; en tanto que los segundos, con las pretensiones de
universalidad en los conocimientos que persiguen, apuran la exigencia de contrastación
de sus abstractas propuestas epistemológicas. En el desarrollo de nuevos productos
técnicos (un nuevo smartphone o un automóvil híbrido) es esencial la etapa de
investigación en la que la labor de los ingenieros resulta capital. Es posible que algunos
científicos, trabajando como tales, estén involucrados en la producción de determinados
componentes de esos sistemas, pero la aportación fundamental está en los ingenieros o en
quienes trabajan como ellos. Aun cuando la idea básica de un nuevo producto pueda

88
deberse a un científico (como sucedió con el máser 68), o estar directamente inspirada por
productos naturales, que constituyen un almacén inextinguible de patentes de libre
disposición (como el velcro 69, muestra destacada de biomimetismo), son los ingenieros
los que consiguen convertirlo en algo susceptible de explotación comercial. Por ello,
aunque ingenieros y científicos parezcan confluir en el vasto e indefinido campo de las
aplicaciones, las formas de proceder subyacentes presentan diferencias radicales, por lo
que deben ser juzgadas con criterios claramente dispares. Pese al solapamiento aparente,
ingeniería y ciencia son empresas humanas diferentes. Las capacidades necesarias para
los grandes logros de la ingeniería, como la imaginación de objetos técnicos que aún no
existen, la tenaz voluntad de llevarlos a cabo y la pericia para que lo proyectado funcione
correctamente, son completamente diferentes de las requeridas para la búsqueda de la
forma especial de verdad científica relativa al mundo natural que ha sido el objetivo
dominante de la ciencia convencional y que ha modulado su método. Pero algo parece
estar cambiado en nuestro tiempo, cuando no pocos científicos están adoptando objetivos
que tradicionalmente habían sido propios de los ingenieros. Más adelante, al final de esta
segunda parte, en el último apartado del capítulo VIII, se volverá sobre este delicado
asunto.

El ingeniero emplea conocimientos científicos


La mayoría de los artefactos que concibe el ingeniero están formados, en último extremo,
por productos naturales, cuyas propiedades puede que hayan sido estudiadas por la
ciencia convencional. Los recursos naturales son el cimiento sobre el que, en último
extremo, se erige la técnica. Y así, el ingeniero contempla la naturaleza como una fuente
potencial de recursos susceptibles de ser explotados en beneficio del ser humano, que ha
demostrado estar especialmente bien dotado para sacarle provecho al mundo natural. Al
construir artificios, lo que el ingeniero pretende es que éstos se comporten, de forma
natural, de acuerdo con sus designios. Por ello, la reconducción de los fenómenos
naturales parecería requerir su conocimiento previo con la calidad que aporta la ciencia,
como pretendía la cuestionada tesis baconiana que se ha recordado antes.

No cabe duda de que ciertos descubrimientos científicos, aun entre los más abstractos,
fruto de especulaciones aparentemente carentes de ningún provecho potencial, abren
posibilidades que en algún momento puede que sean empleadas por ingenieros al
facilitarles la intervención en el mundo, otorgándoles oportunidades inéditas hasta que se
dispuso de esos conocimientos. De este modo, el conocimiento científico amplía al
ingeniero el ámbito de lo que es posible hacer. Así, la transmisión a distancia de
información se había hecho, a lo largo de los siglos, mediante señales acústicas u ópticas.
Como se ha visto en otro lugar, con la aparición de la electricidad se suscita la posibilidad
de emplear los fenómenos eléctricos para esa transmisión, para lo que se requería el
mayor conocimiento posible de esos fenómenos, que normalmente suministraba la
ciencia física en aquellos tiempos. Pero lo que ésta no proporcionaba, ni proporciona, era

68
Amplificador de microondas por emisión estimulada de radiación. Basado en el fenómeno de emisión
estimulada de radiación, enunciado por Einstein en 1916 y construido por Charles Hard Townes en 1954.

69
Atribuido al ingeniero suizo Georges de Mestral, que se inspiró en los cardos que se enganchaban en sus
pantalones en sus paseos por el campo, pues tenían un gancho al final de sus púas o espinas. A partir de ese
patrón inventó el sistema de cierre con dos cintas: el velcro.

89
la inspiración para la concepción de los artefactos concretos con los que sacar provecho
de esos saberes. No corresponde a la ciencia el advertir al ingeniero cómo concebir un
determinado artefacto. A éste corresponde imaginar lo que puede existir, pero aún no
existe, y conseguir plasmarlo en realidades concretas.

En este sentido, conviene resaltar que, incluso en el caso de que se produzca una aparente
transfusión desde la ciencia a la técnica, no se trata de que una teoría científica básica sea
aplicada directamente, y recurriendo exclusivamente a ella, a un caso concreto (como
cuando un estudiante resuelve un problema escolar aplicando únicamente una
determinada teoría y sin salirse de ese marco), sino del ingenioso empleo por el ingeniero
de esos conocimientos para resolver una dificultad de orden práctico, lo que hace junto
con otros saberes específicos y con un imperioso patrimonio de experiencia profesional,
además de una ineludible dosis de sagacidad. Asimismo, sucede que, en la mayoría de los
casos, la transición desde las propiedades del mundo natural —el tesoro que descubren y
almacenan los científicos— a un producto artificial que se aproveche de ellas es cualquier
cosa menos trivial (recuérdese lo dicho por Edison sobre su aportación a la bombilla
incandescente), y en esa transición se ponen de manifiesto las peculiaridades de la
ingeniería y su aportación a la construcción del mundo artificial. Lo que distingue a un
ingeniero no es que sepa mucha ciencia, sino que sepa usarla oportunamente. Aunque
conozca los logros de la ciencia, vuela por sus propios medios.
Por ello, aunque una sólida base científica es muy conveniente para el ingeniero, la
formación marcadamente cientificista puede llegar a inducirlo a confusión y hacer que se
limite a buscar la teoría de la que el caso que está tratando de resolver sea una escueta
aplicación, en lugar de embeberse del problema para resolverlo, recurriendo a todo
cuanto sea necesario para ello, que es lo que identifica al genuino ingeniero, el cual no
debe desconocer que el atractivo y la perfección de una teoría científica puede desviarlo
de sus propósitos más exclusivos. Viene aquí a colación la conocida afirmación de
Thomas Telford, quien en época tan temprana como 1828 puso en duda que los
politécnicos franceses fuesen buenos ingenieros, alegando que sabían demasiadas
matemáticas70.
Así pues, la ciencia suministra el mejor conocimiento disponible de los fenómenos
naturales, por lo que puede ser necesaria pero nunca es suficiente para llevar a cabo las
obras de ingeniería. La distancia que media entre la necesidad y la suficiencia tiene que
cubrirla el arte del ingeniero. Y así, es preciso un destello de inspiración para alcanzar la
conjunción deseada en toda obra de ingeniería; de modo que por un momento la
ingeniería parece abandonar la ciencia y convertirse en arte: da rienda suelta a la
imaginación, constreñida, claro está, por las sendas que le imponen las leyes de la
naturaleza, pero aprovechando los grados de libertad y las holguras que éstas permiten.

Por tanto, para erigir el mundo artificial es primordial el arte del ingeniero, la
clarividencia para concebir y producir cosas útiles originales, que no son una exclusiva
aplicación del conocimiento científico disponible, aunque se apoyen en él siempre que
sea posible. Para hacer un nuevo artefacto, o abordar un problema ingenieril complejo,
hay que integrar conjuntamente cosas o partes o procedimientos, en un acto creativo que
constituye la esencia de la ingeniería. Una de las más conspicuas de las facultades de un
ingeniero es la de ser capaz de concebir en su mente y obtener, a partir de aquello de lo
que dispone, que siempre será insuficiente, un objeto artificial con el que resolver un

70
Citado en M. Silva, El Ochocientos, p. 19.

90
determinado problema. El vislumbrar esa posibilidad y dar el gigantesco salto que media
entre el esbozo, en la mente, de una solución a su realización efectiva en algo artificial es
la forma más sublime de manifestarse el genio del ingeniero. La conversión de una idea
en algo concreto supone la conjunción de un proyecto y de su ejecución, y es un proceso
complejo y sutil que posee una radical componente de arte, en el sentido de la primera
acepción de esta voz según la Academia Española, antes recordada: capacidad, habilidad
para hacer algo.

Como ya se ha repetido varias veces, la ingeniería busca en primer lugar la utilidad, como
lo hace también la medicina, por mencionar otro caso —que está también sometida a un
criterio de aceptación claramente utilitario: los enfermos se curan o no. Tanto la medicina
como la ingeniería, en las investigaciones básicas a ellas asociadas, hacen uso del
conocimiento científico y de sus métodos para resolver los asuntos propios de esas
profesiones, pero ninguna de ellas es simplemente ciencia aplicada. Es claro que sin
conocer no se puede actuar, pero lo que sucede es que según en qué ámbitos se actúe, lo
que hay que saber no se reduce o confina a la ciencia convencional, por más idónea que
ésta pueda parecer. Ni la medicina ni la ingeniería pueden esperar a una comprensión
científica irrefutable del problema antes de actuar para sanar a un enfermo (incluso salvar
una vida), o para concebir y fabricar artefactos con los que resolver problemas prácticos.
La intuición cimentada sobre una amplia experiencia profesional y la experimentación
exploratoria y limitada a un caso concreto resultan con frecuencia no solo suficientes,
sino que es lo único que se puede hacer a corto plazo (recuérdese la génesis de la aviación
por los hermanos Wright y su túnel aerodinámico).

La actitud de algunos científicos ante la ingeniería recuerda a la de muchos biólogos y


químicos ante la medicina. Entre éstos es frecuente oír decir que son ellos los que
conocen los mecanismos que regulan el comportamiento de los órganos de los seres
vivos, y por tanto de los humanos, y que saben de ello más que los mismos médicos, en
particular que los clínicos. No cabe duda de que en muchos casos tienen razón sobrada,
pero lo que también es cierto es que cuando esos científicos (incluidos los médicos que se
dedican a la investigación) se ponen enfermos acuden directamente a los médicos
clínicos, que son los que realmente «saben» cómo actuar con relación a las distintas
enfermedades, pues por su labor han adquirido la práctica pertinente para ello. Mutatis
mutandis, algo así ocurre con los ingenieros.

La electrónica y la mecánica cuántica


Como un paso adicional a lo que se está exponiendo, este apartado se va a dedicar a un
caso especialmente divulgado de las relaciones de la ingeniería con la ciencia física
después de la Segunda Guerra Mundial: la gestación del transistor. La electrónica de
estado sólido es un caso paradigmático en el que han colaborado ingenieros con
científicos, como se puso de manifiesto en su momento. Se comentó entonces la
incidencia de la mecánica cuántica en la aparición del transistor. Ello ha llevado en
algunos medios a sobrevalorar lo científico con relación a la ingeniería, especialmente en
aquellos dominios relacionados con las comunicaciones y el procesamiento de la
información, que emplean masivamente la electrónica. Este es uno de los extremos que se
alegan para invocar el mito de que el conocimiento del mundo subatómico rige los más
destacados progresos de la técnica actual. Así, entre los físicos es un lugar común afirmar
que los modernos aparatos electrónicos, los omnipresentes smartphones por ejemplo, no
existirían sin la mecánica cuántica. Esa afirmación solo es aceptable siempre que no se
reclame que esos artilugios sean únicamente una simple aplicación de esa mecánica, sin
91
ninguna aportación originaria, sustantiva, adicional e imprescindible originada fuera del
marco estricto de esa teoría. En la génesis del transistor intervinieron, de forma decisiva,
conocimientos y motivaciones que no tienen nada que ver con esa mecánica.
Además, se olvida que la mecánica cuántica tampoco existiría sin los números complejos
(sin la obra de Gerolamo Cardano (1501-1576) al que se atribuye su formulación original;
y quien, por cierto, estaba interesado con preferencia en las matemáticas prácticas); en
realidad, sin el majestuoso edificio del análisis matemático acumulado en los siglos
anteriores y que sirve para enunciarla (es notable que en los primeros cursos que se
impartieron sobre mecánica cuántica se empleara como texto Theory of Sound de lord
Rayleigh; las matemáticas necesarias para describir las oscilaciones del micromundo se
inspiraron en las usadas para la transmisión del sonido71). Lo que sucede es que, cuando
ya se ha descubierto y publicado cualquier conocimiento matemático, o científico en
general, por el hecho de hacerse público se convierte en libre y compartido, y pasa a
formar parte del acervo común; y, por consiguiente, se encuentra disponible para quien
sepa aprovecharlo para generar nuevos conocimientos o para contribuir a la producción
de objetos técnicos —o nuevas terapias en medicina. Es lo que sucedió con la mecánica
cuántica, que se valió de las matemáticas, pero sin que pueda decirse que esa mecánica no
fue más que una simple aplicación de conocimientos matemáticos —que suministran el
lenguaje indispensable para enunciarla— y que los que la gestaron no aportaron
contribución sustantiva alguna al crearla. Por ello, lo cierto es que aunque haya que
recurrir a las matemáticas para la formulación de la mecánica cuántica, ellas solas no
bastan para que ésta florezca.
Pues bien, algo análogo sucede con el empleo de la cuántica para los productos de la
electrónica moderna, que tampoco son una simple consecuencia de esa mecánica, aunque
se haya servido de ella —como, por otra parte, esa electrónica también se ha auxiliado, de
forma decisiva, de una elaborada cultura metalúrgica. La mecánica cuántica, con su
contribución a la física del estado sólido, coadyuvó a comprender y mejorar los
transistores, si bien hay que ser muy escrupuloso con las relaciones de causalidad
subyacentes.
En un caso análogo al de la mecánica cuántica y la electrónica, es frecuente oír que sin
Einstein no existiría el GPS, o cualquier otro sistema de posicionamiento asistido por
satélites. No obstante, sin Riemann ni Gauss (que se inspiró en los problemas que se
plantearon a los ingenieros geodestas cuando se enfrentaron al problema de la esfericidad
de la tierra) tampoco existiría Einstein (el de la relatividad generalizada). Pero lo
importante aquí es que esta última teoría no es, ni mucho menos, la clave del arco que
sustenta el GPS, aunque ayuda a explicar cierto retraso que se produce en la transmisión
de señales, el cual, por otra parte, se corregiría a partir de datos experimentales aun en
ausencia de esa explicación científica 72.

Lo anterior no es sino una consecuencia del hecho de que la ciencia forma parte

71
F. Wilczek, Op. cit. p. 178.
72
El GPS mide los tiempos de propagación de ondas electromagnéticas que con ayuda de la velocidad de
la luz c se convierten en distancias. Con las distancias de cuatro satélites y mediante triangulación se
obtiene la posición. Para una precisión típica de aproximadamente 7 metros se necesitan resoluciones
temporales menores a unos 20 ns. Por ello es necesario realizar la corrección relativista, que no deja de ser
una corrección más y ni siquiera la más crítica. Por ejemplo, los tiempos de propagación a través de la
ionosfera tienen un carácter aleatorio y varían a lo largo del día y del año; en cuyo caso la correspondiente
corrección sí es crítica y resulta compleja de llevar a cabo.

92
inseparable del sustrato cultural de la época en la que los ingenieros conciben sus
ingenios. Estos desarrollan su actividad en un momento histórico determinado, en el que
la cultura, de la que es partícipe sustancial la propia ciencia, ha alcanzado cierto nivel y
dispone de un arsenal de conocimientos, de modo que la ingeniería se apoya en el soporte
formado por todo lo que se sabe en la época en la que se llevan a cabo sus intervenciones.
En realidad, la cultura científica sirve para abonar un terreno fértil en el que hacer
ingeniería. El inmenso patrimonio atesorado por la cultura humana está detrás de todo lo
que hacemos.

Y así, los ingenieros ejercen su labor encaramados sobre un pedestal formado por todo lo
que les proporciona la cultura en la que están inmersos —desde las complejas formas de
organización de la producción hasta los más avanzados conocimientos de propiedades del
mundo natural y de procedimientos matemáticos––, pero añadiendo su inventiva peculiar
para idear y hacer artificios con el fin de cubrir alguna finalidad práctica. Sería ridículo
pretender que los ingenieros partiesen de cero para llevar a cabo cada una de sus
creaciones, como hicieron los inventores de la época dorada, como Watt, Edison y los
Wright. En la actualidad, los ingenieros conciben y producen sobre un soporte de saber
acumulado, en el que descuella el científico.

En la cimentación del conocimiento humano, según nos acercamos a nuestros días y el


saber científico alcanza enormes proporciones, la ciencia de lo natural se hace cada vez
más necesaria para el ingeniero. Pero ese conocimiento nunca es suficiente, pues siempre
hay que añadir algo más: la imaginativa concepción de algún artificio que resuelva un
determinado problema y que previamente no existía. Por ello, siempre es el ingeniero el
que pone la guinda al pastel —o la clave del arco, como se prefiera— en todo producto de
la técnica. Aunque la ingeniería de nuestro tiempo esté impregnada de conocimientos
científicos, no por ello se diluye la especificidad del modo de actuación propio del
ingeniero.

Una fecunda simbiosis


Sucede asimismo que no solo la ingeniería emplea la ciencia, sino que ésta también usa la
técnica en forma de instrumentos y experimentos con los que encontrar respuestas a sus
problemas específicos. No es posible concebir la ciencia actual sin la técnica moderna, sin
los aparatos de medida, telescopios, microscopios (todos ellos en los mismos orígenes de
la ciencia moderna) y computadoras, y tantos otros que, no se olvide, son maravillas de la
ingeniería. El propio conocimiento profundo de la materia —las partículas
fundamentales— requiere instrumentos cada vez más elaborados para los que es
previsible que exista un límite de realización práctica, dictada por las posibilidades
técnicas. Por citar un caso especialmente significativo, el descubrimiento de nuevos
componentes fundamentales de la materia se asocia con la posibilidad de construir
aceleradores de partículas cada vez más potentes, con los que imprimir mayor energía a
las colisiones entre partículas elementales; lo que tiene un claro límite tanto desde el
punto de vista técnico como económico. Piénsese en el acelerador del CERN
(Organización Europea para la Investigación Nuclear) de Ginebra, el LHC (Gran
Colisionador de Hadrones), obra maestra de la ingeniería, al que se considera la máquina
más compleja jamás construida. ¿Qué dimensiones debería tener una máquina que
permitiese llegar a los componentes últimos de la materia, si es que tiene sentido
conjeturar la existencia de esos entes? 73 En todo caso, la técnica —lo que se puede

73
Una respuesta a esta cuestión se puede encontrar en Russell Stannard, The End of Discovery, p. 220.
93
hacer— impone límites a la ciencia —lo que se puede saber––, al menos a la
experimental, que es la que soporta, en último extremo, a la teórica y por tanto a toda ella.

La consideración de la ciencia y la ingeniería como dos campos de actividad


diferenciados no conduce inevitablemente a desacoplarlos: son distintos aunque no
distantes, más bien se complementan. La técnica sirve a la ciencia, lo mismo que la
ciencia a la técnica; pero eso no evita que sean dos quehaceres distintos sometidos a
normas exclusivas, y por eso la colaboración entre ellos no desemboca en una fusión. En
una gran instalación científica, como un instituto astrofísico, es patente la diferencia entre
las dos clases de profesionales. En esos centros los que hacen ciencia, exploran el
universo; mientras que los que hacen ingeniería hacen otra cosa: conciben, construyen y
preparan los instrumentos imprescindibles para esa exploración. Esta forma de
colaboración ha llegado a llamarse en algún momento Gran Ciencia (Big Science),
olvidando a la técnica en la misma denominación, cuando se requiere la más elaborada de
ella para esas actuaciones.

Así pues, la ciencia y la técnica evolucionan conjuntamente en una relación simbiótica,


aunque cada una va a lo suyo y está sometida a sus propios cánones. Además, esos usos
complementarios son ocasionales: la técnica no surge, ni mucho menos, únicamente para
apoyar a la investigación científica; ni la ciencia ha tenido como objetivo fundamental el
servir a la técnica —con las reservas que se verán más adelante. De cualquier forma, el
reconocimiento de la autonomía respectiva de la ciencia y la ingeniería no debe impedir
que entre ambas se produzca una enriquecedora colaboración.

Resulta oportuno recordar que los premios Nobel fueron establecidos para honrar tanto a
la ciencia como a la ingeniería, pero, sin embargo, se han convertido en un dominio casi
exclusivo de la ciencia. En un principio, cuando estos premios empezaron a otorgarse a
científicos por sus logros básicos, se produjo cierto debate acerca de si los propósitos de
Alfred Nobel (1833-1896) se cumplían 74 . Estos premios pretendían laurear los
descubrimientos, inventos y progresos en beneficio de la humanidad, lo que es un
objetivo que posee cierta ambigüedad. Pero prevaleció el mundo de la ciencia al
imponerse que ella era la base indispensable para todos los avances técnicos en busca de
ese beneficio —de nuevo asoma la tesis de Bacon. De este modo, los ingenieros perdieron
su oportunidad. Marconi fue uno de los pocos que lo lograron. El segundo de ellos que
obtuvo el premio Nobel de Física, después de Marconi en 1909, fue un ingeniero de
control, el danés Nils Gustaf Dalén, quien lo consiguió en 1912 por la «invención de
reguladores automáticos para ser utilizados en conjunción con acumuladores de gas para
iluminar faros y boyas». En tiempos recientes, Jack S. Kilby ha sido otro de los escasos
ingenieros a los que se otorgó el Nobel de Física por su invención del circuito integrado,
como ya se ha recordado en otro lugar. Y al ingeniero agrónomo Norman Borlaug se le
otorgó el de la Paz, a falta de otro más adecuado, por su aportación a la revolución verde,
que ha contribuido significativamente a la alimentación de amplias capas de la población,
como se vio en su momento.

Dicho lo anterior, hay que añadir que son muchos los ingenieros que se sienten fascinados
por la ciencia, acaso debido a que durante sus años de formación adquirieron un notable
conocimiento de ella y quedaron prendados por la perfección, exquisitez y rigor de los
argumentos que la sustentan. Además, alegan justamente que la ciencia fomenta la

74
Elisabeth Crawford, The Beginnings of the Nobel Institution, pp. 160-161 y p. 166.

94
disciplina mental en la organización de los conocimientos, y ejercita la capacidad de
razonar, de resolver problemas, de pensar de forma abstracta y de fomentar el espíritu
crítico. Este atractivo por la ciencia, en muchos casos, ha perdurado a lo largo de los años
y algunos ingenieros, deslumbrados por ella, han sentido una especial complacencia en
resaltar los aspectos científicos de la ingeniería. Por lo que no es extraño que los haya que
se muestren carentes de reacción ante la persistente reivindicación por parte de ciertos
científicos, en especial los físicos, de su papel determinante en la gestación la ingeniería
de nuestros días.

Asimismo, también procede añadir que los ingenieros han aceptado en su investigación
parte del espíritu y de los métodos de los científicos, que han adaptado a sus fines
específicos —y no solo los resultados alcanzados por éstos. Hay pensadores (como el
pragmatista americano John Dewey (1859-1952)) que sostienen que la ciencia es mucho
más relevante concebida como actividad generadora de conocimiento que cuando se
entiende como cuerpo de contenidos, como síntesis organizada de conocimientos
previamente adquiridos.

En todo caso, de lo expuesto resulta claro que una cosa es formar ingenieros competentes
y otra muy distinta científicos cualificados; lo que no excluye que alguien formado para
lo uno sirva luego para lo otro, lo mismo que sucede con otras profesiones. Es frecuente
encontrar en el mercado laboral a licenciados en facultades de ciencias, físicos, químicos,
matemáticos o biólogos, realizando funciones análogas a las de los ingenieros; mientras
que, por otra parte, hay ingenieros que han realizado una brillante carrera científica, como
Henri Poincaré o John von Neumann (que se graduó en ingeniería química en el ETH de
Zúrich en 192575), por citar dos casos singulares.

Así, al tiempo que se señalan las diferencias entre ingeniería y ciencia, se clarifican los
papeles respectivos de estos dos modos de actividad en los mundos de la acción y del
pensamiento, y se insinúa la complementariedad entre ambos. A fuer de simplificar
mucho, se puede decir que entre saber y hacer, la ciencia se inclina por saber y la
ingeniería por hacer —con una parte ineludible de saber cómo hacer. De cualquier forma,
ingenieros y científicos exhiben habilidades muy diferenciadas en su proceder, y están
sometidos a distintos cánones de aceptación social. No se espera lo mismo de los unos
que de los otros, ni se enjuicia igual a cada uno de los dos grupos. Por eso subsisten,
diferenciadas, Escuelas de Ingenieros y Facultades de Ciencias, y han tenido que existir,
con autonomía relativa, Academias de Ingeniería y de Ciencias.

En fin, la confluencia entre ingeniería y ciencia, que no faltan quienes reclaman, no debe
llevar a identificarlas como si fueran las dos caras de una misma moneda o a postular que
las diferencias entre ellas son meramente de grado, y que además tienden a converger,
proclamando que curiosidad y utilidad pueden buscarse al mismo tiempo. Olvidan, los
que así piensan, el proverbio latino 76: Qui duos lepores sequitur neutrum capit (el que
persigue dos liebres no coge ninguna); y también la acreditada advertencia del clásico
español: casa con dos puertas mala es de guardar.

75
Steve J. Heims, J.Von Neumann y N.Wiener, Vol. 1, p. 65.
76
Que recuerda con frecuencia el genético e ingeniero agrónomo Enrique Cerdá Olmedo.

95
Capítulo VII.- El conocimiento propio de la ingeniería
¿Qué saben los ingenieros?

De lo expuesto hasta aquí, especialmente en el capítulo anterior, cabe preguntarse:


entonces, ¿qué es lo que saben los ingenieros? ¿Cuál es su conocimiento propio y
distintivo? Ya se han dado algunas respuestas a estas cuestiones. Todas giran en torno a
que saben lo que hace falta para hacer, para actuar, en el dominio de su especialidad. En el
diagrama de la figura 7 se tiene una posible síntesis de estas respuestas. En ella se
representa la visión del ingeniero aeronáutico Walter Vincenti (1917-) con respecto a las
relaciones entre el conocimiento científico convencional y aquel que es propio de la
ingeniería. Esta figura se ha adaptado del libro 77 que este autor dedicó a reflexionar sobre
su larga experiencia como ingeniero en el proyecto de aeronaves. En ella aparecen dos
columnas. La de la izquierda se refiere al conocimiento científico y la de la derecha al
correspondiente de los ingenieros. Se indican, mediante flechas, las posibles
interacciones entre las dos formas de conocimiento. En las leyendas del diagrama se
indica lo específico de cada una de ellas, así como su relativa autonomía. Por lo demás, la
figura se explica por sí misma.

Así pues, conviene resaltar cómo los ingenieros hacen también ciencia, tienen su propio
saber (entre otras cosas, eso son precisamente las tecnologías), que es un saber orientado
al hacer, un saber que les asista en su actuación para producir el mundo artificial y que ha
dado lugar a disciplinas como la electrotecnia, la aerodinámica, la cinemática, la
resistencia de materiales y tantas otras. Todas estas disciplinas comparten con las de los
científicos el reunir conocimientos que son, por su propia naturaleza, contrastables y
repetibles, ya que en su ámbito es viable la experimentación. Además, las disciplinas de
la ingeniería emplean con frecuencia las matemáticas, y alcanzan una precisión y
coherencia que permite considerarlas como científicas. Sin embargo, como ya se ha
insistido, su objetivo no es desvelar leyes del mundo natural, sino establecer y
fundamentar métodos y procedimientos para concebir y calcular los artificios que
produce la ingeniería (en las facultades de ciencias no es frecuente que se estudien
asignaturas en cuyo título aparezca la palabra tecnología. Una posible excepción es la
biotecnología —lo que no está exento de cierto oportunismo).

77
Vincenti, Walter. Op. cit.

96
Figura 7.- Relación entre el conocimiento científico y el propio de la ingeniería según
Walter Vincenti.

Los conocimientos de los ingenieros pueden, en la mayoría de los casos, estructurarse


mediante leyes y teorías semejantes a las que emplea la ciencia convencional. Pero
aunque sea conveniente, e incluso deseable, que los saberes de la ingeniería sean
compatibles con los de la ciencia normal, ello no implica que sean necesariamente
derivados y dependientes de ese conocimiento científico, en el sentido de que no se
requiera más que recurrir a él para obtenerlos. En todo caso, los ingenieros desarrollan y
poseen un conocimiento específico relativo a cómo funcionan los objetos artificiales
producto de su actividad y que forma el cuerpo disciplinario asociado a cada rama de la
ingeniería. De este modo, el ingeniero no solo usa la ciencia convencional, sino que la
amplía, la complementa y la modifica según sus objetivos, por lo que está también
comprometido en la investigación de nuevo conocimiento, aunque éste sea relativo a su
concreto ámbito de actuación. Para algunos ingenieros investigadores de nuestros días,
uno de sus empeños consiste en adaptar las técnicas de investigación y los métodos
desarrollados por la ciencia a sus propios objetivos —paralelamente también se está
produciendo la adopción por científicos de objetivos hasta ahora considerados propios de
ingenieros, como se verá en el apartado que cierra esta primera parte, al final del capítulo
VIII.

Con todo ello, un nuevo ethos se está extendiendo entre los ingenieros académicos que
propugna que una mayor implicación en labores de investigación básica puede producir
mejores soluciones ingenieriles en determinados proyectos. Pero los distintos orígenes de
ingenieros y científicos (artes mecánicas en el caso de los primeros y filosofía natural en
el de los segundos) siguen gravitando sobre los cánones a los que se someten unos y otros,
lo que determina la disparidad entre los métodos de unos y otros, a pesar de las indudables
analogías en el ejercicio de la razón en los dos dominios: acerado espíritu crítico, rigor
máximo, empleo de métodos matemáticos, contrastación experimental, cierta dosis de
escepticismo… Por ello, aunque el método de los ingenieros pudiera presentar rasgos
equivalentes al que emplean los científicos, los diferentes fines que tradicionalmente han
perseguido unos y otros han modulado sus distintas formas de proceder, pese a esas

97
aparentes similitudes. La relación entre el método científico y el propio de la ingeniería ha
adoptado formas sutiles a lo largo de la historia 78. Aunque dictada en otro contexto, se
puede traer aquí una cita de Jorge Luis Borges: «… comprendí que no podíamos
entendernos. Eramos demasiado distintos y demasiado parecidos»79.
A pesar de todo, hay quienes defienden que la formación científica y la interacción entre
ciencia e ingeniería deben fomentarse lo más posible en la formación de los ingenieros.
Pero esa formación, en su forma estricta y dominante, crea hábitos de simplicidad y de
unicidad que pueden ser entorpecedores para el ingeniero cuando se enfrenta a la
complejidad, la ambigüedad y las contradicciones del mundo en el que ha de ejercer su
labor profesional. La formación predominantemente científica puede crear la añoranza de
volver a encontrar esa simplicidad en el ejercicio de la profesión. En el siguiente
apartado, cuando se hable del método del ingeniero, se volverá sobre estas cuestiones.

Pero antes conviene recordar que la acepción de ciencia aplicada que se está adoptando
aquí, al menos hasta ahora, se caracteriza porque el científico tradicional busca
aplicaciones a lo que ya se sabe, que no es lo mismo que lo que hace el ingeniero, que
siempre está motivado prioritariamente por problemas concretos a los que aplica todos
los recursos disponibles. Éste busca, tanto en los libros como en el laboratorio, el
conocimiento complementario, sea teórico o experimental, que le ayude a resolverlos, si
es que se dispone de él. En caso contrario es él mismo el que se ocupa de obtenerlo
mediante una investigación delimitada (recuérdese de nuevo el túnel aerodinámico de los
Wright, o la búsqueda por Edison de un filamento para las bombillas), que puede
presentar semejanzas con la del científico, aunque esté restringida al caso que está
tratando de resolver. Así, el ingeniero, al tratar de encontrar una solución a un problema
determinado, cuando no disponga de un conocimiento básico y general adecuado a sus
necesidades, recurrirá a la experimentación circunscrita a ese asunto concreto, sin
preocuparse demasiado de la validez universal de los resultados que alcance, aunque
aplique un rigor tan exigente como el que emplea el científico. Si por ventura en esa
experimentación consiguiese resultados aplicables a otros casos, tanto mejor, pero ese no
era su objetivo: éste es el resolver el problema preciso que le ocupa, como ya se ha
repetido en varias ocasiones. Ello determina que con frecuencia el científico lo contemple
con cierta superioridad, alegando que él se desenvuelve en un plano superior,
confundiendo así cuales son los objetivos que persiguen ambos.

En la primera mitad del XX, se detectan movimientos que tratan de cuajar en lo que han
llegado a denominarse ciencias de la ingeniería, locución que fue propuesta en Alemania
a mediados del siglo XIX, como ingenieurwissenschaften, y con la que se pretende resaltar
la componente de ciencia, en un sentido amplio, que poseen las disciplinas de la
ingeniería moderna. En Estados Unidos, la National Science Foundation, de la mano de
Bush, recuperó el uso de esa denominación para aludir al campo de conocimiento propio
de los ingenieros. De este modo, esa Fundación, que tenía que limitarse estatutariamente
a financiar la ciencia, pudo incluir la investigación en ingeniería en su campo de
actuación. Sin embargo, no faltan quienes hayan creído ver una cierta paradoja en esa
denominación80. Un autor representativo de la promoción de esa locución es el ingeniero

78
Edwin T. Layton, «Science and engineering design», Annals of the New York Academy of Sciences, 424,
1984: 173-181.
79
Jorge Luis Borges, El libro de arena, p. 13.
80
Ronald Kline, «The paradox of “engineering science”», IEEE Thechnology and Society Magazine, 19
(3), 2000: 19-25.

98
ucraniano-estadounidense Stephen Timoshenko (1878-1972), con aportaciones notables
a la teoría de la elasticidad. Este autor dejó escrito 81 (p. 494):
Los requerimientos de un ingeniero son completamente diferentes a los de un matemático. El
matemático es libre de seleccionar sus problemas, y es completamente natural que en esa selección se
dirija en la dirección en la que la posibilidad de obtener una solución rigurosa parezca más
prometedora. El ingeniero no es libre de escoger sus problemas. Le son dados, y es necesario
encontrarles una solución. Si un análisis riguroso no puede ser aplicado con éxito, entonces se debe
recurrir a una solución aproximada, o el problema debe resolverse mediante experimentos.

En esta cita la referencia a un matemático puede sustituirse por la de un científico en


general.

El evasivo método del ingeniero


Los ingenieros cubren un amplio espectro de actividades. Esa gran variedad de dominios
hace impracticable definir a los ingenieros por lo que hacen. Más bien es la forma de
abordar los problemas, en cualquiera de esas actividades, lo que permite identificar al
ingeniero. Por ello resulta más factible tratar de mostrar lo específico de su proceder
atendiendo a cómo hacen su labor. El discreto equilibrio entre intuición y análisis crítico,
entre pragmatismo y rigor, entre escepticismo y voluntad de acción, la prioridad por los
procedimientos, todo ello distingue su forma de actuar y permite, hasta cierto punto,
establecer su método regido siempre por una búsqueda de resultados tangibles más o
menos inmediatos. De este modo, el método es lo que, de manera genérica, los identifica.
Sin embargo, este método tampoco resulta fácil de definir y carece de una respuesta que
goce de amplia aceptación, aunque de lo visto anteriormente ya se desprenden ciertos
rasgos que presumiblemente debería tener. A continuación se exponen otros de ellos.

En primer lugar, los ingenieros suelen alardear de que la racionalidad se predica de sus
modos de actuación. Sin embargo, ese término dista mucho de ser unívoco. A lo largo de
la historia se ha usado para justificar modos de actuación dispares, si no contradictorios.
Una distinción entre modos de racionalidad que es relevante al tema que nos ocupa es la
debida a Herbert Simon, quien distingue entre racionalidad objetiva y racionalidad
procedimental82.

La racionalidad objetiva es aquella que se emplea cuando se razona sobre algo de lo que
se dispone de un conocimiento exhaustivo y pretendidamente preciso, tanto de la cosa en
sí, como de los objetivos que se pretenden de ella, lo que permite una formulación del
problema que sea nítida y precisa. Estas formulaciones suelen ser convenientemente
simples y llegan a tener, en general, forma matemática. Es la clase de racionalidad que
habitualmente emplea el científico, cuyo método entraña la simplificación de situaciones
complejas mediante la abstracción de sus cualidades relevantes. Sin embargo, el
ingeniero tiene que aceptar en los procesos que acomete una componente de complejidad
que impide que, en general, se apliquen los estrictos cánones de la racionalidad objetiva.
En ingeniería los métodos analíticos no suelen aportar una solución completa e
inequívoca del problema. Todo lo más aportan una aproximación que, cuando se puede
obtener, llega a ser de gran relevancia, pero que siempre hay que saber interpretar y
adaptar.

81
Stephen Timoshenko, «The theory of elasticity», Mechanical Engineering, 52 (4), 1930: 494-496.
82
Herbert Simon, Las ciencias de lo artificial.

99
Cuando no se puede emplear la estricta racionalidad objetiva, se recurre a lo que Simon
llama racionalidad procedimental, que se basa en el empleo de procedimientos en los no
resulta posible evitar cierta imprecisión o laxitud, por lo que el ejercicio de la racionalidad
está acotado y se encuentra circunscrito a la situación concreta que se está estudiando y,
en su caso, a limitados poderes computacionales. Con la racionalidad objetiva se puede
optimizar la solución a un problema, en el sentido que se da en matemáticas a ese
término; mientras que con la procedimental lo más que se puede aspirar es a lograr una
solución satisfactoria, lo que, por otra parte, no es poco en la mayor parte de las
situaciones concretas de las que se ocupan los ingenieros. Lo que éstos pretenden es que
aquello que proyectan funcione de acuerdo con el objetivo que ha presidido su ejecución.

Por ello, si la solución adoptada resiste una experimentación intensiva, será aceptada
como buena aunque no satisfaga las exigencias que consideraría indispensables un
científico convencional. El ingeniero ni necesita ni le basta que haya una demostración
científica de que el producto que persigue es posible; su objetivo es que sea eficiente,
seguro, fiable, económico y capaz de atraer al público al que está destinado, por lo que
estará en principio satisfecho cuando logre unas prestaciones que resulten aceptables de
acuerdo con esas metas. De este modo, es posible encontrar, en el ejercicio de la
ingeniería, el «serpenteante rastro de lo humano» —recordando la afortunada expresión
del filósofo americano Hilary Putnam83–– en un dominio que parecía dominado por lo
pretendidamente objetivo, que es lo que propugna el cientificismo y que algunos
ingenieros parecen añorar.

El concepto de racionalidad procedimental puede servir de introducción a la


caracterización del método del ingeniero que propone Vaughn Koen 84. Este autor ha
enunciado que este método es «la estrategia para causar la mejor transformación en una
situación no del todo bien comprendida a partir de los limitados recursos disponibles» ––
definición que se puede aplicar a la misma vida. En este modo de obrar están incluidas
todas las intervenciones técnicas del hombre desde los albores de la humanidad.
Conviene destacar el carácter dominante de resolución de problemas prácticos que
subyace a la definición anterior, aun en situaciones de las que se tiene una información
insuficiente y los objetivos a alcanzar no están definidos con precisión.

En la propuesta de Koen desempeñan un papel primordial lo que se conocen como


heurísticas, a las que este autor asocia un significado peculiar y que son aquellas reglas o
procedimientos que sirven para alcanzar el objetivo que se persigue, aunque se carezca de
justificación al gusto de un científico. Se utilizan como guías para llevar a cabo obras de
ingeniería, para las que se empleaba tradicionalmente la denominación de «reglas de
oro», y que son fruto de la experiencia y forman uno de los más genuinos patrimonios de
cada rama de la ingeniería. La propia definición de Koen carece de precisión, pero esboza
un modo de actuación —referido al razonamiento procedimental— que todo ingeniero
conoce bien.

Hay heurísticas muy generales, como las referidas a los coeficientes de seguridad, y otras
propias de cada tecnología. La aceptación de las heurísticas vulnera también la

83
Putnam, H. Las mil caras del realismo.
84
Billy Vaughn Koen, Discussion of the Method.

100
proposición de que la ingeniería es un simple anexo de la ciencia, en su pretensión de que
todas sus reglas sean una derivación del conocimiento científico previamente existente.
Esto último sucede solo en algunos casos, aunque es deseable que estos sean lo más
numerosos posibles. El propio Koen propone como heurística: «aplicar el conocimiento
científico siempre que sea posible».

Otro concepto que emplea Koen es el de estado del arte de una cierta rama de la
ingeniería, del que forma parte el conjunto de conocimientos y heurísticas usadas por los
ingenieros de esa especialidad para resolver los problemas que les son propios. Lo que
hacen normalmente los ingenieros, según Koen, es recurrir al estado del arte que
represente la mejor práctica de la ingeniería en la rama correspondiente y en cada
momento histórico.

Los fenómenos complejos a los que tiene que enfrentarse el ingeniero resultan a menudo
intratables sin alguna oportuna simplificación. Al pretender simplificar un problema
complejo, hay que enfrentarse a un difícil equilibrio entre clarificarlo y hacer más
manejable el problema, por una parte; evitando, al mismo tiempo, dejar de considerar
algo de lo que no se pueda prescindir, por otra. La resolución de los problemas de
ingeniería suele implicar aproximaciones y, por tanto, siempre queda gravitando la
posibilidad de que se olviden factores esenciales, que puedan manifestarse en un
momento imprevisto o, peor aún, inoportuno. Cada solución es, en cierto sentido,
incompleta: queda la duda de si se habría podido encontrar otra mejor. Este carácter
«incompleto» de la solución alcanzada deja abierta la posibilidad de que en el futuro
alguien sea lo suficientemente perspicaz para hallar una solución con mejores
prestaciones —que es lo que sucede corrientemente.

No existen artefactos perfectos, ya que la ingeniería es el arte del compromiso y del


mejoramiento continuo; compromiso que está sujeto a restricciones tanto técnicas como
económicas. La ingeniería comparte con la economía, y acaso también con la política, el
arte de adoptar decisiones razonables con conocimientos insuficientes, aunque estos sean
los mejores disponibles. Todo ello hace que la realización de un proyecto en ingeniería
sea un proceso habilidoso en el que se despliegan múltiples destrezas por parte de los que
lo llevan a cabo. Por ello, desde la más remota antigüedad hasta nuestro tiempo, hay una
clara continuidad en el esfuerzo humano por dominar lo natural con fines provechosos, y
no se produce ningún tipo de discontinuidad sustancial en la concepción básica de la
ingeniería cuando aparece la ciencia moderna, como ya se ha comentado en el capítulo V.

En fin, el método de la ingeniería consiste en un largo proceso de revisiones entre dos


extremos: el estadio creativo, en el que se conciben nuevas ideas y en el que predominan
la imaginación y la síntesis; y el analítico, en el que se somete lo que se ha ideado al
implacable rigor de la razón. La grandeza y la peculiaridad de la ingeniería gira en torno a
esa doble polaridad: desbordamiento creativo en la concepción, y análisis de la viabilidad
de esas concepciones ejerciendo la más estricta racionalidad, y teniendo también en
cuenta las posibilidades de aceptación por la sociedad. Al fin y al cabo, los objetos
técnicos proliferan en nuestro entorno al invadir, en ciertos casos con gran éxito, el medio
complejo y profundamente tecnificado en el que nos movemos y en el que se hace cada
vez más imprecisa la barrera entre lo natural y lo artificial.

101
La representación
En el método del ingeniero tiene una función destacada la representación de aquello que
está concibiendo o diseñando, lo cual tradicionalmente se hacía por medio de
representaciones gráficas, aunque en la actualidad se emplean otras más elaboradas,
como las que permiten los recursos informáticos. La representación previa de aquello que
se está ideando ha tenido un papel capital en el método de la ingeniería tradicional. Por
ello, el dibujo ha estado entre las herramientas clásicas de todo ingeniero. Los planos
ponen de manifiesto el considerable ingrediente no verbal de la ingeniería. Recordemos
que en la École Polytechnique de París, uno de los focos de irradiación de la componente
científica del ingeniero, la geometría descriptiva (heredera de la geometría proyectiva de
Brunelleschi y otros artistas renacentistas) era una de las asignaturas más importantes;
que precisamente impartía Gaspard Monge, uno de los promotores de la École.
Las matemáticas son, en general, la herramienta científica de la que más se valen los
ingenieros, que han sabido embeberse de los métodos cuantitativos. Las emplean para
representar los problemas que les son propios, tanto para poder realizar cálculos como
para la misma concepción de lo que proyectan. En sus manos se convierten en un
instrumento que contribuye a hacer operativo el conocimiento del que disponen. Las
matemáticas están detrás de muchos procedimientos para resolver problemas de
ingeniería, pero quizás un uso especialmente llamativo es la construcción de modelos
matemáticos de aquello que imaginan y tratan de construir.

El modelado matemático en ingeniería, como en general en todas las disciplinas, no tiene


sentido sin definir a priori qué uso se va a hacer del modelo y qué problemas se pretenden
resolver con su ayuda. Los modelos se comportan como mapas de la realidad, lo que
permite tener representaciones parciales o parceladas, mediante las cuales acceder
intelectivamente a distintos aspectos de una máquina o de un proceso. Con los modelos
matemáticos el ingeniero intenta representar aquello sobre lo que está reflexionando. Para
ello recurre a un formalismo adecuado, que proporciona un lenguaje de modelado, el cual
aporta los elementos básicos y conceptuales para la construcción del modelo, que es un
objeto abstracto, aunque susceptible de programación informática (a veces de realización
física, aunque esto está en desuso), que brinda respuestas a preguntas sobre el aspecto de
la realidad modelado. De este modo se dispone de una herramienta que permite
«re-presentar» (volver a presentar) el objeto de estudio tantas veces como se requiera,
normalmente en combinación con la informática.

En todo caso, se pone así de manifiesto cómo los ingenieros (y por tanto, la técnica)
recurren a las matemáticas, dejando en entredicho la repetida y desacertada afirmación de
que la técnica se reduce a dedos inteligentes 85, como si se limitase exclusivamente a una
actividad manual —los que así opinan quizás estén pensando en la labor auxiliar del
técnico de laboratorio. Esa tergiversación no es ajena a la apreciación subalterna de la
técnica. Conviene tener en cuenta que uno de los centros de investigación técnica y de
formación de ingenieros más renombrados del mundo, el MIT, tiene como lema Mens et
manus (mente y mano).

Todo ello sin obviar que aunque las matemáticas deben estar disponibles (siempre están
ahí), no deben dominar o absorber los problemas ingenieriles en cuestión. Tampoco se
85
«La revolución industrial fue realizada por cabezas duras y dedos inteligentes. [Por hombres que]
carecían de una educación sistemática en ciencia …» se puede leer en Eric Ashby, La tecnología y los
académicos, p. 79.

102
olvide que, en realidad, las matemáticas no son una ciencia natural en sí mismas, pues en
ausencia de datos de observación no afirman nada del mundo. Las matemáticas esconden
un profundo misterio —como sucede con el mismo lenguaje—, ya que aunque no están
basadas en el mundo alcanzan un singular valor para describirlo, tanto para hacer la
misma ciencia como para los artificios de los que tratan los ingenieros.

El imperioso pluralismo
Ya se ha dicho que el diseño de cualquier obra de ingeniería, sea un teléfono móvil o un
viaducto, no se desprende solamente de la ciencia convencional preestablecida, ya que no
hay ninguna teoría o conjunto de ellas que lo «cubra» unívocamente, en el sentido de la ya
antedicha cobertura legal de Hempel. Por ello, el ingeniero sabe que no dispone de un
único cuerpo teórico T en cuyo seno desenvolverse con exclusividad, sino que dispone de
distintas 𝑇𝑖 (tanto tecnologías como otro conocimiento de carácter específico) que
atañen a otros tantos aspectos del funcionamiento de lo que proyecta: mecánica de
estructuras, cinemática, consideraciones energéticas, control e instrumentación, entre
tantas otras. Cada 𝑇𝑖 corre a cargo de los correspondientes especialistas, que actúan de
forma coordinada con el resto de los participantes en un determinado proyecto. En
general, de cualquier aspecto de la realidad podemos tener múltiples y variadas
descripciones86. Por ello, la imagen del mundo con la que trabajan los ingenieros se basa
en un conjunto de perspectivas cada una de las cuales se refiere a un determinado aspecto
o parcela de la ingeniería, y a las que cabe pedir consistencia entre ellas todo lo más en las
zonas de solape entre esos enfoques.

Pero aunque no exista 𝑇, los ingenieros son capaces de construir máquinas o concebir
procesos y conseguir que funcionen de acuerdo con los objetivos que han motivado su
construcción, y si esto se olvida entonces se desdibuja y se pierde la idea de la labor de
síntesis creativa, más allá del conocimiento científico del que se disponga, en la que
consiste la ingeniería. Ésta se desenvuelve sustentada sobre conocimientos —por todas
las 𝑇𝑖 ––, pero estos saberes no tienen más papel que el de acotar la posibilidad de poder
llevar a cabo los ingenios correspondientes y contribuir a proyectarlos eficientemente, lo
que no es poco.

Una realización de la ingeniería más avanzada de nuestros días es el tren de alta


velocidad, que permite ilustrar lo que se acaba de exponer, así como el inherente carácter
multidisciplinario de la ingeniería, pues requiere la concurrencia y coordinación entre
distintas especialidades cada una de las cuales resuelve los problemas que le incumben.
La ingeniería mecánica se ocupa de problemas críticos de estabilidad, rodadura,
disminución del ruido, vibraciones y posibilidad de fractura, entre tantos otros. Las
infraestructuras, cuya importancia para el tráfico de alta velocidad resulta difícil exagerar,
son competencia de la ingeniería civil. La mecánica de fluidos para establecer la forma
aerodinámica consistente con las velocidades pretendidas. Para controlar estos trenes se
requieren elaborados sistemas de señalización lo que incumbe a la más evolucionada
ingeniería de control —a partir de ciertas velocidades la capacidad de reacción del
conductor humano deja de ser operativa. El suministro de energía, y la propia
motorización, corresponden a la ingeniería eléctrica. Resulta claro, pues, cómo esa
maravilla del transporte que es un tren de alta velocidad resulta de la coordinación
distintas ramas de la ingeniería en torno a un proyecto concreto.

86
Hilary Putnam, Op. cit.

103
Es posible que se diga que en el dominio de la ciencia se observan fenómenos que
presentan rasgos semejantes al caso considerado en el párrafo anterior, ya que un mismo
objeto puede ser objeto de distintas disciplinas científicas. Un meteorito puede ser
analizado con métodos de la física (al determinar su peso, sus dimensiones y otras
características físicas del objeto), de la química (al analizar su composición), de la
astronomía (al suministrar información sobre sus trayectorias), de la mineralogía (tipos
de minerales que lo forman) o de la biología (la búsqueda de improbables restos de
componentes orgánicos, aminoácidos o bacterias fosilizadas). Sin embargo, al contrastar
el caso del tren de alta velocidad con el del meteorito se ponen de manifiesto, una vez
más, las diferencias entre la ingeniería y la ciencia en las que se viene insistiendo a lo
largo de este libro. Si se reflexiona, se concluye que el pluralismo 87 en ingeniería es
esencial, pues articula distintas tecnologías en torno a un objetivo preestablecido, para
cuyo logro se requiere esa confluencia. La labor del ingeniero consiste, en último
extremo, en esa síntesis. Pero, por otra parte, en ciencia el pluralismo «recorta» el objeto
de estudio en diferentes disciplinas cada una de las cuales es autónoma al realizar su
aportación, aunque luego se integren las descripciones parciales aportando una
perspectiva global, recomponiendo el cuadro con las distintas contribuciones. La
fragmentación que impulsa el especialísimo de las disciplinas científicas se contrarresta
por la posterior reunión de los resultados obtenidos por cada una de ellas
independientemente. Pero lo específico de la labor del científico se desenvuelve en el
seno de cada una de estas disciplinas, mientras que en el caso del ingeniero es en la
conjunción de ellas donde alcanza su excelsitud.

No obstante, en ciertas ramas de la ciencia como la mecánica cuántica el pluralismo tiene


un papel esencial. El principio de complementariedad establece que puede haber visiones
distintas de un mismo objeto (ondas y partículas, por citar el caso más conocido), pero
que cuando se hace una observación se manifiesta solo una de ellas. El físico Frank
Wilczek dice con respecto al principio de complementariedad 88: «ninguna perspectiva
única agota la realidad, y distintas perspectivas pueden ser valiosas, y sin embargo
mutuamente incompatibles», lo cual es una forma palmaria de enunciar el pluralismo en
ciencia, al menos en la cuántica89.

En todo caso, y volviendo a los ingenieros, estos son radical e inherentemente pluralistas
o multidisciplinarios. Para llevar a cabo un proyecto adoptan diferentes perspectivas y
recurren a todo lo que sea necesario, sin someterse a una disciplina única que no sea el
cumplimiento de los objetivos que motivaron su intervención.

87
El estudio del pluralismo es especialmente relevante en el ámbito de la política, en especial en los
análisis sobre la imposibilidad de alcanzar el consenso en comunidades humanas cuando los objetivos de
los distintos agentes son incompatibles. Según este punto de vista, las sociedades progresan por la
multiplicidad razonada de las opiniones presentes en ellas, y no por la reducción un discurso único. No
obstante, el pluralismo no se limita a aspectos relacionados con la incompatibilidad de determinados
objetivos humanos o sociales, como la libertad y la búsqueda de la felicidad, sino que afecta también a
cuestiones epistemológicas.
Para ilustrar el pluralismo se puede recurrir a un breve cuento. Dos varones, que están litigando sobre una
cuestión, acuden a un sabio anciano para que les ayude a dirimir entre ellos. Este se reúne con cada uno de
ellos. Oídas las razones del primero dice: «Tienes razón». Tras hacer lo mismo con el segundo, afirma: «Tú
también tienes razón». Entonces interviene la mujer del anciano, que había escuchado todo el proceso, y le
reprende: «¡Pero no puede ser que tengan razón los dos!» El anciano sabio asiente y resuelve: «En fin,
tienes razón tú también».
88
Wilczek, Op. cit., p. 334.
89
Para otro planteamiento adicional de esta cuestión véase S. Hawking y L. Mlodinow, El gran diseño.

104
La difícil medida de la actividad académica
Los ingenieros que ejercen su labor en centros universitarios se encuentran ante un dilema
—lo mismo sucede con otras profesiones universitarias, como la medicina. En tanto que
educadores necesitan formar profesionales para la sociedad en una especialidad
determinada; pero como académicos tienen también que alcanzar legitimidad en el
mundo universitario. Para lo primero, aparte de estar dotados de capacidades didácticas,
deben conocer de primera mano el ejercicio de la profesión para poder trasmitirlo a sus
estudiantes y, por ello, disponer de experiencia directa en problemas de relevancia para la
actividad correspondiente; mientras que para lo segundo tienen que hacer contribuciones
intelectuales con pretensiones de cierta generalidad, aunque sea restringida al ámbito de
la especialidad de la ingeniería de la que se trate. El delicado equilibrio entre ciencia e
ingeniería ha determinado que en algunos casos los ingenieros se inclinen excesivamente
hacia la ciencia, relegando lo específico de su propio dominio. Esto sucede especialmente
en los que ejercen su actividad en el medio académico, donde corren el peligro de
subordinarse a las normas propias de la ciencia, cuyas diferencias con relación a las de la
ingeniería se están tratando de dilucidar en estas páginas.

Así, se está llegando a medir la calidad de los ingenieros pertenecientes al mundo


académico con los criterios que son propios de la producción científica y no de la labor
ingenieril: las sobrevaloradas publicaciones —convertidas en la moneda de reserva de la
actividad académica— y las patentes —en un intento desesperado de reducirlo todo a lo
medible en un mundo en el que los resultados relevantes para la ingeniería se enjuician
con criterios mucho más sutiles. Con ello se está llegando incluso a condicionar la
promoción de los profesores de las escuelas de ingenieros dando clara preferencia a los
que presentan un currículum en el que predomina lo científico, en lugar de lo netamente
ingenieril.

En la figura 8 se muestran dos esquemas triangulares que permiten ilustrar, de forma


resumida, el diferente papel que tienen las publicaciones para la evaluación de ingenieros
y de científicos, con lo que se tiene además un argumento adicional con relación a las
prioridades que definen a unos y otros. En ambos diagramas el vértice superior representa
la labor L, lo que hacen, tanto el ingeniero, en el caso de la izquierda, cómo el científico,
en el de la derecha. Para el ingeniero, la búsqueda de la utilidad determina que su labor se
traduzca en primer lugar en soluciones a problemas prácticos concretos, que
normalmente se traducen en artefactos, o similares, A. Estos productos A, si son
suficientemente relevantes, podrán ser objeto de publicaciones P que los recojan, los
describan y ensalcen sus bondades, así como los procedimientos que han permitido
llevarlos a cabo. Por su parte, la labor del científico conduce a generar saberes sobre el
mundo, lo que se registra, en primer lugar, en publicaciones P. Puede suceder que de lo
publicado en P se desprendan aplicaciones A, pero éstas tendrán carácter secundario con
respecto a la labor considerada como principal para el científico, que cristaliza en P. En
cambio, el conocimiento que se genera en ingeniería se valida porque lo que se proyecta a
partir de él alcanza las prestaciones requeridas, y no solo por su publicación en revistas de
prestigio científico.

En todo caso, se ilustra así la distorsión que se produce en la evaluación de los ingenieros
académicos exclusivamente por sus publicaciones. Sin embargo, pese a ello, los
ingenieros que ejercen su labor en el medio académico han sucumbido al imperativo de
publicar y se comportan de forma similar a los científicos por lo que respecta al papel que

105
tienen las publicaciones en su promoción profesional y publican ansiosamente, aunque lo
publicado resulte ajeno al ejercicio de la profesión, pues han acabado aceptando el
extraño argumento de los científicos de que si lo que hacen no es útil hoy, sin duda lo será
mañana. Pero cuando el ingeniero (académico) deja de ocuparse de problemas concretos
para indagar sobre conocimientos generales de potencial rendimiento futuro pensando
solo en su publicación inmediata, cesa de comportarse como un genuino ingeniero para
adoptar las maneras de un científico tradicional. Por ello hay que ser reticente respecto al
uso de criterios cuantitativos para evaluar la actividad académica (especialmente el
pernicioso índice h) pues, en el ámbito de la ingeniería, las cosas son mucho más
complejas de lo que esconde ese limitado objetivo en su ingenua búsqueda de la
simplicidad y de lo cuantitativo en todas partes.

Figura 8.- Diagramas especulares de las prioridades de ingenieros y científicos con respecto a las
aplicaciones A y a la producción de conocimiento P.

Dicho lo cual hay que reconocer la especial complejidad que tiene la evaluación de los
ingenieros que ejercen su actividad en el medio académico, pues, como se decía al
principio de este apartado, han de desenvolverse entre dos mundos e intentar mantener un
difícil equilibrio entre la participación directa en proyectos ingenieriles, cuya
contribución al ámbito de la ingeniería correspondiente puede resultar muy difícil de
evaluar, y la publicación de aportaciones relevantes para su rama de la ingeniería, que se
puede cuantificar más fácilmente. Y así, la solución adoptada ha sido la más cómoda:
considerar solo las publicaciones. Por ello, los que se ocupan de proyectos concretos de
ingeniería se encuentran en una incómoda competencia con los que se cuidan únicamente
de publicar.

106
Capítulo VIII.- El modelo lineal y su posterior cuestionamiento
Ingeniería y ciencia después de la Segunda Guerra Mundial

Antes de la Segunda Guerra Mundial la opinión dominante era que los ingenieros se
ocupaban con exclusividad por hacer cosas útiles, lo que tenía prioridad absoluta,
mientras que los científicos tenían como motivación principal el comprender cómo está
constituido el mundo natural. Sin embargo, tras esa guerra se produjeron cambios
apreciables en cómo se percibían esas adscripciones. Después de ella se entra en una
etapa conocida por diferentes eras en las que lo técnico es lo definitorio. En primer lugar,
se da una era caracterizada por el aprovechamiento de la fisión del átomo, mediante su
empleo en la bomba atómica y en la generación de energía eléctrica, época en la que tuvo
un papel relevante la ciencia física. Se iniciaba así lo que se llamó la era atómica (de la
que formaba parte, desde 1955, el programa de usos pacíficos de la energía atómica
«Átomos para la paz», según el cual a partir de esta forma de energía se iban a resolver
todos los problemas energéticos, aparte de otros beneficios, como los usos medicinales de
los radioisótopos). A principios de los años sesenta lo nuclear gozaba de un
extraordinario prestigio, pero pronto sería desplazado por la conquista del espacio
exterior, al iniciarse la aventura espacial, y con ella la llamada era del espacio, en la que
los aspectos propiamente ingenieriles son claramente dominantes. Ambas eras resultaron
fugaces; pues la revolución técnica que ha tenido más amplia y fértil incidencia en la
segunda mitad del siglo XX ha sido la era de la información, y también una variante de ella
de singular repercusión: la de la automatización y la robotización.

En agosto de 1945 se produjeron las devastaciones nucleares de Hiroshima y Nagasaki.


Las bombas que provocaron las hecatombes fueron el resultado de un vasto proyecto, el
Manhattan, en el que tuvo una participación decisiva un equipo de científicos
encabezados por el físico teórico Robert Oppenheimer (1904-1967), que trabajaron con el
objetivo preestablecido (¿utilitario?) de fabricar esas bombas (debe mencionarse también
que en la Alemania nazi se produjo un proyecto con el mismo objetivo bajo la dirección
de Werner Heisenberg (1901-1976), aunque no se alcanzó la meta propuesta). Conviene
recordar también la decisiva, y no siempre bien reconocida, participación de ingenieros
químicos, especialmente de Du Pont, en la fabricación de esas armas y de las posteriores
centrales nucleares90.
En 1942, cuando Karl Compton, entonces presidente del MIT, sugirió a sus colegas
físicos de Chicago que los ingenieros químicos de Du Pont tendrían que entrar en el
proyecto Manhattan se produjo una especie de rebelión, ya que numerosos físicos
estimaban que ellos solos eran capaces de ocuparse de las tareas de fabricación de las
bombas, por lo que pretendían conservar el control del proyecto. Temieron que con la
llegada de los ingenieros tendrían que compartir el poder. Los grandes físicos sufrían una
enfermedad común a las mentes brillantes: puesto que lo son en su especialidad, actúan
como si lo fueran en todo lo demás. Por excepcional que haya sido su contribución, eso no
presupone nada más que una sabiduría especial, todo lo singular que se quiera, pero en un
ámbito restringido. Los científicos tienden a soluciones sobresalientes pero
simplificadoras en exceso —lo que, por otra parte, puede ser una de las claves de sus
éxitos. Muchos de ellos no hubiesen dudado un instante en explicar cómo dirigir una gran
empresa.
90
Pap Ndiaye, Du nylon et des bombes.

107
Los físicos habían sido capaces de construir una pequeña pila atómica con sus propias
manos y pensaban que el resto era una simple cuestión rutinaria. En efecto, la primera
etapa del proyecto Manhattan había terminado, en 1942, con la primera reacción en
cadena, obra de un grupo dirigido por el físico de origen italiano Enrico Fermi
(1901-1954), y en ella habían participado grupos de investigadores dispersos en varias
universidades, y solo habían tenido un papel discreto el ejército y las empresas de
ingeniería. Completada esta primera etapa, se trataba de pasar a una escala industrial, y
por tanto de hacer entrar en escena a los ingenieros y las grandes empresas que disponían
del saber hacer necesario. En ese momento, el general Leslie R. Groves (1896-1970), un
ingeniero militar, tomó el mando del proyecto e impuso el reagrupamiento de los trabajos
sobre la bomba en Los Álamos (Nuevo México), así como la construcción de
instalaciones industriales para la separación del plutonio (Clinton Engineer Works, en
Oak Ridge, Tennessee) y la investigación sobre materiales fisibles. En 1942 el proyecto
Manhattan cambió de escala. A partir de un proyecto llevado a cabo al principio
solamente por físicos, se convirtió en uno de los más grandes esfuerzos interdisciplinarios
industriales puestos en marcha hasta ese momento, con especial implicación del Cuerpo
de Ingenieros del Ejército americano 91. En dos años y medio (desde principios de 1943
hasta Hiroshima) se alcanzó la meta perseguida.

Es claro que sin aquellos científicos no se hubieran fabricado las bombas. Pero también lo
es que solo con ellos es presumible que tampoco se hubieran hecho. La organización
global del esfuerzo dirigido por Groves fue también esencial. Se requirió la construcción
de nuevas plantas industriales adecuadas para conseguir los materiales necesarios; la
puesta a punto de procesos a gran escala hasta entonces no abordados; y la recepción e
integración de miles de componentes de diferentes suministradores con uniformidad y
con suficientes garantías. Todo ello fue en gran medida la contribución de los ingenieros.
Así, el proyecto Manhattan no fue únicamente un asunto de aplicación científica puntera
en física nuclear, sino también un complejo programa industrial formado por múltiples y
variados problemas ingenieriles. En el proyecto se produjo el encuentro de dos labores
que hasta entonces se habían dado la espalda: por una parte, la investigación en física
nuclear de los 50 años anteriores, que alcanzó su cumbre con la primera reacción en
cadena de Fermi; y, por otra, los 50 años de producción en masa en la industria química,
que se inició en los primeros años del siglo XX con la síntesis del amoníaco y las técnicas
de química catalítica de altas presiones, y que alcanzó su apogeo con la producción del
nailon, en los años cuarenta. El desarrollo de la energía nuclear fue la ocasión que
permitió la conjunción de esos dos mundos, aunque fuese temporal.

Como se ha visto en capítulos anteriores, la participación de científicos en aplicaciones


concretas ya venía produciéndose desde los laboratorios de Edison y similares, aunque en
general con carácter subalterno a los ingenieros, pero ahora los científicos reclamaban su
participación activa en la primera línea del proceso. Paralelamente, el éxito en la
incorporación de científicos para colaborar en la generación de nuevos artefactos bélicos
alimentó la pretensión de que la técnica se sustentase en sus aspectos fundamentales en la
labor de esos científicos, circunstancia que éstos aprovecharon para tratar de situarse al
frente de las actuaciones. Al menos desde entonces, algunos científicos tienden a pensar
que lo más notable de lo que se hace en la ingeniería moderna se debe, en último extremo,

91
F.G. Gosling, The Manhattan Project: Making the Atomic Bomb, DOE/MA-0001-01/99, 2010, pp.
11-12.

108
a ellos. La primacía de la ciencia con relación a la técnica, que hasta entonces se había
aceptado a lo sumo en el ámbito académico, se empezó a admitir en un orden más ligado
a las aplicaciones. Por otra parte, los historiadores, y otros autores pertenecientes al
mundo de las humanidades, adoptaron en general el discurso de los físicos, desdeñando la
singularidad de las aportaciones de los ingenieros, e incluso aceptando que la técnica se
reducía a meros corolarios de los logros científicos —las artes mecánicas no han gozado
del mismo crédito intelectual que la ciencia, como ya se ha repetido en distintas
ocasiones. Asimismo, la prioridad de los físicos en la bomba atómica pretendió
extenderse al conjunto de las relaciones de la ciencia con la ingeniería, lo que estaría en el
germen del modelo lineal, al que se aludirá en el siguiente apartado. De esta manera, la
Segunda Guerra Mundial marca un punto de inflexión en las relaciones entre la ciencia y
sus aplicaciones técnicas, y llega a modificar el marco de las políticas científicas en
Estados Unidos, si bien con anterioridad a ese conflicto ya se habían detectado signos
incipientes en ese sentido, aunque estuvieran más o menos larvados, en la École
Polytechnique de París y en la ingeniería química alemana, entre otros casos.
Los físicos adquirieron un considerable peso en la posguerra, aureolados por sus éxitos,
especialmente en el proyecto Manhattan, convenientemente publicitados. Un número
importante de ellos ocuparon posiciones destacadas en la administración pública, en las
universidades y en las fundaciones que financiaban la investigación. Pero, a pesar de
todo, uno de los personajes individuales que más influyeron en el curso que iba a tomar la
investigación científica en la posguerra en los Estados Unidos, y por ende en el mundo,
fue un ingeniero: Vannevar Bush, a quien ya se ha aludido y a quien se volverá después
con mayor detalle.
Con todo ello experimenta un renovado impulso la implicación directa de la ciencia en lo
social y en lo político, además de en lo exclusivamente epistemológico. La guerra, en
especial el armamento atómico, contribuyó a socavar la idea utópica de que la ciencia era
algo inmaculado ajeno a la política. Los gobiernos movilizaron a los científicos para que
participasen en proyectos armamentísticos, con presupuestos muy elevados y con
objetivos concretos de orden aplicado y no meramente especulativo —en cada época, los
militares suelen estar involucrados en la técnica más avanzada, que prosperará si es
ventajosa para los objetivos bélicos. Los esfuerzos conjuntos de ingenieros y científicos
se tradujeron en grandes progresos técnicos como el radar, los nuevos componentes
electrónicos de estado sólido que vaticinaban la revolución digital, y tantos otros. Al
mismo tiempo, los resultados de la ciencia perdieron el comunalismo (el carácter público
de los resultados científicos) del que ésta había alardeado en toda su historia.
Al concluir la guerra se extendió el convencimiento de que la hegemonía en el mundo
bipolar, que había surgido con ella, dependía de la superioridad científica (subestimando
el inmenso y decisivo esfuerzo industrial en la producción de armamento para el
desenlace de la contienda). De hecho, antes de la Segunda Guerra Mundial estaba
extendida la creencia de que la investigación científica era un lujo que nutría más el
espíritu que el cuerpo. Sin embargo, esa guerra cambió completamente esa percepción. Se
asumió que la implicación de los poderes públicos en investigación se justificaba en que
el valor social, para el conjunto de la sociedad, de los resultados de las inversiones en
investigación aplicada podía ser mayor, en gran parte de los casos, que el beneficio que
pudiera suponer para algunas empresas privadas —la aventura espacial, por citar un caso.
Se comprendió que esas mayores inversiones públicas incrementan las posibilidades de
nuevas innovaciones con amplia repercusión en beneficio del conjunto de la sociedad.
Además, en los años de la posguerra se mantuvieron los lazos urdidos durante el período
bélico entre militares, industrias y grandes grupos de investigación, de lo que el proyecto
109
Manhattan había sido el ejemplo arquetípico. Dwight D. Eisenhower (1890-1969)
pronosticó en su discurso de despedida de la presidencia de los Estados Unidos, en 1961,
que su país había entrado, con la Guerra Fría, en un nuevo periodo de su historia,
caracterizado por la aparición de lo que él mismo bautizó como el «complejo
militar-industrial»: una red que asociaba a las administraciones públicas, el Pentágono,
las grandes empresas y los centros de investigación.

Un ingeniero al frente de los científicos


Como se ha mencionado hace poco, uno de los personajes que tuvo gran influencia en la
inflexión de las relaciones entre ingeniería y ciencia fue Vannevar Bush. Se trata de uno
de los ingenieros más versátiles del siglo XX. Ejerció como profesor en el MIT, donde
concibió y construyó, como ya se ha recordado en otro lugar, una de las más influyentes
computadoras analógicas mecánicas de los años treinta. Fue también consejero de dos
presidentes de Estados Unidos, impulsor del proyecto Manhattan y director de la
investigación que condujo a la producción en masa de la penicilina. Desempeñó la
dirección de la poderosa Office of Scientific Research and Development (OSRD) de
Estados Unidos, institución cuya responsabilidad fundamental fue la coordinación de la
ciencia americana para apoyar el esfuerzo bélico, de modo que se convirtió en el líder de
la organización de esa ciencia durante la Segunda Guerra Mundial (figura 9). Concibió y
puso en marcha la National Science Foundation, que continúa hoy en día sustentando la
investigación en Estados Unidos y que ha servido como modelo en muchos otros países.

110
Figura 9: Portada de la revista TIME (3 de abril de 1944) en la que aparece el ingeniero
Vannevar Bush, a quien se describe como «general de los físicos».
Bush, a pesar de su condición de ingeniero, tuvo un papel destacado en la promoción de la
ideología, sesgada al cientificismo, que prosperó durante y después de la Segunda Guerra
Mundial. En efecto, el nombre de Bush se asocia con lo que luego se ha conocido como
modelo lineal (sería más propio llamarlo modelo unidireccional) de investigación. Este
modelo fue promovido por el influyente MIT, entre otras instituciones, y se puede
resumir en una fórmula simple: primero hacer ciencia para luego poder hacer ingeniería.
Lo que se traduce en que la investigación básica sería la que originaría capital científico a
partir del cual se producirían todos los progresos en la técnica y en la ingeniería; es decir,
el camino seguro iría de la teoría a la práctica. De acuerdo con ello, los científicos son los
que generan el nuevo conocimiento que actúa como una especie de combustible que nutre
a los ingenieros que más tarde lo aplican, por lo que la investigación científica básica
precede unidireccional y necesariamente a los desarrollos ingenieriles y a las aplicaciones
prácticas en busca de algún beneficio.
Bush expuso sus ideas en un conocido informe al presidente Truman, en 1945, que estaba
llamado a tener gran influencia en la política científica y en las expectativas con respecto

111
a la investigación y desarrollo (I+D92) en los tiempos posteriores. Este informe se tituló
expresivamente Science, the Endless Frontier 93 . De él parecía deducirse que la
investigación básica debería anteceder siempre a los nuevos desarrollos técnicos y que la
ciencia era lo único capaz de proporcionar un sustrato sólido sobre el que edificar la más
contingente práctica de la ingeniería. De este modo, se impulsó el latente discurso en el
que se resaltaba la prioridad, para los ingenieros, de la investigación básica que llevaban a
cabo los científicos, lo que era una novedad en un país adalid del pragmatismo (¡ay, los
conversos!).

En realidad, el modelo lineal aspira a extender a todas las relaciones entre ingeniería y
ciencia lo que sucede, como ya se ha visto, en la acepción que se adopta en este libro de
ciencia aplicada; es decir, las aplicaciones siempre detrás de los resultados científicos,
por nimios que estos sean. Es como si lo verdaderamente estimable de la técnica del
ingeniero se redujese a lo que estuviese basado en conocimientos científicos, y no a la
propia funcionalidad y eficiencia de los productos resultantes.

El informe de Bush sentó doctrina y se vivió así una edad de fe en el modelo lineal que
comprendió aproximadamente los dos decenios que siguieron a la guerra, aunque sus
ascuas humean todavía. A partir de entonces, y durante unos años, se afianza la ideología
correspondiente, e incluso los libros sobre investigación en ciencia básica empiezan a
proponer, unas veces de forma sutil y otras no tanto, que el conocimiento fundamental es
básico para todas las aplicaciones prácticas (recuérdese lo dicho con relación a la
electrónica y la mecánica cuántica).

Aun en nuestros días es posible oír a ingenieros prestigiosos afirmar que antes de esa
guerra se podía conceder que la ingeniería tenía autonomía con relación a la ciencia; pero
que a partir de ella la pierde. El caso es que si hay incluso ingenieros reputados en el
mundo académico que opinan así, no es de extrañar que los científicos, en especial los
físicos teóricos, alimentados con esa ideología, se convirtiesen en los árbitros de la
política de I+D, tanto en Estados Unidos como en otros países; y lo mismo sucedió en
España 94 . Se produjo así un incremento del énfasis en la ciencia a expensas de la
ingeniería, hasta el extremo de que parecía fomentarse que ingenieros y científicos
aplicados eran lo mismo.

No obstante, como se deduce de otros escritos suyos, Bush tenía una concepción mucho
más amplia y matizada de lo que era la investigación, que incluía la que se realizaba de
forma independiente y autónoma tanto en ciencia como en medicina, armamento o
ingeniería. Muchos partidarios del modelo lineal olvidan que este autor sostenía que
debía mantenerse un equilibrio entre ingeniería y ciencia. De hecho, Bush, en los últimos
años de su vida, puso en tela de juicio las interpretaciones superficiales que se estaban
propagando sobre el modelo lineal cuando afirmó que la ingeniería es más un «socio

92
Se ha pretendido incluir expresamente la innovación en el acróstico anterior añadiendo otra i, que
normalmente se escribe con minúscula, de modo que queda I+D+i. Aquí no se adoptará por superfluo.

93
Existe una traducción al español publicada en la revista Redes (noviembre de 1999) con el título
«Ciencia, la frontera sin fin. Un informe al presidente, julio 1945».
94
Cuando la Comisión Asesora de Investigación Científica y Técnica (CAICYT, 1958-1987) se convirtió
en la Comisión Interministerial de Ciencia y Tecnología (CICYT), con la sustitución de técnica por
tecnología.

112
igualitario que un hijo de la ciencia»95. (Una clara ilustración de este paralelismo se tiene
en el diagrama de la figura 7).

En la autobiografía de Bush96 se leen cosas como esta:


La elevación de los científicos a un pedestal […] ha desviado a muchos jóvenes. Incluso
recientemente, cuando los primeros astronautas llegaron a la Luna, la prensa lo saludó como un
gran logro científico. Por supuesto, no fue nada de eso: fue un trabajo ingenieril maravillosamente
competente. (Op. cit. p. 54)

Y en otro lugar, más adelante:

Una cosa es hacer manualmente un dispositivo que con sumo cuidado funcione correctamente.
Pero es completamente diferente hacer miles, millones, por métodos de producción, todos iguales,
todos seguros en su uso, con un porcentaje tolerable de defectuosos. Esto no es ciencia; es
ingeniería de una clase superior. (Op. cit. pp. 108-109)

La primera cita recuerda lo que se decía, en aquellos años, entre ingenieros: si un cohete
espacial alcanza su objetivo, es un éxito de la ciencia; si no lo logra, entonces es un
fracaso de la ingeniería. A la segunda hay que añadirle el necesario matiz de que la
ingeniería no se ocupa únicamente de la producción, sino también de la concepción,
aunque en esa fase pueda contar con la colaboración de científicos; es decir, el ingeniero
interviene en el diseño, proyecto, producción y contribuye, además, al mantenimiento de
los ingenios que suministra a la sociedad.
Pero estas matizaciones no han sido apreciadas por algunos lectores precipitados del
informe de Bush a Truman —en el que no han sabido ver lo mucho que hay de
circunstancial––, por lo que acabó imponiéndose, al menos temporalmente, el modelo
lineal contemplado en su literalidad. Con esos supuestos, además, se ha llegado incluso a
condicionar la política universitaria y las propias titulaciones en ingeniería. Y así, ha
influido negativamente en la formación de los ingenieros, como ya denunciara el mismo
Bush en la primera cita anterior.

Hoy ese modelo ha sido superado al tener presentes interacciones mucho más complejas.
En realidad, el modelo lineal no fue objetado seriamente hasta los años sesenta. Por
ejemplo, en 1969 se hizo público el Proyecto Hindsight, promovido por el Departamento
de Defensa de los Estados Unidos, en el que se concluía que alrededor del 90 % de las
innovaciones en veinte de los más importantes sistemas de armas desarrollados desde
1945 provenían de investigación directamente ingenieril, y no de la llevada a cabo por la
ciencia básica. Este informe no dejó de producir un enorme revuelo entre los que
practicaban esa forma de ciencia 97.

Así pues, en los años sesenta el modelo lineal se denunció como excesivamente simplista,
si no básicamente incorrecto 98 , entre otras razones porque separa y jerarquiza a los

95
Albert Love y James Childers (Eds.), Listen to Leaders in Engineering, p.10.
96
Vannevar Bush, Pieces of the Action.
97
En el año 2007 se publicó una revisión de este proyecto (Richard Chait et alii: Enhancing Army S&T,
Washington DC, National Defense University, 2007) en la que se mantienen esencialmente sus
conclusiones, aunque se admite expresamente la obvia influencia de la ciencia en la formación básica de
los modernos innovadores técnicos.
98
Sumner Myers y Marquis Donald, Successful Industrial Innovations.

113
agentes en el proceso, cuando lo que sucede es que deben interaccionar de forma
completamente entrelazada y no meramente secuencial, sometidos a la disciplina que
impone su valor para la práctica. Por ello se propusieron, para reemplazar al lineal, los
modelos interactivos, de los que fue precursor el de enlaces en cadena o modelo
cadena-eslabón de Kline, al que han seguido otros muchos 99 . En estos modelos se
abandona el carácter unidireccional del modelo lineal para resaltar la
multidisciplinariedad latente en el proceso de innovación, en el que, en nuestros días, es
frecuente que se produzca una dinámica y colaboradora interacción de ingenieros con
científicos y otros agentes auxiliares y de soporte, todos los cuales actúan con objetivos
que tradicionalmente habían sido propios de la ingeniería.
Pero, pese a lo anterior, hay quienes se obstinan en mantener el modelo lineal. Para
algunos biempensantes del mundo académico, y también para ciertos responsables de la
política científica, ese modelo sigue siendo lo políticamente correcto. En este orden de
cosas, se oye con frecuencia que la investigación científica está siendo un éxito pero que
la innovación (con toda la ambigüedad que oculta ese término) es un fracaso, como si
debiera existir una conexión directa entre ambas, y del impulso a la investigación básica
debiera seguirse inexorablemente el crecimiento de la innovación; o que, de forma
alternativa, la investigación básica fuera el requisito necesario y suficiente para la
invención. La falacia que se esconde tras esa afirmación suele acabar produciendo un
frustrante desengaño en los que se aferran a ella.

El forzado hermanamiento de ciencia y tecnología


En un capítulo anterior se ha comentado el controvertido uso que se hace del término
tecnología, que se acentúa cuando se une a ciencia y se forma la expresión de éxito
mediático «ciencia y tecnología». Esta confusión es especialmente atractiva para los
partidarios del periclitado modelo lineal. De acuerdo con la ideología y las políticas
inspiradas por ese modelo, con «ciencia y tecnología» se denomina lo que se considera
como una línea de ensamblaje. Al principio está la idea en la cabeza de un científico.
Después, en las siguientes etapas del proceso, se producen secuencialmente una serie de
operaciones, denominadas invención, desarrollo, ingeniería y comercialización, que
transforman la idea original del científico en productos para el mercado: ergo, para
obtener estos últimos, y con ellos crecimiento económico, lo que hay que hacer es invertir
con holgura en la iniciación del proceso; es decir, en ciencia básica: lo demás se dará por
añadidura. Al final del apartado anterior ya se ha cuestionado esa propuesta.
Pero es que, además, para los partidarios de la línea de ensamblaje, ciencia y técnica
formarían una unidad indisociable que designan precisamente con el membrete o sello de
«ciencia y tecnología», en el que la alusión a la tecnología se reduce a un mero ornamento
o acompañamiento. Parece que la ciencia, para hacer valer su influencia y su utilidad en el
mundo moderno, no está dispuesta a soltar de la mano a la tecnología. En este sentido,
algunos divulgadores y políticos se han obstinado con el mito que subyace a ese
membrete recurrente sometiendo los dos términos a un forzoso hermanamiento, al que ya
se ha dedicado algún espacio en el capítulo anterior, y que pretende actuar como una
especie de reclamo conjunto. Este hermanamiento no es ajeno a la pretensión de
considerar a la tecnología como la técnica hecha a partir de la ciencia, con lo que la
afinidad entre lo que significan los dos términos sería inevitable. Algo así sucede con la

99
Para más información consúltese: http://dialnet.unirioja.es/descarga/articulo/2499438.pdf.

114
voz sintética tecnociencia, a su vez muy apreciada también en los llamados estudios
sociales de la ciencia.
La conjunción de la ciencia con la técnica, bajo el envoltorio promocional de «ciencia y
tecnología», es una propuesta que ha sido pregonada con tanta insistencia que podría
caerse en la tentación de aceptarla; pero la dilución de la identidad de cada uno de estos
dos modos de quehacer sería nefasta, tanto para la ingeniería como para la misma ciencia
y por tanto para la sociedad. Con ello todos pierden: los científicos lo que han tenido por
una de sus grandezas: la libertad de investigación; y los ingenieros su propia
especificidad, al quedar reducidos a un papel subalterno. El éxito en cada una de estas
actividades se mide con parámetros bien diferentes, por lo que se corre el riesgo de que se
apliquen a una de ellas los cánones propios de la otra, que es lo que sucede cuando se
analiza el distinto papel que juegan las publicaciones en los dos dominios —como se ha
visto en el capítulo anterior—; o, por otra parte, se exigen aplicaciones prácticas
imperiosas a la investigación científica. Y así, el supuesto solapamiento amenaza con
desdibujar las virtudes propias de cada una de ellas, las cuales poseen sus respectivas
peculiaridades, sus normas diferenciadas, que conviene mantener autónomas e
independientes para que las dos puedan seguir alcanzando los mismos objetivos que las
han definido en el pasado y que la propia sociedad demanda de ellas, aunque estén
sometidas en cada época a un permanente proceso de revisión actualizadora. La fecunda
simbiosis de la que se ha hablado al final del capítulo VI no impide la autonomía de las
dos formas de actuación, como ya se decía allí.
En fin, y siguiendo con lo anterior, conviene reseñar que en nuestra época se está
produciendo una acalorada defensa de la conservación de la diversidad en distintos
dominios, como el biológico o el cultural, pero por lo que respecta a la ingeniería parece
promoverse un movimiento de signo contrario: se trata de diluirla en un totum revolutum
en el indefinido campo de la denominada «ciencia y tecnología». De este modo parece
relegarse el proceder original de nuestros remotos ancestros cuando, en su afán por
sobrevivir, supieron desplegar la potencia de la mente humana, en conjunción con sus
ágiles manos, creando la técnica, con la que se enfrentaron a un medio hostil y
desencadenaron, con su ingenio y su destreza, con su imaginación y su habilidad para
manipular y reconducir el mundo natural —virtudes heredadas por los ingenieros, y por
los técnicos en general, y que contribuyen a definirlos––, la larga senda de Homo faber
para sustituir el mundo salvaje por otro mucho más hospitalario y confortable en el que
fuese posible vivir una vida más agradable y más fructífera en la insaciable búsqueda de
la felicidad.

¿Están adoptando en nuestro tiempo los científicos los fines de los


técnicos?
Según se ha visto, en los siglos XIX y parte del XX, en los ambientes académicos se
admitía que la superioridad de la ciencia con respecto a la técnica se producía tanto en
cuanto a jerarquía intelectual como en cuanto a dependencia funcional; pues se daba por
descontado que después de la inflexión que dio lugar a la Revolución Científica de la
Edad Moderna la ciencia sería la que marcaría la ruta a la ingeniería. Pero en nuestros
días, aunque se pretenda conservar la preeminencia asociada al rango intelectual, se
acepta, incluso en medios reacios a ello, que esa relación se está invirtiendo en lo que se
refiere a la dependencia funcional, y es la técnica (lo que pretende primariamente
satisfacer algún objetivo concreto y aplicado de tipo práctico) la que está estableciendo la

115
agenda a la ciencia100. Después de la Segunda Guerra Mundial, como se ha indicado en
páginas anteriores, una parte de los científicos se ha sentido atraída por los sustanciosos
proyectos en los que prevalece la utilidad, olvidando, o al menos postergando, las metas
tradicionales a las que sus antecesores habían dedicado sus mejores esfuerzos: el saber
altruista y contemplativo. Esto se pone especialmente de manifiesto cuando se considera
cómo la biología ha arrebatado a la física el reinado de la ciencia. En efecto, la primera
está respaldando tareas de gran repercusión práctica, como son los transgénicos, las
biotecnologías, la genómica, las aplicaciones a la medicina, la ingeniería tisular, entre
otras numerosas líneas de investigación; mientras en la ciencia física han sido
dominantes, especialmente hasta la primera mitad del siglo XX, cuestiones más abstractas,
aunque se observa una cierta reorientación en temas tales como las nanotecnologías, los
nuevos semiconductores, el grafeno, que aportan nuevos componentes con los que se
pueden hacer artefactos, o llevar a cabo actuaciones ingenieriles, hasta entonces
impensables.
Todas estas líneas de investigación están inspiradas en la búsqueda de resultados
científicos de los que previsiblemente se derivarán posibles y apetecidas aplicaciones.
Así, una parte significativa de la ciencia, en nuestros días, parece estar inspirándose, al
buscar temas de investigación, en objetivos considerados hasta ahora como propios de la
técnica por su carácter aplicado, aunque se proceda, al indagar en esos temas, de una
manera consistente con las normas tradicionales en el mundo científico. Por tanto, esa
ciencia tiene que hacer compatibles las exigencias del método científico convencional
con la búsqueda de objetivos prácticos (acaso por eso los que la practican defienden la
acepción de la voz tecnología que les garantiza un terreno propio en el que coexistan
metas consideradas tradicionalmente dispares e inalcanzables al mismo tiempo. De
acuerdo con esa acepción, como se recordará, la tecnología sería la técnica que deriva
directamente de la ciencia, o incluso la que hacen los mismos científicos). Con relación a
los que hacen esa ciencia cabe preguntarse: ¿entre sus ambiciones, cuál es dominante,
publicar un artículo en una revista de gran impacto científico o resolver primariamente
problemas prácticos y lucrativos101? (Puede que pretendan alcanzar al mismo tiempo las
dos metas, aunque resulta inevitable que exista una prioridad relativa entre ellas, pues
deben recordar lo dicho respecto a la persecución simultánea de dos liebres). Sin olvidar
que el pretendido objetivo configura el método empleado para alcanzarlo.
En realidad, lo que pretenden esos científicos es hacer una especie de ciencia aplicada
inducida, en el sentido de elaborar una ciencia, con todas las exigencias metodológicas
habituales, pero inspirada en cuestiones de orden práctico y cuyo fin es convertirse en
aplicada; lo cual presenta alguna semejanza con lo que hacían tradicionalmente los
ingenieros cuando carecían de basamento científico convencional para lo que trataban de
hacer; aunque ahora los científicos lo hagan con verdadera ambición científica,
persiguiendo en sus resultados la plena homologación y compatibilidad científica de los
logros alcanzados, como es propio del canon al que se someten, y no se conforman con
que estén restringidos a un caso concreto, como han hecho siempre los ingenieros, que
han tenido menor ambición epistémica —interesa recordar ahora, de nuevo, el túnel
aerodinámico de los Wright, como muestra de una investigación ingenieril de objetivos
concretos y limitados.

100
Paul Forman, «The primacy of science in modernity, of technology in postmodernity, and of ideology in
the history of technology», History and Technology, 23 (1), 2007: 1-152.
101
Davis, Michel (1998). Thinking like an Engineer, p. 15.

116
Los científicos que proceden así tratan de forzar la consigna baconiana: las aplicaciones
prácticas son el resultado de algún conocimiento básico, a cuyo desvelamiento ellos se
aplican motivados por esas mismas aplicaciones. Son, asimismo, los que propugnan el
maridaje de ciencia y tecnología, que ya se ha discutido en el apartado anterior.
Igualmente, hay que mencionar que algunos ingenieros académicos actúan de manera
semejante, aunque sus orígenes suelen afectar a sus modos de proceder, lo que determina
que en la investigación de éstos tenga menor peso la pretensión de universalidad de sus
logros. Pero, entre tanto, el grueso de la ingeniería discurre por las vías acostumbradas,
aunque sin perder de vista las oportunidades que ofrecen esos nuevos conocimientos y
productos, de los que se vale para llevar a cabo sus funciones específicas usuales.
De este modo, en la actualidad, muchos científicos participan directamente en la
elaboración del mundo artificial (indirectamente lo han hecho siempre), participando en
los equipos multidisciplinarios en los que se hace la ingeniería moderna, aunque hay que
mencionar que normalmente intervienen solo en las primeras etapas, si bien su
participación puede abrir, en determinados casos, nuevas y feraces vías de innovación:
cuando se acierta en lo básico los efectos pueden traer gran progreso.
Así pues, los casos que se han mencionado más arriba, al final del primer párrafo de este
apartado, son muestras de los cambios que se están produciendo a principios del siglo
XXI, cuando una parte significativa de los científicos adopta lo que había sido uno de los
rasgos distintivos de la investigación técnica: el estar orientada a la consecución de
objetivos concretos y aplicados. ¿Se está transformando la tradicional consideración de la
técnica como ancilla scientiae en un nuevo escenario en el que la ciencia adopta el papel
de ancilla technicae? (En el primer caso la servidumbre era respecto a los conocimientos
y en el otro con relación a los fines). ¿Se están convirtiendo los problemas considerados
tradicionalmente como propios de los ingenieros —o de los médicos—en el manantial
predilecto que nutre de temas de investigación a los científicos? ¿Está adoptando la
ciencia un papel subalterno al ubicuo mundo de la técnica? El uso intensivo de aquella
con finalidades en las que son patentes las metas utilitarias como primera pretensión —y
no secundariamente, como sucede cuando se hace investigación fundamental y se mira
luego con el rabillo del ojo a ver si se encuentra alguna aplicación lucrativa a los
resultados básicos previamente obtenidos— adquiere intensidad a partir de los años
ochenta y ha sido considerada por el físico reconvertido en historiador de la ciencia, Paul
Forman (1937-), como una muestra de una transformación cultural de amplio alcance 102,
característica de nuestra época. La ciencia, como el resto de las actividades humanas, está
sometida a un fuerte componente cultural, pues se tiende a hacer la ciencia que demanda
la sociedad en un momento dado.
Para Forman, en nuestro tiempo se desdeña lo abstracto y general en favor de lo utilitario,
práctico e instrumental, todo lo cual se sitúa en un dominio más propio de la técnica que
de la ciencia, de modo que la primera se convierte en una motivación para la actividad
científica. En consecuencia, la simbiosis a la que se aludió al final del capítulo VI
adquiere, en la actualidad, características peculiares, matizadas por lo que ahora se está
viendo.
Con todo ello, se está produciendo una reorientación de una parte considerable de la
investigación científica desde objetivos definidos libre y especulativamente, con
discrecionalidad absoluta por parte del investigador, hacia otros promovidos por
necesidades de carácter aplicado; es decir, en los que lo útil es la principal motivación,
aunque a veces resulte encubierto. Ello es así hasta el extremo de que en la justificación

102
Paul Forman, Op. cit.

117
de las inversiones en ciencia ocupa un lugar destacado su posible valor para el progreso
técnico. Una muestra de eso es que se pide a los científicos, en las convocatorias de
proyectos de investigación con financiación pública, que hagan explícitos los beneficios
en forma de aplicaciones que estiman que se derivarían de sus resultados —se ha puesto
de moda en los medios científicos, y también en los políticos, llamar transferencia del
conocimiento a ese proceso, cuando en realidad lo que hay que transferir es la técnica, el
saber utilizable. No obstante, a muchos de ellos, la investigación con objetivos prácticos
predeterminados les produce gran frustración, pues con frecuencia tienen que abandonar
las posibilidades que se apuntan en hallazgos científicos inesperados y prometedores que
se presentan a lo largo del proceso investigador, y que a ellos les resultan llamativos, pero
que acaban por desatender para concentrarse en la finalidad concreta de aplicación
práctica que subyace al conjunto del trabajo y que está en el origen de las anheladas
financiaciones. Asimismo, tienen que soportar una gran presión en la búsqueda de
resultados inmediatos, lo que les resulta poco compatible con la serenidad requerida para
las genuinas indagaciones científicas. Todo esto produce una cierta turbación en muchos
de ellos, pero es un claro indicio de los cambios radicales que se están produciendo en la
forma de enjuiciar las correspondientes actividades.

De esta forma, aunque haya protestas en sentido contrario, nos encontramos inmersos en
un tiempo que presenta unos rasgos sensiblemente diferentes a los de siglos pasados. En
esa época se repudiaba que el fin justificase los medios empleados para alcanzarlo,
mientras que en nuestros días, por el contrario, el fin se invoca como justificación de la
actuación incluso en el ámbito de la ciencia, aunque haya sido en el de la técnica en el
que, por su propia naturaleza y desde siempre, el fin respalda los medios empleados. El
filósofo de la ciencia Paul Feyerabend 103 (1924-1994) postulaba que en el método
científico «todo vale». Sin embargo, es en el dominio de la técnica, donde lo instrumental
es dominante, en el que esa afirmación es incuestionable. La técnica se nutre de todo lo
disponible para alcanzar sus fines predeterminados, y es la eficacia y la eficiencia con las
que se alcanzan esos fines lo que permite evaluar la bondad y adecuación de los recursos
empleados y del resultado alcanzado.

Por otra parte, los ingenieros de todos los tiempos han tenido en cuenta aspectos que no
han interesado a los científicos convencionales, como son la organización de la
producción, el control de calidad, cuestiones presupuestarias o económicas y de
comercialización. Pero, en nuestros días, no pocos científicos (como el mencionado
Shockley) asumen plenamente esas labores. La cuestión es: ¿siguen siendo lo que durante
los dos últimos siglos se ha entendido como científicos? En todo caso, entre los que
mantienen la antorcha de los científicos tradicionales los hay que se preguntan:
¿desaparecerá la ciencia tal como la hemos conocido, como buscadora incansable de la
verdad, como primera y predominante opción? ¿Quién se ocupará entonces de la
exploración libre y desinteresada de nuevas propiedades del mundo natural? Se dice a
veces que estas últimas ya se conocen suficientemente, pero con esta afirmación se ignora
la multitud de dominios en los que aún se carece de un conocimiento básico: por citar un
caso, la neurociencia. Al mismo tiempo, y en paralelo, surge la cuestión: ¿depende la
posibilidad de innovación técnica exclusivamente del descubrimiento por los científicos
básicos de propiedades desconocidas del mundo natural? Aunque sea indiscutible que el
desvelamiento de propiedades ignoradas abre posibilidades inéditas hasta entonces al
ingeniero, ¿su genuino espíritu creador se reduce únicamente a esperar nuevos
103
Paul Feyerabend, Contra el método.

118
descubrimientos científicos y a explotarlos a posteriori? ¿O más bien se vale de ellos,
cuando ya están disponibles, para llevar a cabo los originales y creativos proyectos en los
que está embarcado, y que son los propios de su profesión?

Sucede que se está produciendo el deslizamiento de la ciencia desde la satisfacción de la


curiosidad desinteresada a la búsqueda prioritaria de lo útil, lo que es desechado por
aquellos científicos que lo consideran una degradación o una perversión de la excelsitud
de su labor, en tanto que pulcra aventura intelectual. Para éstos la pura belleza de la
ciencia basta y sobra para practicarla. Lo demás, si fuera el caso, se daría por añadidura.
Pero a mediados de la pasada centuria, un pensador como Xavier Zubiri (1898-1983) ya
recelaba de que, en esos tiempos, «la función intelectual se mide tan solo por su utilidad,
y se tiende a eliminar los restos como simple curiosidad. De esta suerte, la ciencia se va
haciendo cada vez más una técnica»104. Y más adelante añadía: «El homo sapiens ha ido
cediendo el puesto […] al homo faber» 105 . Zubiri, un filósofo —un amante de la
sabiduría—, no ocultaba su inquietud por una cesión que cuestionaba la primacía del
mundo del saber, con lo que se trastornaba un orden en vigor desde los orígenes del
pensamiento occidental, allá en el mundo griego, especialmente de la mano de Platón.
Está claro que a Zubiri no le gustaba nada lo que estaba viendo. Posiblemente, menos le
hubiese gustado lo que vendría después, a fin de siglo y principios del siguiente, cuando
la búsqueda preponderante de lo útil está prevaleciendo sobre otras consideraciones más
contemplativas. En el fondo, la cuestión estriba en cuál es la relación primaria que
tenemos con las cosas: la de su uso o la de su conocimiento.

Tercera parte

104
Xavier Zubiri, Naturaleza, historia, Dios, p. 21.
105
Xavier Zubiri, Op. cit. p. 39.

119
Ingeniería y sociedad

Capítulo IX.- Formación y ejercicio profesional de los


ingenieros
Ingeniería y profesión
La primera parte de este libro se ha dedicado a relatar algunos hitos destacados de la
gestación de la ingeniería, y la segunda a indagar sobre lo que identifica a ese modo
radical del quehacer humano. Ahora se aborda la tercera, con un contenido quizá más
laxo, pero que acaso valga para desempeñar el papel de colofón, más allá de las
cuestiones técnicas consideradas hasta aquí. En este capítulo se van a exponer algunos
asuntos relativos tanto a la vida profesional de los ingenieros como a aspectos referidos a
su formación y también, de forma un tanto tangencial, a hechos marginales de incidencia
en algún momento histórico. En conjunto se trata de temas que, aunque resulten un poco
dispersos, pretenden complementar lo dicho hasta ahora. Algo análogo sucede con el
120
capítulo siguiente que, por las especulaciones contempladas en él, es posible que
desborde el cauce mantenido en este libro y concite desacuerdos por su carácter de
reflexión sobre cuestiones que sobrepasan lo tratado hasta aquí. En todo caso, el lector al
que no le interese cualquiera de estos dos capítulos puede saltárselo sin merma del resto
del libro.

Los ingenieros forman una insólita profesión. Como se ha insistido en páginas anteriores,
tienen un papel destacado entre los forjadores del mundo artificial. Los artificios que lo
pueblan han sido concebidos, construidos y están mantenidos en gran medida por ellos,
en lo que constituye la médula de su actuación profesional. Son herederos directos de las
actividades técnicas que se remontan a los primeros pasos dados por el género Homo
sobre la tierra; han existido, de una forma u otra, en todas las civilizaciones; y sin
embargo, al contrario de lo que sucede con otras profesiones, como la medicina, no han
alcanzado el rango de profesión plenamente asentada hasta épocas relativamente
recientes (en realidad hasta el Renacimiento, y aun entonces de forma incipiente). La
figura del ingeniero que se apunta en la antigüedad, constructor de grandes obras civiles,
se refuerza, en tiempos modernos, con la aparición de las grandes factorías en las que la
labor ingenieril adquiere nuevas dimensiones.

Es frecuente que la carrera profesional de un ingeniero lo conduzca hacia puestos de


dirección y gestión, en los que ejercita su capacidad para, por una parte, comprender y
emplear las distintas tecnologías involucradas en el proceso productivo y, por otra, para
desenvolverse en las organizaciones empresariales correspondientes, lo cual es esencial
para que esas organizaciones desempeñen su función. Los ingenieros accedieron, en su
día, a los escalones superiores de la empresa, modificando la cultura de las corporaciones
correspondientes. Pero esto está cambiando con el predominio del mundo financiero de
nuestros días, lo que determina que los puestos de dirección de las grandes empresas
estén siendo ocupados por expertos en finanzas y en aspectos legales (economistas y
licenciados en derecho). Entre los mismos ingenieros no faltan los que consideran su
profesión como una puerta de acceso al mundo de los negocios (no es extraño que hagan
un máster en administración de empresas —MBA son sus siglas en inglés). Los
problemas específicos en los que los ingenieros están versados se están relegando a un
nivel inferior, aunque esos problemas sean los que soportan el conjunto de la actividad
productiva.

Es posible que la ingeniería tradicional, entendida como una profesión cuya misión
fundamental era aprovechar las fuerzas de la naturaleza, esté desdibujándose, al
convertirse su ámbito de actuación en un mundo híbrido, en el que intervienen factores de
índole muy variada. La ingeniería se está modificando en la medida en que su objetivo
principal está dejando de ser la exclusiva reconducción de los fenómenos naturales, para
además ocuparse de la gestión del mundo artificial en el que algunas de las cualidades del
ingeniero, tanto su conocimiento de las tecnologías involucradas como sus dotes de
liderazgo y de organización, son imprescindibles.

Se espera del ingeniero que sea ecuánime, esté bien informado y conozca los problemas
de los que se ocupa. La profesionalidad consiste en ser eficaz en la rama de actividad
correspondiente, pero a las empresas que contratan ingenieros también les atraen otras
cualidades personales como la iniciativa, la capacidad de liderazgo y la predisposición a
llevar a cabo un trabajo duro. Los ingenieros, por la propia naturaleza de su trabajo,
suelen tener un punto de vista cargado de optimismo, según el cual todo problema puede

121
resolverse de forma satisfactoria si se pone el empeño necesario y se dispone de las
herramientas adecuadas, y además se acierta en formular las cuestiones pertinentes.
También deben asumir como virtud profesional distintiva la lealtad con los destinatarios
de su trabajo, sea el público en general o las empresas para las que trabajan. Esto puede
conducir a dilemas, ya que estos dos objetivos a veces no pueden conciliarse
armoniosamente.

Por otra parte, no hace demasiado tiempo, el ingeniero, al finalizar sus estudios, todavía
aspiraba a encontrar un puesto de trabajo lo más estable posible que le garantizarse una
vida profesional permanente en el seno de una gran organización. El número de los que se
dedicaban a crear su propia empresa, o a ejercer como consultores, no era, ni mucho
menos, mayoritario. La tradicional vinculación de los ingenieros a grandes empresas
tenía gran estabilidad, de modo que la identidad de esos profesionales se asociaba a su
lealtad a esas empresas. Se establecía una recíproca adhesión entre la empresa y los
ingenieros —eso sucedía también con el resto de la plantilla, que solía jubilarse en la
misma empresa en la que empezaba a trabajar.

En la actualidad el panorama ha cambiado drásticamente y el mundo profesional ha


alcanzado una gran fluidez, hasta convertirse en efímero. Las carreras profesionales están
adquiriendo una enorme imprevisibilidad. Los ingenieros han tenido que aprender que
están sometidos, en su labor profesional, a las inflexibles leyes del mercado; y así han
dejado de vincular su vida profesional a una única empresa u organización, con lo que esa
vida puede haberse convertido en más interesante y enriquecedora ––frente a la monótona
actividad de sus mayores––, pero se encuentra expuesta a riesgos, especialmente cuando
se alcanzan ciertas edades. Todo lo cual ha determinado que el ingeniero tenga que
fomentar su autonomía para encauzar su identidad profesional; que ya no es algo estático,
sino que varía con el tiempo.

Las Escuelas de ingenieros francesas


Durante el siglo XVIII empiezan a despuntar lo que serán los dos modelos europeos de
ingeniero civil (en sentido estricto de no militar): el inglés por un lado y el continental,
principalmente francés, por otro. Los ingenieros ingleses promovieron la Revolución
Industrial, y aunque no necesariamente tenían una formación superior especializada,
extrajeron sus conocimientos de la experiencia y alcanzaron una gran competencia
técnica que está en las raíces de esa revolución. Por otra parte, en la Europa continental, y
particularmente en Francia, el ingeniero adquirió una imagen marcadamente elitista, con
una sólida formación científica, en especial matemática, a partir de una estricta selección
que permitía al Estado dotarse de cuerpos de funcionarios altamente cualificados y
competentes para vertebrar sólidamente la naciente estructura económica burguesa.

El mundo moderno europeo surge pues con dos puntos de referencia. Por una parte
Inglaterra, donde se gesta la Revolución Industrial, y que es asimismo la cuna del
pensamiento liberal y donde se implanta progresivamente el parlamentarismo. Por otra
parte, en el otro extremo, se sitúa el absolutismo francés que puso de manifiesto cómo
bajo la dirección del Estado era posible modernizar un país. En el absolutismo la
modernización se impone desde arriba, mediante el llamado despotismo ilustrado. Esta
forma de gobierno resultó muy atractiva para gran parte de los monarcas de la Europa
continental, en particular Prusia, Austria y Rusia, además de España, en especial durante
122
el reinado de Carlos III. Es notable y paradójico que el absolutismo acabase
desembocando en la Revolución francesa.

En el despotismo ilustrado, para sustentar el centralismo estatal era necesario disponer de


profesionales cualificados, entre los que los ingenieros ocuparon un lugar prominente. En
Francia adquieren un papel destacado estos profesionales. Ya en siglo XVII, uno de los
más influyentes ministros franceses de Luis XIV (1638-1715), Jean-Baptiste Colbert
(1619-1683), había instaurado la formación técnica superior como instrumento decisivo
para la prosperidad del país. No hay que olvidar que precisamente durante el XVII nace en
Francia el Estado centralista burocratizado, en cuya cúspide se sitúa el monarca absoluto
(«l’État c’est moi», proclamó Luis XIV). El fomento de las obras públicas recibe un
fuerte impulso, por lo que la necesidad de ingenieros se hace especialmente apremiante.
De este modo, las necesidades de su formación dieron lugar a las escuelas de ingenieros,
en un sentido que empieza a parecerse al que se emplea en nuestros días.

Desde la antigüedad se sabía que el ejército necesita fortificaciones para defenderse,


calzadas para trasladarse rápidamente adonde se le requiera, puentes para cruzar los ríos y
habilidad para minar las fortificaciones enemigas, así como artefactos bélicos basados en
una técnica elaborada. Para responder a estos problemas surgieron los Cuerpos de
ingenieros militares (en España, en 1711). Paralelamente, el mundo civil necesita
soluciones similares (calzadas, puertos, edificaciones, minas para la extracción de
minerales, etc.) y requiere también personal cualificado para emprender esas labores. Por
ello, en 1716 se estableció en Francia un cuerpo de ingenieros, esta vez civiles, el Corps
de Ponts et Chaussées, para construir y mantener los puentes, calzadas y canales de la
nación. Lo mismo que los ingenieros militares, los ingenieros civiles franceses fueron
objeto de respeto en el resto de Europa, que se apresuró a imitarlos. De hecho, el país galo
estuvo dotado de un sistema de formación de ingenieros que durante el siglo XVIII y buena
parte del XIX era considerado el mejor del mundo, o al menos el más prestigioso.

De este modo, en el siglo XVIII se desencadena en Francia un proceso paulatino de


establecimiento de escuelas de ingenieros. La más famosa fue la des Ponts et Chaussées,
fundada por Jean Rodolphe Perronet (1708-1794), durante el reinado de Luis XV
(1710-1774). La formación en esta Escuela estaba basada en lo que se estimaba que debía
ser la actividad propia del ingeniero en la segunda mitad del siglo XVIII: en primer lugar,
concebir y representar las obras que se tiene intención de ejecutar; después, planificar y
coordinar los medios para llevarlas a buen término; y, por último, contribuir a su
mantenimiento y al desempeño eficiente de su función.

La formación de los ingenieros en la Escuela de Perronet tenía un carácter


fundamentalmente pragmático, con un fuerte componente artístico, herencia del
ingeniero renacentista. Este punto de vista es cuestionado durante la Revolución francesa,
que propugna un ingeniero que sea más sabio que artista, por lo que la Convención funda
la École Polytechnique de París, el 11 de marzo de 1794, a partir de una iniciativa de
Lazare Carnot (1753-1823) y de Gaspard Monge (1746-1818). En ella impartieron
enseñanza profesores que se contaban entre los más grandes matemáticos, físicos y
químicos de la época, como Lagrange, Monge y Berthollet, y allí estudiaron Biot,
Gay-Lussac, Cauchy, Fresnel y Navier. La pretensión básica que promovió la Politécnica
fue la de establecer una gran Escuela única en la que recibieran formación en las materias
científicas básicas y comunes todas las clases de ingenieros. De hecho, en la Escuela
Politécnica se gesta el ingeniero moderno con una sólida formación en ciencia. Desde

123
entonces la ingeniería sufre adherencias del cientificismo. Sus estudios, aunque tenían
como objetivo final las aplicaciones prácticas, estaban precedidos por la adquisición de
unos conocimientos científicos de gran calidad.

El sistema francés de escuelas de ingenieros fue adoptado, con variantes más o menos
apreciables, por el resto de la Europa continental, incluida España. La excepción a esta
tendencia se produce en Inglaterra, donde los estudios de ingeniería no alcanzan el mismo
nivel que en el continente, aunque sí el ejercicio de la actividad profesional
correspondiente que logra en ese país una excepcional notoriedad.

La formación de los ingenieros británicos y americanos


Durante los siglos XVIII y XIX los ingenieros británicos, los artífices de la Revolución
Industrial, se formaban generalmente mediante un proceso de aprendizaje ajeno a centros
de enseñanza superior y a las universidades. Los futuros ingenieros mecánicos
comenzaban a menudo su carrera ejerciendo como aprendices en un taller, después se
convertían en obreros maquinistas, y por fin en ingenieros. Los conocimientos de
mecánica teórica eran, en esa época, muy rudimentarios para fundamentar las reglas
empíricas de construcción de máquinas y de obras civiles, pese a intentos precursores,
como los de John Smeaton (1724-1792), impulsor de la Institution of Civil Engineers,
fundada en 1818, y una figura notable en la historia de la ingeniería.

A Smeaton se le considera uno de los primeros ingenieros, en sentido moderno, que hubo
en Inglaterra. Es un claro promotor de la sustitución de los métodos tradicionales de
diseño de máquinas empleados por los artesanos, por otros que pretendían estar más en
consonancia con el nuevo espíritu científico que estaba fraguando tras la Revolución
Científica del XVII. Smeaton había iniciado su vida laboral fabricando instrumentos de
precisión para la astronomía (otra de sus grandes dedicaciones). Esos trabajos le
permitieron mantener una gran familiaridad con los mecanismos de precisión, por una
parte, y por otra con las leyes de Newton de la gravitación universal. La relación entre las
mediciones de la posición de los planetas y el cálculo de estas posiciones a partir de un
cuerpo teórico le produjo una enorme fascinación e intentó trasladarlo a la construcción
de máquinas. Fabricó a escala de laboratorio modelos de ruedas hidráulicas a las que
sometió a cuidadosos experimentos, modificando su forma y las relaciones entre sus
partes hasta conseguir incrementar su eficacia. Para ello, Smeaton desarrolló cuidadosos
cálculos, ponderando los distintos factores que intervenían en el funcionamiento esos
ingenios y tratando de optimizar la energía obtenida. De este modo, aplicó al diseño de
máquinas hidráulicas métodos similares a los que los científicos estaban aplicando al
análisis de los fenómenos naturales, contribuyendo de forma pionera al estudio científico
del mundo artificial. También se interesó por la máquina de vapor, aunque en este
dominio fue sobrepasado por James Watt, con quien mantuvo grandes litigios por este
asunto.

Es curioso reseñar que en Inglaterra, pese a ser el país donde se inventaron y desde donde
se difundieron las máquinas que sustentaron la Revolución Industrial, no se produjo un
movimiento de sistematización de los conocimientos sobre diseño de máquinas —acaso
para proteger esos inventos—, como se hizo en la Politécnica parisina, más sensible a la
universalidad de los conocimientos y a la ciencia (recuérdese el libro de Lanz y
Betancourt, mencionado en el capítulo I). Ya se ha visto cómo Smeaton aspiró a calcular
las máquinas, pero no escribió ningún tratado sobre ello. Simplemente se limitó a llevarlo
a la práctica en la medida de lo posible. De hecho, en la propia Inglaterra se empleó
124
traducido al inglés el libro de Lanz y Betancourt, cuya primera edición en esa lengua es de
1820, además de otros libros también de origen francés. Entre las primeras obras inglesas
que se ocupan de estas cuestiones hay que destacar la de Thomas Young (1773-1829)
Lectures on Natural Philosophy and the Mechanical Arts, publicada en 1807, y cuyo
título es suficientemente expresivo de su pretensión de aunar ciencia (filosofía natural) y
técnica (artes mecánicas). En todo caso, conviene mencionar que no existe ningún
parecido entre los estudios en las Grandes Écoles francesas y los correspondientes a los
Polytechnic Institutes británicos, que en la actualidad han recibido la denominación de
universidades.

Algo análogo sucedió con la formación de los ingenieros americanos. Los casos de
Frederick Taylor, William Sellers (1824-1905) y Thomas Edison son representativos al
respecto. Los dos primeros, aunque pertenecían a grandes familias de Filadelfia,
empezaron como aprendices en empresas de máquinas herramientas, antes de convertirse
en reputados ingenieros. Los tres eran autodidactas y se habían formado en un saber hacer
en gran medida empírico y no entendían gran cosa de la ciencia física de la época. Taylor
decía que los ingenieros diplomados en la universidad no tenían la fuerza ni el carácter ni
la competencia de aquellos que, como él mismo, se habían formado en el taller. En ciertas
industrias, como la del automóvil, la formación por aprendizaje en las propias factorías
persistió hasta bien entrado el siglo XX. En las factorías de Ford, los magos de la mecánica
que rodeaban al patrón no habían ido nunca a la universidad y se jactaban de ello.
Además, el término ingeniero no se asociaba a una formación codificada y rigurosa
sancionada por un diploma, sino a una función en el proceso productivo, a un saber hacer
práctico de mecánico ingenioso, junto con las dotes necesarias para la coordinación del
trabajo en el seno de una organización industrial.

Por otra parte, en Estados Unidos, aunque el ingeniero dominante fue el anglosajón,
también estaba en vigor en algunas instituciones, especialmente en las escuelas militares,
un enfoque más teórico, inspirado en el modelo francés. En el ejército americano se había
creado, en 1794, un Cuerpo de ingenieros y de artilleros en West Point, con unos estudios
inspirados en la École Politechnique de París, Escuela de la que adoptó el estilo, los
métodos de enseñanza e incluso muchos de sus textos. En cuanto a la Escuela naval
americana, fundada en 1845, tuvo en la ingeniería mecánica un papel semejante al que
estaba jugando West Point respecto a la ingeniería civil. Los oficiales de marina siguieron
en los años 1860 los primeros cursos de mecánica racional y otras asignaturas que en
aquellos momentos no eran habituales en la universidad americana.

A partir de mediados del siglo XIX se abrieron departamentos de ingeniería en las grandes
universidades americanas y se crearon otras especiales para ingenieros, como el MIT, en
1861 y en el entorno de Boston (Massachusetts, EE.UU.). Este centro había sido fundado
por un grupo de reformadores ilustrados y abolicionistas que pretendía promover «las
ciencias prácticas» en contraste con las universidades tradicionales que no se ocupaban
de la educación técnica. Pero en el primer tercio del XX, como ya se ha visto en otro lugar,
empezó a crecer en ese centro una corriente de opinión que trataba de reconducir el
Instituto hacia la ciencia convencional, con la pretensión de que la mejor manera de
formar a los ingenieros, habida cuenta de que sus disciplinas estaban en evolución
permanente, era empezar por una formación científica lo más sólida posible, que les
sirviese a lo largo de toda la vida profesional —se estimaba que la ciencia, en aquella
época, era inalterable por su propia naturaleza. En realidad, sucedía algo parecido a lo que
primaba en la formación de los ingenieros en la Europa continental. Asimismo se decía

125
que una formación práctica es importante pero no esencial. Se aceptaba que los que
estaban bien formados en ciencia básica, tras unos años de trabajo en un entorno
industrial llegaban a ser los mejores ingenieros. En algunos casos, aún en la actualidad,
ciertos empresarios insisten en que las escuelas de ingenieros deben concentrarse en un
duro proceso de selección y una sólida formación básica, y que será la propia empresa la
que se encargará de acercarlos a las realidades industriales. Ese mismo procedimiento ha
sido imperante en España, especialmente hasta los años setenta del siglo pasado. La
doctrina subyacente a esta propuesta suponía que los ingenieros formados con ese criterio
acabarían por tener una gran ventaja a largo plazo, aunque tuvieran una cierta dificultad
inicial para adaptarse al mundo industrial. Sin embargo, esa propuesta requiere
importantes matizaciones, pues si bien es necesario que se adquiera una formación básica
en ciencia, también lo es obtenerla en las distintas tecnologías que confluyen en la
correspondiente rama de la ingeniería, de modo que no está claro qué se entiende por
formación básica.

En fin, en Gran Bretaña y en Estados Unidos la denominación de ingeniero carecía de


regulación rigurosa como sucedía en Francia o en España, donde el Estado jugaba —y
juega— un papel primordial en la formación, en la concesión de títulos y en la asignación
competencias. De hecho, en Gran Bretaña se recurrió a las Professional Institutions para
sancionar el ejercicio profesional de los ingenieros.

Otros estudios técnicos superiores en el siglo XIX


En el Imperio austriaco, la otra gran potencia continental del momento, fueron las
actividades mineras, y posteriormente la química, las que se cultivaron con preferencia,
dando lugar a centros de formación de ingenieros diferentes a los franceses, aunque
compartían con éstos el rigor de la enseñanza. Por citar un caso significativo, partiendo de
esos criterios se fundó en Schemnitz, en territorio húngaro, una Escuela de Minas que, en
1770, fue reorganizada como Real Academia Húngara de Minas.

Una mención especial requiere el caso alemán. En el siglo XIX, el ideal universitario está
recogido en el concepto de Wissenschaft, que transforma la universidad en centro de
investigación, al calor de la devoción por el saber elaborado a partir de la observación y la
experiencia, y sometido a unas exigentes normas de rigor —los distintivos de la
Revolución Científica del XVII. De ese culto se nutrió la ciencia decimonónica, y con ello
se liberó a la educación superior de la opresión del principio de autoridad y del
dogmatismo; y se fomentó la aceptación del saber cómo un sistema autónomo y abierto,
sin otras restricciones que la racionalidad y la contrastación experimental.

Hasta el XIX, en las universidades alemanas, como en casi todas las europeas — incluidas
las españolas—, la facultad de filosofía había representado una puerta de acceso a las
únicas facultades profesionales (medicina y derecho, además de la de teología, formadora
de eclesiásticos). Pero, a principios de ese siglo, el objeto de esa facultad se reconvirtió en
la búsqueda del saber por sí mismo, y no como requisito para esas profesiones. Cuando
empieza a cultivarse la ciencia en la universidad alemana, el mundo de la industria y de la
técnica era considerado con cierto desapego arrogante por esa misma institución. La
técnica no se admitía en el mundo universitario, sino que había sido relegada a las
Technische Hochschulen. En la Europa del XIX la educación técnica superior no caía
dentro del ámbito de la universidad, sino que se confinaba a centros sui generis como las
recién mencionadas escuelas técnicas superiores alemanas, así como las escuelas de

126
ingenieros francesas o españolas y los politécnicos ingleses —hay que aclarar, no
obstante, que las escuelas técnicas francesas y españolas, y de otros países europeos, eran
centros de un prestigio, incluso científico, superior al de la propia universidad.
Mientras en la corporación universitaria se favorecía cultivar el saber desinteresado, la
enseñanza y la investigación técnica son utilitarias, y ese interés especial por lo
primariamente aplicado no había sido edulcorado por siglos de tradición, como había
sucedido en las facultades de derecho y de medicina de las universidades tradicionales, lo
que había facilitado la aceptación por la universidad de estas facultades profesionales. Por
su parte, la técnica se nutre de la pretensión de tener «los pies en el suelo», y tiende a
desdeñar las cuestiones puramente contemplativas. Está sometida a influencias tanto de la
industria como de la propia administración pública, y pesa sobre ella la presión imperiosa
de producir resultados prácticos y beneficiosos a corto plazo. En nuestros días, en lo
relativo a la integración en la universidad de los ingenieros, se produce un fenómeno
análogo al que ocurrió en el siglo XIX con respecto a los científicos. En ese siglo los
científicos tuvieron que pujar por encontrar su lugar en esas instituciones tradicionales;
en el XX, los ingenieros se incorporan también a esa institución, aunque en este caso no
siempre sin reticencias. Sorprendentemente, y como se ha reiterado en ocasiones, pese a
las raíces de la humanidad en la técnica, el mundo del pensamiento, y con él el
universitario, ha manifestado tradicionalmente una pertinaz falta de sensibilidad hacia el
hecho diferencial e intelectualmente sustantivo de esta forma de quehacer humano.

Interludio
Vamos a desviarnos un momento de la línea principal que se está desarrollando en este
capítulo para detenernos en dos hechos que dieron su impronta al siglo XX: el
Modernismo reaccionario en Alemania y la Revolución soviética. Aunque este interludio
pueda romper una cierta linealidad en la narración, son dos muestras de la riqueza de
matices que acompaña a la historia de los ingenieros.

Durante el período de la República de Weimar la ciencia germana fue considerada por los
propios alemanes en términos predominantemente nacionalistas. El gobierno republicano
prestó un importante apoyo financiero a la investigación pura en física y matemáticas,
con claros objetivos políticos e ideológicos, con los que Alemania intentaba alcanzar
prestigio internacional en las ciencias básicas, como un sustitutivo del poder militar que,
debido al Tratado de Versalles de 1919, no podía desplegar.
Este país, aunque fuese promotor del espíritu racionalista de la Ilustración, fue también
foco del Romanticismo nacionalista. En él se desarrolló, en la primera mitad del siglo XX
y al calor del nacionalismo, lo que ha venido en denominarse el Modernismo
reaccionario, en el que la ingeniería desempeñó un papel decisivo —un fenómeno
análogo se manifiesta en Italia con el fascismo e incluso en la España franquista. Los
nazis implantaron un nacionalismo radical embebido de racismo pangermánico, con el
que pretendían instaurar una tercera vía frente al capitalismo liberal y al socialismo
marxista. La llegada de los nazis al poder se vio acompañada por una corriente dominante
que pretendía la conciliación de las ideas antimodernistas, románticas y poco afines con
el racionalismo, con la implantación de la racionalidad de medios y fines que preconiza la
técnica. De este modo, la ideología nazi surgió de una peculiar conjunción de los sueños
del pasado con una modernidad instalada en el más avanzado progreso de la ingeniería; es
decir, de una prolífica fusión del romanticismo con la técnica más elaborada. Esta
aproximación convivió con el profundo conflicto entre la componente mágica y
emocional del nazismo, y los procesos racionales de la industria moderna. El fenómeno

127
singular que se produjo en Alemania fue la aceptación de la técnica moderna por
pensadores que rechazaron la forma de la razón preconizada por la Ilustración. Esta
aceptación se desencadena en las universidades técnicas alemanas a principios del siglo
XX, promovida por muchos profesores de esos centros y por colaboradores de las revistas
publicadas por las asociaciones de ingenieros germanos. En un orden más amplio,
durante la época de la República de Weimar sobresalen los nombres de Oswald
Spengler 106 (1880-1936), Carl Schmitt (1888-1985) y Ernst Jünger (1895-1998), a los
que se sumaría más tarde Martin Heidegger (1889-1976), con sus propias peculiaridades.
La industrialización capitalista se produjo en Alemania sin una revolución burguesa en
paralelo. El propio concepto de Estado que en otros países occidentales, como Inglaterra
y Francia, se asociaba con democracia e igualdad, en Alemania seguía siendo autoritario
y antiliberal, dando lugar a la original senda despótica que adoptó la Alemania nazi para
alcanzar una modernidad diferenciada. Y así, pese a una ideología opuesta a la
modernidad, la puesta en práctica de un poder totalitario llevó a que los nazis se
convirtieran en innovadores radicales en el mundo de la ingeniería. Paradójicamente, la
Alemania romántica no rehusó la modernidad científica y técnica. El contraste
subyacente debería haber llevado a los ingenieros alemanes a advertir el carácter
irracional de la ideología nazi. Pero, con muy pocas excepciones, los practicantes de una
actividad imbuida de racionalidad aceptaron la dictadura alemana e incluso compartieron
su visión del mundo. De hecho, no se produjo ninguna revuelta significativa de los
ingenieros alemanes contra los ideólogos nacionalsocialistas, y todo hace pensar que no
encontraron grandes dificultades para acomodarse en el régimen nazi. Y así, el mundo de
la ingeniería consiguió alcanzar legitimidad en la sociedad germana sin sucumbir al
espíritu de la Ilustración. Como apunta Jeffrey Herf107:
El desarrollo industrial patrocinado por el Estado en ausencia de una fuerte tradición liberal en la
economía y en la política se reflejó en las ideas centrales y los ideales de los ingenieros alemanes desde
el decenio de 1870 hasta el de 1930.

Puede que se alegue que análogas circunstancias se dieron en España, con las
correspondientes correcciones de escala, durante el período autárquico del régimen
franquista, lo que no es ajeno al relativo descrédito del llamado «ingenierismo» de esa
época.

Por otra parte, en el inmenso experimento social que trató de ser la Unión Soviética se
produjo la gigantesca transformación de un gigantesco país mediante su industrialización,
con algún paralelismo a lo sucedido en la Alemania nazi. También allí la industrialización
se llevó a cabo en un régimen despótico y antiliberal. La vida de Peter Palchinsky
(1875-1929) ilustra las decepciones que se produjeron entre los ingenieros rusos en ese
proceso 108 . Este ingeniero había sido especialmente crítico con la enseñanza de la
ingeniería en la Rusia zarista, de inspiración netamente francesa. Para él, los planes de
estudio estaban sobrecargados de matemáticas y ciencias de lo natural ignorando casi por
completo la economía, lo que determinaba que los titulados en las escuelas creyesen que
106
Oswald Spengler es autor de una influyente, en su tiempo, obra titulada La decadencia de Occidente
(publicada originalmente en dos volúmenes, en 1918 y 1922) en la que negaba que la evolución de la
técnica estuviese conduciendo a un mundo mejor. Establecía un profundo contraste entre la tradicional
cultura occidental, imbuida de valores estéticos y morales, con la moderna civilización occidental,
encandilada por la producción y los logros de la técnica. Este autor, heredero del romanticismo alemán,
anteponía los atributos heroicos, como el honor y el deber, al culto a la razón de raíces ilustradas.
107
Jeffrey Herf, El modernismo reaccionario, p. 324.
108
Loren R. Graham, El fantasma del ingeniero ejecutado.

128
todo problema se reducía a su parte puramente técnica, lo que a su vez llevaba a suponer
que cualquier solución que incorporase los últimos adelantos era la mejor. Palchinsky
propugnaba que los ingenieros se reconvirtiesen en más pragmáticos, que valoraran todos
los aspectos de los problemas, incluidos los económicos y los sociales.

Acogió con gran optimismo y esperanza la revolución, pues consideraba que el nuevo
régimen soviético llevaba implícita la posibilidad de planificar la industria hasta un
extremo que excedía los más extravagantes sueños que hubiesen podido tener los
ingenieros en el período zarista. Creía que los ingenieros soviéticos, liberados de los
patronos capitalistas, estarían en disposición de tener mayor influencia que sus colegas de
ningún otro país; confiaba en que llegasen a desempeñar las mismas funciones que los
empresarios en el régimen capitalista; sostenía que el ingeniero debería convertirse en un
activo planificador económico industrial, aconsejando cómo debía producirse el
desarrollo económico y qué forma debería adoptar. Así, si se pedía a un ingeniero el
proyecto de una planta termoeléctrica, lo primero que debería plantearse es si esa forma
de generar la electricidad era la adecuada para el lugar elegido, o si era más conveniente
una gran presa hidroeléctrica por disponerse de recursos hidráulicos en las
inmediaciones. Según Palchinsky, correspondía al ingeniero participar en este tipo de
decisiones.
Con la Revolución bolchevique se mantuvo fiel a su idea de ingeniero socialmente
comprometido. Propugnó que los ingenieros fueran planificadores sociales al tiempo que
asesores técnicos. De este modo, las comunidades industriales soviéticas serían muy
superiores a las que habían surgido en torno a las fábricas y las minas bajo el capitalismo.
Sin embargo, la pretensión de situarse en el foco de la planificación social chocó
frontalmente con la determinación de Stalin, y el resto de los jerarcas soviéticos, de
concentrar todo el poder en sus manos. Se acusó a los ingenieros de alta traición y fueron
objeto de una depuración tan violenta que el colectivo de los ingenieros guardó silencio
en todo lo relativo a la política hasta el final de la Unión Soviética. La temeraria
discrepancia del propio Palchinsky con la política estalinista lo condujo al patíbulo.
Este interludio, más allá de una mera curiosidad histórica, aporta una muestra de las
variadas relaciones de los ingenieros con el conjunto de la sociedad, en particular cuando
ésta se aleja de los ideales ilustrados.

La formación de los ingenieros en España después de 1957


Los primeros centros de formación de ingenieros aparecen en España a principios del
Ochocientos siguiendo el modelo francés, con autonomía con relación a la universidad,
medio siglo antes de que se creasen las facultades de ciencias109. Y así continuaron las
cosas hasta que, en el año 1957, se promulgó la Ley de Enseñanzas Técnicas, llamada a
desencadenar un cambio sustancial en las correspondientes enseñanzas e incluso en el
propio ejercicio profesional de los ingenieros dedicados a los centros de enseñanza
superior. Esta ley creó el título de doctor ingeniero, y con ello se estableció un marco

109
Los estudios de ciencias en la universidad española no alcanzaron el rango de sección, dentro de la
facultad de filosofía, hasta 1844, con la ley Pidal; y de facultad propia hasta 1857, con la ley Moyano; y no
empezaron a funcionar de manera efectiva hasta que se reestructuraron en Secciones a principios del siglo
XX. Cuando se promulgó la ley Moyano ya se habían creado todas las escuelas de ingenieros
decimonónicas. La muceta del traje académico de Letras y de Ciencias conserva el azul, en un caso celeste
y en el otro turquí, como una reminiscencia de sus orígenes comunes (Manuel Silva, Uniformes y emblemas
de la ingeniería civil española).

129
adecuado para que las escuelas se convirtiesen también en centros de investigación, y no
solo de enseñanza, lo que dio lugar a cambios profundos en la forma de afrontar la vida
profesional por parte de los profesores de esos centros. Éstos habían sido
tradicionalmente profesionales destacados que dedicaban una pequeña parte de su tiempo
a la formación de los que serían sus futuros compañeros. La nueva forma exclusiva de
ejercer la enseñanza superior que impulsaba esa ley no contaba con el beneplácito de todo
el mundo. Se decía que con el método tradicional se lograba una transmisión del
conocimiento profesional de forma más efectiva y directa. Se temía que ese conocimiento
fuera imposible de transmitir por profesores que no ejerciesen la profesión. Eso es lo que
invocaban los detractores de la adopción por las escuelas de la dedicación exclusiva del
profesorado. Pero, a pesar de todo, se produjo una amplia mutación por la cual, y en pocos
años (aproximadamente de 1965 a 1975) se pasó de unos catedráticos y profesores
numerarios para los que no existía la dedicación exclusiva a que la práctica totalidad de
ellos adoptasen esa forma de dedicación.

Se suscitó entonces el temor de que los profesores, al tener dedicación exclusiva, se


distanciasen del mundo profesional, hasta caer en el desconocimiento directo de ese
mundo, lo que hubiese acabado repercutiendo negativamente en la enseñanza que
impartían, dejándola reducida a un conglomerado de ideas adquiridas en los libros, o todo
lo más en el laboratorio, sin contacto con la realidad del ejercicio profesional. Para paliar
ese grave problema se empezaron a desarrollar instrumentos administrativos con el fin de
que en esas escuelas se pudiesen llevar a cabo, de forma institucionalizada, proyectos con
empresas que facilitasen, entre otras cosas, la experiencia de su profesorado en el
ejercicio de la profesión, además de incidir directamente en el mundo industrial. Se dijo
entonces, que se trataba, en algún sentido y salvando las distancias, de emular a los
hospitales universitarios, en este caso para la formación de los médicos. Además, a través
de esas actividades se produce un primer contacto de los estudiantes que colaboraban en
ellas con el mundo profesional, lo que constituye un complemento cuya importancia para
su formación resulta de gran valor. Al final, se reguló legalmente la realización de esas
actividades, que han alcanzado una amplia implantación y están resultando cruciales en la
vida de las escuelas de ingenieros.

De hecho, la mayoría de los ingenieros que ejercen su profesión en las escuelas están
procurando revitalizar los vínculos que les faciliten el contacto con el ejercicio de la
profesión a través de colaboraciones con el mundo industrial como respuesta a la
necesidad de llevar a cabo una investigación ingenieril y, de paso, fundamentar la
formación de los ingenieros sobre una base más cercana a lo que es la práctica profesional
de la ingeniería. Igualmente cabe mencionar que en el mismo MIT, uno de los
tabernáculos de la ingeniería basada en la ciencia, se ha desarrollado el grupo conocido
con el acrónimo CDIO —conceive, design, implement, operate.

En este orden de cosas, la participación de estudiantes en la realización de proyectos


proporciona un aprendizaje de primera magnitud, pues, con ellos, se enfrentan a
situaciones en las que deben acometer problemas concretos, a los que deben aportar sus
propias soluciones, en un contexto en el que las respuestas a esos problemas no son
únicas. Además, fomentan el hábito del trabajo en equipo que proporciona al estudiante
una experiencia de gran interés formativo para el posterior ejercicio de la profesión. Es
muy posible que los futuros ingenieros tengan que integrarse en grupos
interdisciplinarios, en los que además se podrán encontrar personas con culturas
diferentes a la suya. Asimismo, deben ser capaces de asumir las normas que regulan su

130
actuación. La asunción de responsabilidades y la aceptación de riesgos convierten a la
ingeniería en un campo de especial relevancia para la ética profesional.

Por otra parte, si a los estudiantes se les prepara únicamente para obtener soluciones
primordialmente científicas a los problemas que tienen que afrontar, entonces su
preparación para la vida profesional será deficiente. En particular, deben aprender a
abordar dificultades que no estén bien definidas, a desenvolverse en situaciones
presididas por la incertidumbre y la ambigüedad, a saber diagnosticar la causa de un
funcionamiento defectuoso. Han de evaluar los distintos recursos disponibles, siempre
limitados, para adoptar los más apropiados a cada problema que tengan que resolver. Para
todo esto la exclusiva formación científica puede resultar un lastre. Así, los estudiantes
deben comprender que lo que autoriza a volar a un avión es el dictamen de los
especialistas que certifican que puede hacerlo (quienes, aunque requieran parámetros
medibles para su veredicto, no pueden eludir una cierta componente subjetiva en sus
decisiones, como sucede, por otra parte, con los mismos jueces). De este modo, es posible
encontrar, en el ejercicio de la ingeniería, «el serpenteante rastro de lo humano»
—recordando la afortunada expresión del filósofo americano Hilary Putnam110–– en un
dominio que parecía gobernando por lo pretendidamente objetivo, que es lo que propugna
el cientificismo y que algunos ingenieros parecen añorar.

Para terminar con este apartado hay que añadir que la formación del ingeniero español
está abandonando, en estos últimos tiempos, las raíces que le vinculaban, de forma
dominante, con el modelo francés. Se habla incluso de adoptar en España algo semejante
a las Professional Institutions inglesas. Son signos de los cambios que traen los tiempos
que afectan tanto a la formación, como al ejercicio profesional de los ingenieros.

La ingeniería y las Academias


Una muestra de la dificultad de ubicar a los ingenieros en el marco académico
convencional se tiene en el mundo de las Academias. Este mundo se origina en el siglo
XVII y florece en el XVIII, y en él cabe ver una reacción frente al mundo esclerotizado de la
universidad del momento, dominada por dogmatismos y el principio de autoridad. En esa
misma época se crean las escuelas de ingenieros, con objetivos análogos a los de las
Academias, aunque en este caso dando prioridad a las actuaciones prácticas técnicas y no
solo al conocimiento. Acaso por estos orígenes paralelos la ingeniería ha permanecido
ajena al mundo de las Academias hasta tiempos muy recientes.

En efecto, las Academias de ingeniería se han creado en la segunda mitad del siglo XX
ante la necesidad de afirmar la especificidad y peculiaridades de los ingenieros, que se
resentían de la supuesta subordinación a la ciencia. Así en España, en 1994, se crea la
Real Academia de Ingeniería 111 cuya necesidad se hacía patente, entre otras cosas,
cuando se recuerda que al fundarse la Real Academia de Ciencias Exactas, Físicas y
Naturales, en Madrid y en 1848, la minoría mayoritaria era la de ingenieros y que si se
sumaba esta minoría a la de militares (a su vez en gran parte ingenieros) se tenía la
mayoría absoluta de miembros de la Academia 112. Su primer presidente fue un ingeniero

110
Putnam, H. Op. cit.
111
Esta Academia ha ingresado en 2015 en el Instituto de España, alcanzando así pleno reconocimiento
entre el resto de las Academias españolas.
112
Véase José Manuel Sánchez Ron, Cincel, martillo y piedra, p. 102.

131
militar, el general Zarco del Valle, y cinco de los diez presidentes que tuvo hasta 1966
fueron ingenieros 113 . Todo lo cual pone de manifiesto la importancia de estos
profesionales, tanto civiles como militares, en la introducción de la ciencia moderna en
España. Sin embargo, en la actualidad, los ingenieros son una minoría exigua en esa
Academia, lo que es una prueba evidente de la creciente divergencia entre los cánones a
los que se someten científicos e ingenieros, que ilustra asimismo la progresiva
especialización y autonomía relativa de los dos tipos de actividades.

Algo análogo a lo ocurrido en España se repite en los países de nuestro entorno —dejando
de lado el caso de Suecia, donde se funda la Academia de Ingeniería en 1919. Así, la
National Academy of Engineering norteamericana fue creada en 1964. En Gran Bretaña
se funda la Royal Academy of Enginering en 1976. También en Francia, país de tan larga
tradición de Academias, se establece en el año 2000 la Académie des Technologies, en
este caso a partir de la Académie des Sciencies, en cuyo seno existía el CADAS (Conseil
pour les Applications de l’Académie des Sciencies), con lo que se asumía implícitamente
que para esa Academia, en consonancia con sus orígenes, las tecnologías no son sino
aplicaciones de la ciencia. En todo caso, hay que observar que se habla de «las
tecnologías», y no de «la tecnología» —los franceses siempre tan cuidadosos con el
lenguaje. En casi todos los países europeos existen Academias de ingeniería organizadas
en torno al EuroCASE (European Council of Applied Sciences and Engineering), cuya
denominación conserva la huella de la relación entre ciencia aplicada e ingeniería, que se
viene objetando en este ensayo. La asociación europea es un miembro activo de la
asociación mundial CAETS (Council of Academies of Engineering and Technological
Sciences), que tiene su sede en Washington.

Capítulo X.- La ingeniería en el mundo actual


Logros que han cambiado nuestras vidas
El siglo XX ha sido especialmente fecundo en productos de la ingeniería que han
repercutido en nuestra vida. El espíritu creativo, el afán de aportar nuevos integrantes al
mundo artificial, la búsqueda incansable de nuevas formas de satisfacer nuestro bienestar,
han alcanzado hitos que están teniendo una inmensa repercusión en la forma de vida de
los humanos. La técnica en la segunda mitad de esa centuria ha alcanzado tal elaboración
que permite hablar de coevolución entre nosotros y nuestras creaciones técnicas. Las
máquinas, en fin, nos están abriendo posibilidades insólitas.

113
Los cinco presidentes fueron Cipriano S. Montesino y Estrada, duque de la Victoria, III presidente
(1882-1901); José Echegaray Eizaguirre, IV presidente (1901-1916); Amós Salvador y Rodrigáñez, V
presidente (1916-1922); Leonardo Torres Quevedo, VII presidente (1928-1934); y Alfonso Peña Boeuf, X
presidente (1958-1966).

132
Procede traer a colación que la National Academy of Engineering de Estados Unidos, a
mediados de los años noventa del siglo pasado, creó un comité con el fin de identificar los
grandes avances de la ingeniería en el siglo XX. Los «veinte logros de la ingeniería que
han cambiado nuestras vidas», como los denominaron los miembros del comité 114 ,
ordenados por la importancia que les daban, son: 1) la electrificación; 2) el automóvil; 3)
el avión; 4) el suministro de agua dulce y su distribución; 5) la electrónica; 6) la radio y la
televisión; 7) la mecanización de la agricultura; 8) los ordenadores; 9) la red telefónica;
10) la refrigeración y el aire acondicionado; 11) las autopistas; 12) los vehículos
espaciales; 13) internet; 14) las tecnologías de imágenes; 15) los aparatos domésticos; 16)
las tecnologías relacionadas con la salud; 17) el petróleo y las tecnologías petroquímicas;
18) el láser y la fibra óptica; 19) la tecnología nuclear; y 20) los materiales de alta
cualificación. Esta selección, como cualquier otra que se haga, puede tener puntos
discutibles, y es claro que ésta los tiene (una ausencia notoria es la producción por la
ingeniería agronómica de nuevas variedades de plantas que están permitiendo paliar el
hambre en el mundo), pero en conjunto es asumible y constituye un catálogo aceptable de
los ámbitos propios de la ingeniería. En ella se advierte cómo los objetivos primariamente
dotados de utilidad son los que definen lo específico de la actividad de los ingenieros.

En el foco de la economía
No es posible abordar aquí con detalle un asunto de esta dimensión. Sin embargo, se ha
considerado oportuno dedicar algún espacio a comentar tan solo un aspecto de particular
significación para lo que se ha tratado hasta ahora: la influencia de la división del trabajo,
y de su necesaria coordinación posterior, en la génesis de la civilización y de la
ingeniería. Para afrontar este asunto conviene volver de nuevo a los orígenes de la
humanidad.

El homínido primitivo tenía muy pocas cosas que hacer: buscar comida, evitar los
depredadores, reproducirse, ocuparse de su progenie y atender la reducida convivencia en
su grupo. Esta lista se amplía enormemente en el hombre moderno que además de esas
pocas cosas tiene que trabajar, mantener su casa, viajar, informarse, ir a espectáculos y
comprar, entre un sinnúmero de otras actividades. ¿De dónde saca el tiempo para hacer
tantas cosas? La respuesta está en la división del trabajo, con la consiguiente
especialización y el intercambio de los frutos de esa labor especializada. El hombre
primitivo debía recolectar su propia comida; pero el moderno recurre a otros que lo hacen
por él; en tanto que él hace cosas que necesitan los demás. De este modo todos ganan
tiempo y bienes.

La disposición de muchas y variadas cosas contribuye al aumento de la calidad de vida,


incluso de algunas aparentemente sin importancia —el jabón de tocador o los
desodorantes––, que son hechas por muchas personas, sencillamente porque no es
posible, según progresa la técnica, que uno lo haga todo (algo propio de poblaciones
primitivas y que acaso alguien añore siguiendo la desacreditada estela de Jean-Jaques
Rousseau (1712-1778), para quien la civilización no hacía más que corromper al hombre
primitivo). En nuestra compleja sociedad, cada uno de nosotros posee solo conocimientos
limitados. Pero actuando de esta manera hemos desarrollado capacidades asombrosas,
aunque hemos pagado el alto precio de haber perdido, como individuos, la posibilidad de
sobrevivir en el mundo natural. En realidad, así es como ha progresado la civilización

114
George Constable y Bob Sommerville, A Century of Innovation.

133
técnica y surgido la economía, formada por los trasvases de las ingentes cantidades de
ingenios de los que nos hemos dotado los humanos.

En la evolución de la técnica, desde sus orígenes remotos, se observa que en un principio


sus productos eran normalmente el resultado de la actuación de un solo hombre, o de unos
pocos, que llevaba a cabo todo el proceso productivo; mientras que en la actualidad los
nuevos artefactos comportan la intervención de un gran número de agentes. Por una parte,
un bifaz prehistórico es obra solo de un hombre; mientras que en un moderno ordenador
concurren labores de numerosos operarios altamente especializados y que requieren una
precisa coordinación. La realización de labores de una cierta complejidad, inherentes al
progreso técnico, ha de ser llevada a cabo entre muchos y no por un único individuo.

La cooperación en el seno de un grupo es algo que se da en el reino animal: sea entre


hormigas o entre lobos, éstos para cazar colectivamente. Surgen así los comportamientos
sociales, que han llegado a ser dominantes en los humanos. En efecto, la evolución de la
técnica está asociada a la capacidad de trabajar conjuntamente, de crear comunidades en
cuyo seno se producen complejos fenómenos de relación por los que algunos de sus
miembros se especializan en labores concretas, en las que pueden alcanzar un elevado
nivel de destreza y habilidad: de este modo el progreso humano depende, de forma
sustancial, de la sociabilidad. La cooperación y los intercambios han tenido un papel
decisivo en la historia de la humanidad.

Si comparamos cómo vivimos en la actualidad con cómo podía hacerlo en el pasado


alguien especialmente afortunado —pongamos por caso, un rey––, veremos que aunque
este dispusiera de una legión de servidores y aduladores a su inmediata y completa
disposición, carecía de muchas cosas que a nosotros nos son familiares, e incluso nos
resultan imprescindibles, y que facilitan nuestro bienestar y longevidad hasta extremos
que aquellos monarcas no pudieron ni siquiera soñar. Recuérdense, por ejemplo, los
padecimientos por la gota, y otras dolencias, de reyes como Carlos V y Felipe II, que
amargaron su vejez, a pesar de que su vida fue relativamente larga para la época, 58 y 71
años, respectivamente. Por citar otro caso, Luis XIV sufrió grandes dolores porque tenía
una fístula anal entonces incurable, pese a estar asistido por los mejores médicos de su
época (hoy eso se arregla con una pequeña intervención quirúrgica y unos pocos días de
antibióticos). Lo que sucede es que en una sociedad compleja, como es la actual, todos
trabajamos para todos y ese es el milagro que la especialización y el intercambio de
bienes han traído a nuestra especie. Somos a la vez productores y consumidores de una
forma mixta y trabada. Consumimos no solo el trabajo de los demás, sino también sus
variados inventos. Para alcanzar esa fecunda cooperación social entre los humanos se
desarrolló, entre otras cosas pero con carácter fundamental, un lenguaje común. Pero
además de ese lenguaje, que no es el tema que aquí nos ocupa, para la fecunda
colaboración se hace imperiosa la labor de planificación, organización y dirección de la
labor conjunta, en la que se apuntan los rasgos definitorios de la ingeniería —conviene
recordar que la capacidad de planificación a largo plazo, fruto de la meditada reflexión, es
un rasgo distintivo de la especie humana.

Desde la más remota antigüedad, para llevar a cabo una obra de cierta complejidad se
requiere una cabeza emprendedora e inventora, en la que germine la idea de hacer algo
provechoso, y que luego distribuya las tareas y coordine su realización. A partir de ahí
adquiere valor creciente la labor de dirección que llevan a cabo los que rigen las empresas
técnicas. Posiblemente sea así como tuvo lugar la transición de la técnica arcaica,

134
realizada por un pequeño grupo, a la ingeniería, que organiza el trabajo colectivo y
produce artefactos cada vez más complejos. De este modo, la transición de la técnica de
nuestros antepasados —incluida la técnica artesanal— a la ingeniería moderna se asocia
con la necesidad de coordinar los esfuerzos de naturaleza variada que resultan de la
especialización del trabajo.

Esa especialización fomenta la habilidad y el ingenio, con lo que se introducen mejoras en


lo producido. Si solo se tiene que hacer un anzuelo para pescar, éste se hará de forma
tosca; pero si son muchos los que hay que hacer, entonces el artesano se especializará y
alcanzará la destreza necesaria para hacerlos cada vez mejor, e incluso puede que conciba
herramientas que le ayuden en la tarea y aumenten su productividad. Una herramienta es
el resultado de una inversión de tiempo en su fabricación, que se recupera con creces con
su uso posterior. Y así, hasta llegar a las modernas factorías, en las que una vez que se
dispone de herramientas adecuadas, la producción se organiza en un espacio limitado,
mediante una gran división del trabajo. La transición del uso artesanal de herramientas a
una empresa conjunta da lugar a que el procedimiento empleado en la producción sea de
una artificialidad creciente, y puede conducir a una cierta degradación de la calidad
humana de la labor llevada a cabo. Si se compara la labor de un campesino preindustrial,
vinculado a la tierra y a lo que ella produce, con el trabajo en una línea de montaje
industrial, éste resulta mucho menos gratificante que aquel, por decirlo suavemente,
aunque comporte beneficios de otra naturaleza —ya en su día se denunció la pérdida de
libertad y de vida natural del cazador-recolector al convertirse en campesino-ganadero,
de modo que tanto en la revolución de la agricultura como en la posterior industrial se
produjo una merma transitoria en la calidad de vida; aunque se facilitó el crecimiento de
la población y el que está alcanzase cotas crecientes de bienestar.

Conjuntamente con la coordinación del trabajo, en una moderna factoría se requieren


bienes de capital formados por herramientas, maquinaria, edificios y medios de
transporte, así como materias primas y productos semielaborados. Además, la empresa
moderna, la gran organización de producción de bienes y servicios, actúa también como
un foco de renovación del saber técnico: un lugar en el que se fusionan conocimientos y
procedimientos idóneos para el desarrollo de nuevos productos con destino al mercado.
La combinación de economías de escala y de diversificación, con sus consecuencias en
términos de productividad y de comercialización, ha determinado la evolución general
del mundo económico moderno. Así pues, en el núcleo del mundo económico se
encuentran los medios de fabricación y de construcción, y los procesos de producción
agraria o industrial, de modo que la técnica se erige en el armazón de la economía.

En el mundo arcaico, en la medida en que unos hacían cosas que interesaban al resto de la
comunidad, estas cosas se compartían y se intercambiaban: se hacían trueques con ellas.
Pero apareció el dinero con lo que los intercambios dejaron de ser de bien a bien y se
empezaron a realizar con ayuda de ese fluido intermediario. Surgieron luego los
comerciantes que al enriquecerse se convirtieron en poseedores de capital, lo que fue
decisivo para la posterior industrialización capitalista, indisociable de la Revolución
Industrial. De este modo, el comercio se convirtió en un elemento capital para la
gestación del moderno mundo capitalista, al que además cebó con los créditos.
Asimismo, el intercambio promovió la innovación, ya que ésta se fomenta en la medida
en que exista un mercado que demande continuamente productos con nuevas
prestaciones. En consecuencia, la división del trabajo, la ingeniería y la economía están
íntimamente ligadas, ya que todas ellas se realimentan positivamente entre sí, mediante

135
un círculo virtuoso o mágico, fomentando al mismo tiempo la innovación. De todo ello se
desprende la radical imbricación de la ingeniería y el mundo económico. En realidad, la
calidad del trabajo de un ingeniero se mide sobre todo en el mercado y no solo en el
ámbito académico.

Lo anterior afecta incluso a la moral y a los valores que presiden la vida en común, pues
en una sociedad basada en el intercambio y el comercio, en la confianza mutua, incluso
entre desconocidos, la prudencia y la tolerancia son virtudes tan apreciadas —o más—
que el valor y el honor.

La modernidad, en el orden económico, se basa en una conjunción de innovación técnica


y capitalismo. El economista Joseph Schumpeter (1883-1950) denominó «destrucción
creativa» al proceso por el que se crean más empresas de las que desaparecen, lo que
permite evitar el estancamiento económico. El capitalismo se manifiesta como un
proceso dinámico en el que se entremezclan acumulación, crisis e innovación, con lo que
se promueven nuevos bienes, nuevos métodos de producción o de transporte, nuevos
mercados, nuevas formas de organización industrial todo lo cual produce periódicamente
crisis que revolucionan incesantemente la estructura económica, destruyendo la caduca y
creando otra nueva. El capitalismo da lugar a un ciclo interminable de transformaciones
paradójicas que, a la vez, hacen y deshacen, mientras la economía crece al compás de las
innovaciones que se vayan produciendo. A lo largo de ese continuo proceso se consigue
lo que se ha denominado «progreso», no exento de contradicciones.

Por último, conviene dedicar un comentario final al hecho de que a veces se asocia a los
ingenieros con la tecnocracia —en la que no faltan quienes ven una forma de despotismo
ilustrado. Es un modo de gobierno que postula la supremacía de la eficiencia técnica y
que da prioridad a la neutralidad propia de lo técnico sobre la política 115, y amenaza con
devaluarla en tanto que espacio de debate público —tan querido por los ciudadanos
griegos clásicos que practicaban una democracia asamblearia directa, debatiendo sobre lo
divino y lo humano, cuyo difícil acomodo a nuestras sociedades de masas la ha
reconvertido en representativa, que es la que realmente funciona en nuestros días y en la
que desempeñan un papel fundamental los políticos aunque, por ello, con inevitables
disfunciones. Según los tecnócratas la gestión de lo común debía llevarse a cabo sin
pasión partidista, con pragmatismo desideologizado —lo que resulta controvertido.
Asimismo, según éstos habría que desprenderse de los juicios supuestamente
moralizantes y dar paso a análisis desapasionados. Los propios sindicatos han asumido un
punto de vista semejante al aceptar la adopción por el mundo del trabajo de los ideales de
consumo de las clases medias, y están más interesados en lograr una legislación favorable
a los obreros que en conquistar el poder político para construir una sociedad socialista.
Los grandes debates ideológicos y políticos en torno al tipo de sociedad han dejado de
tener la intensidad que habían tenido en el siglo pasado. Se acepta en general la economía
de mercado como pilar básico del bienestar y el progreso. Se considera que, sin negar la
existencia de problemas políticos y sociales, se ha encontrado en la producción en masa
de productos provistos de utilidad el mejor medio de garantizar un crecimiento regular, de
amortiguar las tensiones sociales y de favorecer la reconciliación en una sociedad
apaciguada. Con ello se atenuarían algunas de las grandes polarizaciones ideológicas de

115
Hacia el final de Luces de bohemia, la obra cumbre de Valle-Inclán, el anarquista perseguido por la
policía, Basilio Soulinake, le dice a la portera, discutiendo sobre si Max Estrella está muerto o no: «La
democracia no excluye las categorías técnicas, ya usted lo sabe, señora portera».

136
tiempos recientes mediante la racionalidad de la técnica.

Sin embargo, la tecnocracia no goza de buena prensa en España por su identificación con
el franquismo (incluidos los años del desarrollismo, no exentos de una notable brillantez
económica, en los que entre 1960 y 1973 se alcanzó una elevada tasa de crecimiento que
transformó la sociedad española), aunque sí en China, donde se asocia con la larga
tradición de meritocracia —los mandarines— que ha sido históricamente uno de los
soportes de ese país, en el que tras la época desastrosa de los sesenta y setenta, dominada
por una política radical y disparatada, se ha recuperado la confianza en la racionalidad
tecnocrática elemental. De hecho, el actual presidente, Xi Jimping, el anterior Hu Jintao y
el previo Jiang Zeming son todos ellos ingenieros.

La incidencia de la automatización y la robotización


Llegados a este punto, conviene recordar que uno de los soportes de la economía del siglo
XX ha sido el consumo interno. De ello tuvo una lúcida visión Henry Ford (1863-1947) al
propiciar un modelo de automóvil que estuviera al alcance de gran cantidad de
compradores, incluidos sus trabajadores, cerrando así una espiral entre el consumo y la
producción que ha estado en el núcleo del crecimiento económico durante el siglo pasado.
Este período alcanzó su cenit en la edad dorada de los Gloriosos Treinta años de progreso,
1945-1975 (en lo que se denominó el milagro económico europeo, en el que los países
occidentales adoptaron con éxito políticas de desarrollo económico y pleno empleo,
apoyadas en cierto intervencionismo estatal y en la aparición de grandes sectores
públicos, en una exitosa combinación de la economía de mercado y el Estado del
bienestar). En esos años se vivió una gran bonanza económica al calor de la
reconstrucción de la posguerra, en paralelo con una vigorosa industrialización, que
fomentó el crecimiento de una clase media próspera y asentada, que llegó a ser
determinante en la consolidación de la democracia en las sociedades avanzadas
—incluida España, a partir de los sesenta— y, a su vez, se estabilizó el Estado del
bienestar (asistencia sanitaria universal, pensiones de jubilación, seguro de desempleo,
educación gratuita…). Fueron los buenos tiempos —recordados con añoranza— de los
electrodomésticos, la televisión, el automóvil, los centros comerciales, el apartamento de
vacaciones y tantos otros símbolos de incipiente bienestar y prosperidad compartida por
amplias capas de la población —en los que entrar a formar parte de la clase media se
convirtió en la versión europea del sueño americano.

Pero con la automatización y la robotización hay quienes ven indicios de que ese tipo de
sociedad se está agotando. Viene a colación una anécdota apócrifa que ilustra de forma
clara ese cambio. Durante una visita conjunta de Henry Ford II, nieto de Henry Ford, y
Walter Reuther, presidente del Sindicato de Trabajadores del Automóvil (UAW), a una
moderna planta robotizada de montaje de automóviles, Ford bromeó con Reuther:
«Walter, ¿cómo te las vas a arreglar para que los robots paguen su cuota al sindicato?». A
lo que Reuther respondió rápida e incisivamente: «Henry, ¿y tú cómo harás para que esos
mismos robots te compren coches?»116.

Una parte considerable de la economía de nuestros días está fuertemente imbricada en la


revolución digital y la robotización. Las nuevas tecnologías de la información aparecen
como motores del desarrollo en un mundo cada vez más globalizado (multinacionales,
libre comercio, flujos de capital no regulado, deslocalización industrial…) y se vinculan

116
E. Brynjolsson y A. McAfee, Race Against The Machine, p. 49.

137
con el crecimiento económico, consumo y ocio. El mundo digital ha alcanzado la
supremacía como nueva «materia prima» creadora de riqueza, que hace prosperar o
declinar a las regiones no por la disponibilidad de recursos naturales, sino por la
capacidad de sus ingenieros, científicos, gestores y trabajadores para realizar ingenios en
los que lo digital desempeña un papel determinante.

El progreso actual de las tecnologías digitales y la robótica está aliviando a los operarios
de los trabajos repetitivos y penosos, desplazando esas labores a las máquinas. El
resultado ha sido el decrecimiento de la demanda de trabajadores en las tareas menos
cualificadas, al tiempo que crece para las más especializadas. Con estas tecnologías
tienden a aumentar las oportunidades de empleo de los que tienen mucha formación, en
tanto que el resto tiene que conformarse con salarios escuálidos. Se está produciendo un
cambio considerable en el mercado del trabajo con la aparición de lo que se han llamado
working poors, los pobres con empleo —los cuales, por cierto, eran la mayoría en siglos
pasados, y lo son aún en países poco desarrollados, pero que parecían estar
desapareciendo en las sociedades beneficiarias del Estado del bienestar; una regresión de
creciente repercusión política.

De este modo, mientras progresa la automatización de la producción, las pautas del


mundo laboral se modifican. La progresiva complejidad de los productos industriales
requiere una labor más especializada. Loa puestos de trabajo está cayendo
significativamente en el caso de tareas repetitivas y rutinarias, mientras se mantiene, o
incluso crece, en el caso de las que no se pueden digitalizar. Los cambios implantados por
la informática y la robótica hacen especialmente valiosas a las personas con
conocimientos técnicos, por lo que la educación se convierte en un factor prioritario para
la sociedad del futuro.

Durante los últimos doscientos años, desde la rebelión ludita, la productividad ha


aumentado enormemente, pero al mismo tiempo el empleo ha crecido al menos hasta
finales del siglo XX. Los avances de la técnica han determinado la aparición de nuevas
industrias que han incrementado tanto la productividad como los salarios de los
trabajadores. Sin embargo, se detecta cierta oposición al progreso técnico debido a que se
teme que la ruptura del status quo llegue a producir pérdidas en el empleo y en la
estructura social. Una de las paradojas de nuestro tiempo es que generaciones que se han
beneficiado de innovaciones pasadas se muestran reticentes a las nuevas, por temor a que
les afecten negativamente en el campo laboral. En el pasado, en los períodos de grandes
innovaciones técnicas puede que se hubieran perdido algunos puestos de trabajo, pero
hasta la fecha nunca ha ocurrido que estas pérdidas no fuesen compensadas por nuevos
empleos, normalmente de mayor calidad y retribución, de modo que el empleo total se
mantenía más o menos constante o incluso crecía. Sin embargo, hay quienes dudan de que
en nuestros días eso vaya a seguir sucediendo y se lleguen a compensar las pérdidas de
empleos provocadas por la automatización. Para el futuro existen dudas de si los robots,
que de momento traen abundancia y una vida mejor, permitirán que continúe esa
tendencia para la mayor parte de la población.

Con la automatización y la robotización se necesitan menos horas de trabajo para


producir lo necesario —aunque esto pueda tener un horizonte deslizante— lo que
conduce a un dilema: o bien reducción de la jornada laboral media o, por el contrario,
concentración del trabajo en especialistas muy cualificados, y el resto a depender de
subsidios sociales, normalmente muy menguados —ya en el siglo XV Tomás Moro, en su

138
Utopía, proponía establecer una renta básica que asegurase unas condiciones de vida
mínimas; aunque con ello se atenuasen los alicientes para progresar de la población
afectada.

Pero, por otra parte, los tecno-optimistas argumentan que la automatización representa un
paso irreversible para incrementar la productividad y, en consecuencia, la actividad
económica, y dará lugar a nuevos inventos que aumenten y amplifiquen las capacidades y
el bienestar de los humanos, logrando resultados inéditos, en lugar de limitarse a
automatizar aquellas formas de producción actualmente existentes. Según los que piensan
así, los robots y el mundo digital van a desatar la creatividad humana hasta extremos que
hoy nos resultan inimaginables. Pero, aun aceptando eso, habría que actuar forma rápida
para hacer más eficiente y menos traumática la transición a ese mundo automatizado.

En todo caso, la automatización permite disminuir el factor trabajo en la producción, al


tiempo que provoca un crecimiento de la productividad, lo que determina un incremento
de las rentas del capital. La sustitución del trabajo humano por sistemas automatizados
resulta muy atractiva para el capital, el cual ha ampliado sensiblemente su participación
en la renta desde los años ochenta del siglo pasado, mientras que la parte relativa al
trabajo ha disminuido. De manera que aunque la productividad y la renta total se hayan
incrementado en el seno de las sociedades avanzadas, las desigualdades han aumentado
también en esas mismas sociedades —con la secuela del paro juvenil— y los beneficios
se concentran en un grupo cada vez más pequeño, dejando al resto con una posibilidad
reducida de acceder a todos los privilegios del progreso.

Como complemento a lo anterior, el economista francés Thomas Piketty (1971-)


argumenta, en su libro de éxito El capital del siglo XXI, el crecimiento de las
desigualdades sociales, no solo debido a cuestiones relacionadas con el progreso técnico
como las que se acaban de exponer, sino también por razones estrictamente económicas.
Este incremento tendrá lugar en la medida en que los activos de las minorías más ricas
crezcan mucho más rápido de lo que lo hace la economía global, lo que sucede cuando el
rendimiento del capital es superior a la tasa de crecimiento del conjunto de la economía.
Se produce entonces una creciente concentración de riqueza en manos de un pequeño
porcentaje de la población, los poseedores de capital, que acaparan gran parte de la
riqueza. Esta acumulación se produce en detrimento de la clase media, la gran innovación
política y sociológica del siglo XX, que tanta importancia ha tenido en la configuración de
la sociedad actual, pero que puede entrar en declive, dando lugar a una sociedad más
antagonista, inestable y peligrosa. La tendencia a que disminuyan las clases medias, que
suelen absorber gran parte de las tensiones sociales, repercutiría negativamente en la
estabilidad de los sistemas políticos, especialmente de las democracias parlamentarias —
entre los grandes perdedores de la crisis de 2008 están las clases medias de Estados
Unidos y Europa.

Aunque el mundo globalizado se nos presenta cada vez más conectado y aparentemente
pequeño, la distancia entre los extremos de prosperidad y pobreza es mayor cada día en el
seno de las sociedades desarrolladas y cuando el crecimiento no se comparte, se deteriora
la cohesión social. Sin embargo, aunque la desigualdad se ha incrementado en el seno de
los países del Primer Mundo, los países emergentes han experimentado importantes
progresos en su crecimiento económico que han conducido a mejoras en las condiciones
de vida de su población —así en China o la India, países en los que millones de personas
han escapado a la pobreza. En el conjunto del planeta la pobreza extrema se ha reducido a

139
la mitad entre 2005 y 2013. Es una de las paradojas del progreso en nuestros días: crecen
las desigualdades en las sociedades avanzadas, mientras la pobreza extrema va
desapareciendo en las más atrasadas.

En un orden de cosas semejante, el progreso actual no debería ser un obstáculo para que
las generaciones futuras alcancen un nivel de vida comparable, si no mejor, al de los
países desarrollados de nuestra época. Cabría aspirar a que esas generaciones fueran más
ricas, lo que es razonable asumir en la confianza de que se produzca un ritmo de
innovación (¡siempre la técnica!) que genere mayor riqueza y se disfrute de más cosas
valiosas puestas a su disposición. Sin embargo, esta opción puede no estar clara, y de
hecho ignoramos si lo que estamos tomando prestado por cuenta de las generaciones
futuras es más, o menos, de lo que la capacidad de innovación podrá restituir.

No obstante, el tecno-optimismo se aferra a que seguirá el progreso de la humanidad


debido a la creciente producción de bienes y servicios, a pesar de las reservas anteriores.
Según este punto de vista, una mayor parte de la población mundial eludirá la pobreza;
estará mejor alimentada, disfrutará de mejor escolarización, con igualdad entre sexos en
la educación; dispondrá de la energía suficiente para todas sus necesidades; tendrá mejor
vivienda y disfrutará de más ocio; estará mejor protegida contra las enfermedades y vivirá
hasta una edad más avanzada y en mejores condiciones que sus antepasados, haciendo del
mundo un lugar más grato. Un mundo, en fin, en el que se tenderá a alcanzar la meta
utópica de la ética utilitarista: «el máximo bienestar para el mayor número posible de
seres humanos». ¿Acaso el mundo artificial acabe fomentando la justicia, la tolerancia y
la libertad frente al hambre, la pobreza y el dolor? ¿Un mundo con una economía más
regulada y transparente, capaz de garantizar un crecimiento armónico y equilibrado del
planeta?

La relación entre economía e ingeniería posee otras muchas más dimensiones cuyo
tratamiento desborda el limitado cauce de este libro, por lo que vamos a dejarlo aquí y a
ocuparnos, en el próximo apartado, de otra cuestión capital en la ingeniería como es la
moral, pues aunque el saber pueda ser considerado neutral, el hacer no lo es, ya que el
hacer algo puede comportar alguna forma de responsabilidad, aunque sea por efectos
secundarios imprevisibles e indeseados117. El ingeniero, si bien es solo dueño de sus
actos, a veces no puede eludir la responsabilidad por los efectos que se siguen de éstos. Se
trata de una cuestión aún más abierta que la que se acaba de tratar en este apartado que
ahora concluye y está sometida a todo tipo de debates, por lo que resulta pertinente
dedicar unos pocos párrafos a deliberar sobre ella, aunque sea de forma sucinta. Nos
ocuparemos exclusivamente de los problemas morales que se presentan al ingeniero en
nuestro tiempo ante el poder exorbitante y sin precedentes que está alcanzando la técnica,
y con ella la ingeniería, para configurar vida de los humanos.

La responsabilidad social del ingeniero


Ya se ha insistido en que el objetivo de la ingeniería es alcanzar metas que están
presididas por un criterio de utilidad —y paralelamente de economía. Las cosas que
hacen los ingenieros pueden estar bien o mal hechas (es decir, ser o no realmente eficaces
para lograr el objetivo perseguido); y, por otra parte, puede ser bueno o malo hacerlas
(pues, aparte de la bondad que puedan merecer por sí mismas, pueden tener

117
Hans Jonas, El principio de responsabilidad.

140
consecuencias buenas o malas como efectos secundarios no deseados). Pero, acordar qué
es bueno o malo es una cuestión muy disputada y que no consigue siempre la unanimidad.
Por citar casos especialmente sensibles, es lo que sucede cuando se trata de valorar el
alcance de la responsabilidad con el entorno natural y con las futuras generaciones; lo
mismo que cuestiones cruciales para algunas actuaciones, cómo cuándo empieza y acaba
la vida, y en qué consiste la dignidad humana. En estos casos la deliberación ética no es
fácil que conduzca al consenso, sino con frecuencia a todo lo contrario aunque, a pesar de
ello, haya que buscar fórmulas que permitan la convivencia. De cualquier forma, la moral
del ingeniero presenta dos vertientes principales: la moral profesional, circunscrita a su
ámbito de actuación especializada; y la común, cívica o general, aunque sea teñida por
sus peculiaridades profesionales. Aquí nos ocuparemos exclusivamente de esta segunda.
La primera está recogida en los códigos de ética de las sociedades de ingenieros y de las
asociaciones profesionales.

Es evidente que la técnica ha producido numerosos y codiciados frutos pero que, con
frecuencia, han venido acompañados de efectos perjudiciales tanto para el medio natural
como para la misma la sociedad. En general, los progresos en la ingeniería, incluso
aquellos de beneficio indiscutible, no se producen sin algún coste con relación al
medioambiente. Ya los romanos, como las sólidas y persistentes calzadas, pretendían
evitar que la naturaleza recobrase los caminos de paso. La contaminación del aire y las
ciudades ruidosas y congestionadas son efectos indeseables de la sociedad del automóvil
en la que estamos inmersos, pero que, por otra parte, conlleva tantas ventajas, como la
libre movilidad física, y posee por ello una amplia aceptación, pese a los problemas que
trae aparejados. La ciudad es posiblemente la mayor infraestructura creada por el ser
humano, en la que tienen lugar grandes flujos de energía e información, y en la que se
alcanzan niveles de vida que son apetecidos por la gran mayoría de la población.

En realidad, el ingeniero no puede evitar tener algo de aprendiz de brujo ya que debe
manejar fuerzas cuyas implicaciones últimas no conoce, debido a que todos los efectos
perniciosos de la técnica no suelen ser previsibles. Los inventores no acostumbran a
prever, ni a tener en cuenta, los efectos secundarios de sus inventos. Además, la
naturaleza nunca deja de experimentar y de ello pueden derivar situaciones peligrosas,
por lo que cualquier cosa que pueda ocurrir hay que prever que acabe ocurriendo. En el
mundo se generan comportamientos dotados de una diversidad infinita, y siempre pueden
producirse situaciones imprevistas.

Así pues, todo nuevo producto de la técnica puede comportar tanto una oportunidad como
amenazas inesperadas, lo que es especialmente significativo para el ingeniero, pues la
existencia de esos desafíos no les puede inhibir de actuar (recuérdese que se dice que el
riesgo cero tiene un coste infinito). Como ya se ha visto en otro lugar, ante los indudables
problemas que produce la técnica no cabe plantearse acabar con ella, lo que sería
antinatural, sino que se trata de cómo gestionarla para hacer de ella un uso más
consistente con nuestra propia subsistencia y mayor bienestar, y así hacer evolucionar el
mundo artificial de modo que sea cada vez más atractivo. En este sentido, es forzoso
imprimir en la actividad de los ingenieros un espíritu profesional en el que los aspectos
morales, relacionados con los efectos a corto y a largo plazo de su ejercicio profesional,
ocupen un lugar destacado.

En los años cincuenta y sesenta del siglo pasado (en los Gloriosos Treinta) se creía haber
encontrado en la producción en masa de productos elaborados un medio especialmente

141
eficaz para garantizar un crecimiento regular y amortiguar las tensiones sociales, bajo la
égida aparentemente neutral de los ingenieros. Pero, unos años más tarde, a fines de los
sesenta y especialmente durante los setenta se produjo una crisis social y cultural que
puso en duda la autoridad de los gobernantes y de las élites en general. Uno de los
episodios más representativos fue el denominado mayo francés (1968), una revuelta de
estudiantes en un país democrático —pero que no se dio solo en ese país, y que no fue una
revolución obrera. Se vivió entonces un tiempo en el que los sistemas técnicos fueron
objeto de reprobación, algunas de cuyas brasas aún siguen activas.

En paralelo se originaron nuevas alarmas sobre el medioambiente como consecuencia de


las denuncias de los desastres naturales consumados por la industria. El antropoceno se ha
definido como la era en la que la actividad humana, lo antrópico, está generando efectos
imborrables para el conjunto del planeta. Se especula que empezó hace unos quinientos
años, aunque no hay unanimidad sobre este extremo, si bien si la hay respecto a que hoy
estamos plenamente inmersos en él. Se dice que durante esta era se está produciendo una
«defaunación». El libro Primavera silenciosa, de Rachel Carson (1907-1964), cuestionó
el credo tecno-optimista. Entre otras cosas, subrayó la pérdida de los sonidos naturales, de
los olores y de los paisajes en la medida que se reemplazaba la naturaleza por los sistemas
artificiales de producción, a los que se asociaba con sustancias tóxicas y toda clase de
calamidades. Pero además de estas acusaciones relativamente superficiales, y un tanto
literarias, es presumible que determinados restos de la actividad humana en nuestros días
—plásticos y cemento, por citar algo— dejen una huella fosilizada en los estratos
geológicos, que será objeto de estudio por los geólogos dentro de miles de años —si es
que los hay. En este sentido, las industrias y las grandes construcciones se encuentran en
primera línea de los reproches, ya que habían sido objeto, desde principios del siglo XX,
de acusaciones recurrentes por los desechos contaminantes y la alteración del medio
natural; a lo que se unió, a partir de los años setenta y ochenta, la industria nuclear y sus
persistentes residuos radioactivos. Como consecuencia, los ingenieros vieron afectada su
imagen: las cuestiones del medioambiente, en las que se encontraban en posición de
acusados, se asociaban con una invasión de artificios que lo contaminan todo; se
denunciaba asimismo su contribución a la carrera de armamentos; e incluso se
cuestionaba la difusión de la informática, que proporciona herramientas con las que
vulnerar la intimidad de las personas, especialmente con el procesamiento masivo de
datos, mediante los big data (por el mero hecho de tener un smartphone en nuestro
bolsillo ya estamos proporcionando ingentes cantidades de datos acerca de nuestros
hábitos más personales; así, en algún lugar se encuentra registrada la localización del
propietario del móvil en todo momento).

Lo anterior hace inevitable plantearse si a pesar del papel capital que juega la ingeniería
en nuestro mundo, no va a tener que enfrentarse a cuestiones polémicas como: ¿los
ingenieros deben limitarse a ser competentes para aportar soluciones técnicas sobre cómo
hacer las cosas para las que han adquirido destreza? ¿O deben además estar preparados y
disponer de la madurez moral suficiente para asumir la responsabilidad de qué hacer y
qué no? Esa madurez va mucho más allá del estrecho cauce por el que se desenvuelve su
estricta labor profesional, y la comparte no solo con profesionales de otras especialidades,
sino con el conjunto de la población118. Al ingeniero le incumbe la imposible tarea de
anticipar los efectos sociales de su trabajo, como preconizaba el malhadado ingeniero
ruso Palchinsky. En todo caso, no se puede pedir a los ingenieros que conciban y erijan el

118
Fernando Broncano, Entre ingenieros y ciudadanos.

142
mejor de los mundos, sino mucho más modestamente uno que sea al menos un poco
mejor que el que se han encontrado.

La técnica en la entraña de la civilización


Nuestra relación con la técnica nos ha producido múltiples beneficios, además de su
aportación primordial a la génesis de nuestra especie. En tiempos históricos ha creado
nuestra economía y con ella nuestra riqueza y bienestar. Aunque la felicidad no está
necesariamente asociada a la disposición de muchos bienes materiales, es indudable que
éstos contribuyen a ella, en especial los que aportan mejores condiciones de vida como
son aquellos que afectan a la sanidad, la vida confortable y las mayores opciones vitales.
En todo caso, el mundo artificial nos está permitiendo vivir mejor y mucho más que
nuestros antepasados, sin las miserias que éstos tuvieron que soportar, e incluso en un
mundo más civilizado y seguro, dotado de un mayor respeto a la dignidad humana y en el
que hay menos violencia119. ¿Somos, por ello, una especie adicta a la técnica? Cabe
recordar la obvia y repetida afirmación de Martin Heidegger de que la esencia de la
técnica trasciende a lo estrictamente técnico, ya que su influencia en la vida humana es
esencial. En términos parecidos se pronunció Ortega. No es solo que la técnica esté
resolviendo muchos de nuestros problemas, es que no podemos vivir sin ella.

En efecto, gracias a la técnica hemos sido capaces de crear un mundo de abundancia para
una fracción creciente de la población, al menos hasta ahora; un mundo donde
conseguimos más y más bienes a partir de menores cantidades de materias primas, capital
y trabajo. Asimismo, los crecimientos de la productividad han estado acompañados por
aumentos en el tiempo libre, lo que permite beneficiarse de un mayor ocio. Durante los
siglos XIX y XX las horas de trabajo disminuyeron, en los países desarrollados, de cifras
que llegaban a las dieciséis horas diarias a otras de un máximo de cuarenta horas
semanales —incluso menos––, y se vaticinan posibles disminuciones adicionales.

Este progreso, sin embargo, ha estado ligado a un aumento de la desigualdad social, como
se ha visto en un apartado anterior. Pero, a pesar de ello, están también los que resaltan
que el progreso inducido por la técnica afecta igualmente a los menos beneficiados, como
también se ha comentado ya (la esperanza de vida en España a principios del siglo XIX era
de 34 años y en la actualidad es de 80. Es notable que en los países más atrasados de
África hoy se encuentre en torno a cuarenta y cinco años, según la Organización Mundial
de la Salud). En todo caso, el estilo de vida de las regiones más desarrolladas del mundo
es el modelo al que aspiran las más desfavorecidas, que anhelan tener el mismo nivel de
vida que poseen los habitantes de las zonas más ricas del globo —y que contemplan
anhelosos en los medios de comunicación. Pero los habitantes de las zonas prósperas no
se van a quedar parados. Ello presupondría la discutible asunción de que las necesidades
humanas ya han sido satisfechas en esas zonas y que no cabe esperar que haya
innovaciones que determinen la aparición de nuevas apetencias, muchas de ellas, sin
duda, justificadas, aunque otras asociadas a un consumismo que parece no tener límites,
incluso en lo relativo a bienes baladíes —aunque, hoy por hoy, el consumo sea un cebo
ineludible del sistema económico imperante. ¿Será posible alcanzar una progresiva
nivelación entre las distintas regiones del planeta?

Así pues, el modelo de sociedad soportada por el progreso técnico es codiciado por el
resto del mundo y puede enorgullecerse de haber alcanzado éxitos imponentes en lo

119
Steven Pinker, Los ángeles que llevamos dentro.

143
relativo a la producción y la eficacia, incluyendo ámbitos tan sensibles como la propia
sanidad, al tiempo que se incrementa la convivencia y la libertad civil. El mundo artificial
ha traído consigo no solo inmensos progresos en la salud y el bienestar, sino también más
libertad, más justicia social, menos violencia y unas condiciones de vida menos duras
incluso para los poco afortunados, así como mayores oportunidades para cada vez más
gente en el seno de las sociedades desarrolladas. Además, las relaciones compasivas entre
los seres humanos y la propia cohesión social —mediante un progresivo y delicado
equilibrio entre competición y cooperación— se han incrementado y ocupan un espacio
creciente en la sociedad, domesticando los instintos; aunque están también quienes no
comparten estas afirmaciones alegando que la barbarie rebrota continuamente e incluso
puede estabilizarse para amplios sectores de la población. Pero, a pesar de los horrores de
la historia, el altruismo y la empatía en las relaciones humanas parecen estar ganando
terreno —o al menos eso queremos pensar.

Según Steven Pinker (1954-) (y otros muchos autores, como Norbert Elias (1897-1990) o
Karl Popper (1902-1994)), en nuestro tiempo y en los países desarrollados —en los que
prevalece, entre otras cosas, una arraigada educación general––, se ha experimentado la
mayor difusión del respeto de los derechos humanos que recuerda la historia de la
humanidad. Junto con esos derechos ha habido un gran progreso moral, se ha propagado
el ejercicio de la compasión (el antídoto del egoísmo), tenemos conciencia de nuestros
compromisos, de lo que es un delito, y asimismo compartimos la percepción moral de que
aún se debe progresar mucho en ese orden de cosas. Pese a catástrofes como las
relacionadas con las guerras mundiales, la bomba atómica, los jemeres rojos de Pol Pot o
el genocidio de Ruanda, vivimos una época en la que se ha alcanzado un grado de respeto
por la vida humana que no tiene antecedentes históricos, aun considerando las anteriores
transgresiones. No se olvide que aunque una injuria a lo religioso, como la blasfemia, está
penada por ley incluso en países hoy considerados civilizados, hace unos pocos siglos
podía conducir al cepo o a la pira expiatoria en esos mismos lugares. La predisposición a
la agresión y al fanatismo se ha ido debilitando a lo largo de los tiempos, de modo que las
sociedades modernas son, en general, menos violentas que las arcaicas (aunque la
intolerancia se siga manifestando y esté en el origen de un terrorismo sanguinario). Pinker
muestra cómo tanto la violencia personal como el número de muertos por habitante en
acciones bélicas se han reducido progresivamente en todo el período del que existen
registros fiables 120 . Este autor alega también que alrededor del 15 % de los restos
humanos prehistóricos exhumados muestran evidencias de muerte violenta, y ese
porcentaje es aproximadamente el mismo que se observa en las sociedades
contemporáneas que aún viven de la caza y la recolección. Según Pinker, desde el
momento en que se crean las primeras sociedades con una autoridad central, aunque sea
tiránica, cruel y sanguinaria, ese porcentaje se reduce sensiblemente a un entorno del 3 %
(los tiranos suelen alardear de patrocinar una vida mejor para sus súbditos).

Por consiguiente, la técnica y la ingeniería, al contribuir decisivamente a la formación del


mundo artificial, han traído la sociedad en la que hoy se desenvuelve nuestra vida de
forma más o menos próspera y placentera. Por ello hay que proclamar, una vez más, que
nada es más acorde para el hombre con su propia naturaleza que intervenir en el mundo
para reconducirlo en su beneficio mediante el ingenio y las habilidades que definen la
técnica. Esas facultades son las que nos están permitiendo dominar el planeta, al menos

120
Véase Pinker, Op. cit,. especialmente el apartado "Índices de violencia en sociedades con y sin estado",
pp. 85-93. Los datos incluidos en el texto son un resumen de los que aparecen en ese apartado del libro
citado.

144
en parte, pese a los problemas y las disfunciones que ello conlleva. Para nosotros hacer
técnica, crear cosas artificiales, es tan natural como pueda serlo para los predadores cazar
y sacrificar a sus presas. Es en este sentido en el que se dice que la técnica es inherente al
ser humano: que no tener técnica es no ser humano, e incluso que la técnica nos ha hecho
tal como somos hoy. Pero, a pesar de todo, puede que nos domine una cierta nostalgia por
la pérdida del mundo natural, en la medida que el artificial está desplazándolo como
escenario en el que transcurre nuestra vida —aunque volvamos de forma esporádica,
limitada y protegida a gozar de ese mundo perdido.

Ante la técnica se produce una inevitable ambivalencia. Por una parte, la dependencia que
hemos alcanzado del mundo artificial nos puede hacer sentir que estamos subordinados a
él, lo que suscita el temor de que la técnica se convierta en un implacable coloso
desaforado que acabe engulléndonos, pues nuestra especie se ha especializado en vivir en
ese mundo de artificios. Es bien sabido que, en la evolución biológica, las especies
generalistas tienen menores problemas para sobrevivir ante una catástrofe natural que las
especialistas. Los humanos somos como una clase de especialistas que nos hemos
habituado a vivir en un mundo en el que, sin embargo, se vislumbran catástrofes
potenciales como el colapso repentino de las infraestructuras, un supervirus informático o
un ciberataque, una guerra nuclear o bacteriológica, la colisión de un meteorito, una
pandemia o los efectos de una tormenta magnética solar —los llamados cisnes negros,
sucesos de pequeñísima probabilidad, pero de enorme impacto. Y también, por otra parte,
el agotamiento de recursos por el desmedido uso de ellos, provocado por el desbocado
crecimiento de la población mundial —que aunque se esté registrando una cierta
desaceleración, no se detiene. Así, no es extraño que tengamos la sensación o el temor de
que la técnica nos haya hecho vulnerables, al dejarnos expuestos a riesgos apocalípticos
del tipo de los que se acaban de mencionar. Además, hay que tener presente que en la
contienda contra la naturaleza, esta no permanece impasible. A la larga, la implacable
naturaleza resulta siempre más fuerte, por lo que acaba ganando, y el hombre sigue, en
último extremo, dependiendo de ella —ay, el segundo principio de la termodinámica. Por
citar un caso tomado de la medicina: están apareciendo microorganismos resistentes a los
antibióticos. La lucha contra el mundo natural es, en cierto sentido, desesperada; los
triunfos son fugaces; y, sin embargo, el hombre, por su propia naturaleza, no puede
renunciar a esa contienda.

No obstante, además del temor que pueda suscitar la técnica, es indudable que también
nos dejamos seducir y cautivar por sus logros, que nos han permitido ampliar nuestros
límites naturales e incrementar nuestras capacidades hasta extremos insospechados. A fin
de cuentas, el progreso técnico es un elemento capital en la conformación de nuestro
futuro. Los nuevos inventos técnicos están transformando el propio mundo artificial, lo
que a su vez nos afecta y renueva a nosotros mismos. La técnica emergente, como ha
sucedido a lo largo de la historia, aunque con más intensidad que en el pasado, acabará
redefiniendo qué significa ser humano. Dependiendo de qué valoremos más —la
convivencia, el poder, el conocimiento o la sostenibilidad—, algunas innovaciones
técnicas serán aprovechadas mientras que otras deberán ser desechadas. Estas son
cuestiones perturbadoras que nos afectan mucho más de lo que solemos asumir, por lo
que es inevitable que sean planteadas.

El crecimiento económico ha sido tan rápido y emancipador, y el mundo está cambiando


a tal velocidad, que hemos sido incapaces de diagnosticar los problemas de las nuevas
conquistas de la técnica y prevenir sus consecuencias, ya que las ventajas inmediatas de

145
cada nuevo avance técnico suelen ser tan bien recibidas que se acaban tolerando los
problemas que traiga asociados. Pero, ¿tendremos que enfrentarnos a algún límite en esta
actitud? En todo caso, se ha propagado la creencia, de forma más o menos consciente, de
que la innovación es intrínsecamente buena y que, por lo tanto, no se le deben poner
limitaciones. No obstante, hay progresos de la técnica que han producido grandes
beneficios a corto plazo, como sucede con los clorofluorocarbonos empleados como
refrigerantes, que, sin embargo, han tenido efectos perversos para la capa de ozono, por lo
que resultan ruinosos a la larga. Por citar otro caso, la durabilidad y resistencia al
deterioro de los plásticos que los han hecho tan útiles están resultando también
perjudiciales a largo plazo. Las ventajas suelen ponerse de manifiesto antes que los
inconvenientes, aunque estos no dejan de presentarse tarde o temprano. De manera que
los efectos secundarios de algunas innovaciones aconsejan prescindir de ellas.

En este sentido, debemos postular hacer un uso razonable de la técnica —aunque por
razonable se puedan entender cosas dispares— porque ya no podemos prescindir de lo
artificial: es demasiado tarde, pues se ha convertido en consustancial a nosotros. Al
menos por eso habría que tomarla más en serio de lo que se suele hacer en algunos
ambientes. La técnica posee un potencial que crea nuevas posibilidades cuyas
repercusiones dependerán, en gran medida, de decisiones que tomemos los humanos.
Podemos alcanzar una abundancia y libertad que no tienen precedentes, pero también
desastres que la humanidad nunca ha visto. Todo ello está en nuestras manos, lo que a
unos invita al optimismo, pero a otros produce desazón. La aparición de nuevas
tecnologías de modificación genómica pueden permitir algo insólito en la historia del
planeta: que una especie tome las riendas de su destino biológico y se sitúe relativamente
al margen de la selección natural. Al mismo tiempo, ninguna otra especie dispone de la
capacidad de destruirse a sí misma —esa aterradora realidad que necesitamos olvidar
para no perder la razón. Aunque sin llegar a esos extremos, sí estamos afectando al
mundo natural con unas alteraciones cuyas consecuencias deberemos tratar de atenuar
mediante intervenciones técnicas para las que se requerirán enormes dosis de ingenio. Las
sociedades occidentales están asumiendo que lo mejor es continuar la alteración del
mundo natural en la audaz —y, para otros, temeraria— confianza de que al fin podrán
gestionarse los riesgos. ¿Qué cabe esperar que nos libere de los problemas que origina la
técnica si no es la misma técnica, con el concurso, en su caso, de la ciencia? Pues si bien
esta última contribuye a que tengamos poder sobre la naturaleza, es la técnica la que
adquiere el papel protagonista para llevar a cabo esa dominación. Al fin y al cabo, el
progreso técnico puede que sea el mejor recurso del que disponemos para afrontar el
futuro. En todo caso, los problemas medioambientales han entrado a formar parte
indisociable de las labores de los ingenieros.

Así pues, el desafío de la ingeniería de nuestro tiempo es su persistencia en la concepción


y construcción de un mundo artificial cada vez más seductor, elaborado e invasivo al que
estamos abocados por nuestra propia naturaleza. Hemos aprendido a reconducir el mundo
natural y estamos tratando de exprimirlo como a un limón y así apurar todas las
posibilidades de obtener de él algún beneficio, al precio de imprimirle una huella
ostensible e indeleble. Relacionado con ello se atisba otro dilema radical: la igualdad de
consumo, o la preservación de los recursos y de los vestigios del mundo natural.

Las revoluciones de la agricultura, de la industria y del mundo digital no han conducido a


la utopía que prometían aportar los valores pretendidamente universales de la Ilustración,
aunque nos hayan aproximado a ella, en comparación con lo que sucedía en tiempos

146
anteriores. Sin embargo, sigue gravitando uno de los grandes problemas con los que se
enfrenta la humanidad en nuestro tiempo: el de quedar reducida a una población dual.
Según la técnica se hace más elaborada y compleja sus productos resultan más costosos y
exclusivos; lo que resulta especialmente patente en los costes crecientes de la medicina
que hacen temer que determinados beneficios sanitarios solo sean accesibles a la minoría
que pueda permitírselos. En consecuencia, ¿podrán estar los progresos de la técnica al
alcance de todos? ¿O se abrirá una brecha insalvable entre los que puedan acceder a ellos
y los que no? En cuyo caso, ¿el progreso soportado por la técnica conducirá a un mundo
mejor para todos o solo para los que puedan beneficiarse de él? Al responder a estas
cuestiones no debe olvidarse que la evolución biológica ha primado siempre a los más
dotados, eliminando al resto. Pero, ¿estamos seguros de que la especie humana ha
superado esa restricción? Según lo que se está viendo, cabe temer que se produzca una,
más o menos grande, comunidad aislada (lo que empieza a conocerse como una
gated-community), con población estacionaria, en la que se recluyan y se den una vida
regalada los que accedan a las mejoras más refinadas de la técnica, mientras trabajan las
máquinas para ellos; en tanto las condiciones de vida del resto de la población, con
crecimiento desbordado, se encuentren progresivamente deterioradas, y ese resto quede
postergado a una vida semisalvaje, en comparación con la de los beneficiarios del
progreso —¿los favorecidos por una hipotética renta básica universal pasarían a engrosar
este resto? Se trataría de una división mucho más radical que la tradicional entre ricos y
pobres. Las clases favorecidas pueden incluso acabar convirtiéndose en una raza aparte y
superior, habida cuenta de los progresos en las biotecnologías. Estas cuestiones ya las
esbozó el novelista Aldous Huxley (1894-1963) en su visionaria distopía New Brave
World o George Orwel (1903-1950) en 1984, y aparecen también en films como Soylent
Green (Cuando el destino nos alcance, en su versión española) o Blade Runner, entre
otros muchos.

Quedan pues en el aire cuestiones tan provocadoras como: ¿Será duradero el progreso que
hemos alcanzado? ¿Afectará a los más? Con independencia de argumentos más
circunstanciales, ese es uno de los grandes retos a los que se enfrenta en nuestros días la
civilización técnica, en la que juegan un papel decisivo los ingenieros, y de la que es
artífice el laborioso Homo faber en su tenaz e incansable búsqueda de innovaciones
útiles.

En todo caso, de lo dicho en las páginas anteriores se infiere que el ingeniero, conjugando
el placer de hacer con la producción de los artefactos que pueblan el mundo artificial,
puede hacer suyo un remedo del consabido cogito cartesiano: Facio, ergo sum (hago,
luego existo).

147
148
Bibliografía

Albertos, Pedro y Mareels, Iven (2010), Feedback and Control for Everyone, Springer.
Aracil, Javier (1986), Máquinas, sistemas y modelos, Tecnos, Cuadernos de Filosofía y
Ensayo.
— (2010), Fundamentos, método e historia de la ingeniería. Una mirada al mundo de
los ingenieros, Síntesis.
Ashby, Eric (1969), La tecnología y los académicos, Monte Ávila Editores C.A.
Borges, Jorge Luis (1977), El libro de arena, Alianza Editorial.
Brian Arthur, W. (2009), The Nature of Technology, Allen Lane.
Broncano, Fernando (2006), Entre ingenieros y ciudadanos. Filosofía de la técnica para
días de democracia, Montesinos.
Brynjolsson, E. y McAfee, A. (2011), Race Against The Machine, Lexinton (MA),
Digital Frontier Press.
— (2014), The Second Machine Age, W.W. Norton & Company.
Bunge, Mario (1980), Epistemología, Ariel.
Bush, Vannevar (1972), Pieces of the Action, Cassell.
Butler, S. (2003), Erewhon, Minotauro.
Caro Baroja, Julio (1983), Tecnología popular española, Editora Nacional.
Carson, Rachel (1962), Primavera silenciosa, Editorial Crítica [2005].
Cheney, Margaret (2009), Nikola Tesla. El genio al que robaron la luz, Turner.
Constable, G. y Somerville, B. (2003), A Cenntury of Innovation, Joseph Henry Press.
Crawford, E. (1984), The Beginnings of the Nobel Institution. The Science Prizes, 1901–
1915, Cambridge University Press.
Davis, Michel (1998), Thinking like an Engineer, Oxford University Press.
De Honnecourt, V. (1991), Cuaderno, Akal.
Dessauer, F. (1964), Discusión sobre la técnica, Ediciones Rialp.
Feyerabend, Paul (2002), Contra el método, Folio.
Forman, Paul (2007), «The primacy of science in modernity, of technology in
postmodernity, and of ideology in the history of technology», History and Technology,
23 (1), 2007: 1-152.
Galilei, G. (1638), Consideraciones y demostraciones matemáticas sobre dos nuevas
ciencias, Editora Nacional, Madrid [1976].
García Santesmases, José (1980), Obra e inventos de Torres Quevedo, Madrid, Instituto
de España.
Graham, Loren R. (2001), El fantasma del ingeniero ejecutado, Crítica.
Hawking, S. y Mlodinow, L. (2010), El gran diseño, Crítica.
Heims, Steve J. (1986), J.Von Neumann y N.Wiener, Salvat, Vol. 1.
Hempel, Carl (1965), Aspects of Scientific Explanation and Other Essays, Nueva York,
Free Press.
Herf, Jeffrey (1990), El modernismo reaccionario, México, Fondo de Cultura
Económica.
Jonas, Hans (1995), El principio de responsabilidad, Editorial Herder.
Kline, Ronald (1992), Steinmetz: Engineer and Socialist, Johns Hopkins University
Press.

149
Koen, Billy Vaughn (2003), Discussion of the Method, Oxford University Press.
Lem, Stanislaw (2010), Magnitud imaginaria, Impedimenta.
Love, Albert y Childers, James, Eds. (1965), Listen to Leaders in Engineering, David
McKay Company.
Masani, Pesi R. (1990), Norbert Wiener, Birkhäuser.
Mindell, David (2002), Between Human and Machine, Johns Hopkins University Press,
Myers, Sumner y Donald, Marquis (1969), Successful Industrial Innovations, National
Science Foundation.
Ndiaye, Pap (2001), Du nylon et des bombes, Belin.
Ortega y Gasset, José (1939), Meditación de la técnica y otros ensayos sobre Ciencia y
Filosofía, Alianza Editorial [1982].
Penrose, Roger (1996), Las sombras de la mente, Crítica.
Pinker, Steven (2012), Los ángeles que llevamos dentro: El declive de la violencia y sus
implicaciones, Paidós.
Piketty, Thomas (2014), El capital del siglo XXI, Fondo de Cultura Económica.
Putnam, Hilary (1987) The many faces of Realism, Open Court. (Versión española Las
mil caras del realismo, Paidós, 1994),
Rosenbrock, Howard (1990), Machines with a purpose, Oxford University Press.
Sánchez Ron, José Manuel (1999), Cincel, martillo y piedra, Taurus.
Savater, Fernando (1999), Las preguntas de la vida, Ariel.
Silva, M. (2005), El siglo de las luces. De la ingeniería a la nueva navegación, Real
Academia de Ingeniería, Institución Fernando el Católico y Prensas Universitarias de
Zaragoza.
— (2007), El Ochocientos. Profesiones e Instituciones Civiles, Real Academia de
Ingeniería, Institución Fernando el Católico y Prensas Universitarias de Zaragoza.
— (2007), El Ochocientos. Pensamiento, profesiones y sociedad, Real Academia de
Ingeniería, Institución Fernando el Católico y Prensas Universitarias de Zaragoza.
— (2007), Uniformes y emblemas de la ingeniería civil española, Institución Fernando el
Católico (C.S.I.C).
— (2008), El Renacimiento. De la técnica imperial y la popular (segunda edición
ampliada), Real Academia de Ingeniería, Institución Fernando el Católico y Prensas
Universitarias de Zaragoza.
Simon, Herbert (1996), The Sciences of the Artificial, The MIT Press. (Versión española
Las ciencias de lo artificial, Comares, 2006),
Spengler, Oswald (1918 y 1922), La decadencia de Occidente, Espasa-Calpe [1966].
Stannard, Russell (2010), The End of Discovery, Oxford University Press.
Thom, René (1985), Parábolas y catástrofes, Tusquets.
Tortella, Gabriel (2000), La revolución del siglo XX, Taurus.
Van Fraassen, Bas (1996), La imagen científica, Paidós, Mexico.
Vincenti, Walter G. (1990), What Engineers Know and How They Know It, The Johns
Hopkins University Press.
Vögtle, Fritz (1994), Edison, Salvat.
Wiener, Norbert (1961), Cybernetics or Control and Communication in the Animal and
the Machine, MIT Press, 2.ª ed.
— (1969), Cibernética y sociedad, Editorial Sudamericana.
Wilczek, Frank (2016), El mundo como obra de arte, Editorial Crítica.
Wright, Orville (1953), How We Invented the Airplane, Dover [1988].
Young, Thomas (1807), Lectures on Natural Philosophy and the Mechanical Arts,
Edición facsímil por Thoemmes Press [2002].
Zubiri, Xavier (1959), Naturaleza, historia, Dios, Madrid, Editora Nacional.

150
Contenidos
Introducción ................................................................................................................ 4
Primera parte .............................................................................................................. 7
Algunos hitos del pasado .......................................................................................... 7
Capítulo I.- Los orígenes ........................................................................................... 8
Nace el mundo artificial .................................................................................................................. 8
La construcción y la ingeniería de obras públicas ...................................................................... 11
Las máquinas y la ingeniería mecánica ...................................................................................... 15
La agricultura y los ingenieros...................................................................................................... 17
Capítulo II.- Nuevas ramas de la ingeniería .......................................................... 21
La transmisión de información y de energía ............................................................................... 21
Orígenes de la ingeniería electrónica .......................................................................................... 25
La ingeniería química y los químicos........................................................................................... 27
El vuelo de objetos más pesados que el aire ............................................................................. 31
Capítulo III.- La información y las máquinas ......................................................... 34
Las máquinas gobiernan su propio comportamiento.................................................................. 34
Torres Quevedo y los primeros escarceos de la automática..................................................... 35
El amplificador electrónico de realimentación negativa ............................................................. 39
Los servomecanismos .................................................................................................................. 40
El problema del control de tiro naval y sus derivaciones ........................................................... 41
El analizador diferencial de Bush................................................................................................. 43
Primeras computadoras electrónicas .......................................................................................... 45
La predicción en el cañón antiaéreo ............................................................................................ 46
Se formula la cibernética .............................................................................................................. 48
Capítulo IV.- La revolución digital ........................................................................... 51
Los progresos de la electrónica y la informática en la segunda mitad del siglo XX ................. 51
Una nueva primitiva en la imagen científica del mundo: la información ................................... 57
¿Las últimas fronteras de la técnica? .......................................................................................... 58
Segunda parte .......................................................................................................... 63
En busca de la identidad ......................................................................................... 63
Capítulo V.- La técnica y la civilización .................................................................. 64
Entre lo natural y lo artificial ......................................................................................................... 64
Utilidad y curiosidad ...................................................................................................................... 65
¿Sapiens o Faber? ¿Es pertinente la pregunta? ........................................................................ 67
La técnica, la hominización y la humanización ........................................................................... 69
La técnica del ingeniero ................................................................................................................ 71
Técnica antigua y moderna .......................................................................................................... 72
Las tecnologías ............................................................................................................................. 73

151
Capítulo VI.- Los diferentes enfoques de la ingeniería y la ciencia .................... 77
Algunas definiciones ..................................................................................................................... 77
La prestigiosa ciencia ................................................................................................................... 79
Los científicos y los ingenieros se especializan.......................................................................... 82
Metas diferentes ............................................................................................................................ 86
El ingeniero emplea conocimientos científicos ........................................................................... 89
La electrónica y la mecánica cuántica ......................................................................................... 91
Una fecunda simbiosis.................................................................................................................. 93
Capítulo VII.- El conocimiento propio de la ingeniería.......................................... 96
¿Qué saben los ingenieros? ........................................................................................................ 96
El evasivo método del ingeniero .................................................................................................. 99
La representación ....................................................................................................................... 102
El imperioso pluralismo............................................................................................................... 103
La difícil medida de la actividad académica .............................................................................. 105
Capítulo VIII.- El modelo lineal y su posterior cuestionamiento ........................ 107
Ingeniería y ciencia después de la Segunda Guerra Mundial ................................................. 107
Un ingeniero al frente de los científicos..................................................................................... 110
El forzado hermanamiento de ciencia y tecnología .................................................................. 114
¿Están adoptando en nuestro tiempo los científicos los fines de los técnicos?..................... 115
Tercera parte .......................................................................................................... 119
Ingeniería y sociedad ............................................................................................. 120
Capítulo IX.- Formación y ejercicio profesional de los ingenieros..................... 120
Ingeniería y profesión ................................................................................................................. 120
Las Escuelas de ingenieros francesas ...................................................................................... 122
La formación de los ingenieros británicos y americanos ......................................................... 124
Otros estudios técnicos superiores en el siglo XIX.................................................................... 126
Interludio ...................................................................................................................................... 127
La formación de los ingenieros en España después de 1957 ................................................. 129
La ingeniería y las Academias ................................................................................................... 131
Capítulo X.- La ingeniería en el mundo actual .................................................... 132
Logros que han cambiado nuestras vidas................................................................................. 132
En el foco de la economía .......................................................................................................... 133
La incidencia de la automatización y la robotización................................................................ 137
La responsabilidad social del ingeniero..................................................................................... 140
La técnica en la entraña de la civilización ................................................................................. 143
Bibliografía .............................................................................................................. 149

152
153

View publication stats

Anda mungkin juga menyukai