MODULO
INTRODUCCIÓN A LA INGENIERÍA ELECTRÓNICA
BOGOTA
2006
1
ÍNDICE
PRIMERA UNIDAD
FUNDAMENTACIÓN DE LA INGENIERÍA ELECTRÓNICA
CAPÍTULOS 0. INTRODUCCIÓN.
CAPÍTULOS 1 CONCEPTUALIZACIÓN
1.1 CIENCIA
1.1.1 Definición
1.1.2 Objetivos
1.1.3 Características básicas de la ciencia.
1.1.4 Ciencia y tecnología
1.1.5 Tipos de Ciencia
1.4 Sistema
1.4.1 Definición
1.4.2 Características y clases de los sistemas
CAPITULO 2 ANTECEDENTES
CAPITULO 3 ACTUALIDAD
2
3.1 Actualidad de la Ingeniería.
3.1.1 Actualidad de la Ingeniería el mundo.
3.1.2 Actualidad de la Ingeniería en Colombia.
CAPITULO 4 APLICACIONES
4.1 Industriales.
4.1.1 Definición
4.1.2 Estado del arte.
4.2 Robótica.
4.2.1 Definición
4.2.2 Estado del arte.
4.3 Automatización.
4.3.1 Definición
4.3.2 Estado del arte.
4.4 Comunicaciones.
4.4.1 Definición.
4.4.2 Estado del arte
4.5 Electromedicina.
4.5.1 Definición
4.5.2 Estado del arte.
CAPITULO 5 DISEÑO
5.1 DEFINICIÓN DE ANÁLISIS Y SÍNTESIS.
5.2 MÉTODO DEL DISEÑO EN INGENIERÍA.
SEGUNDA UNIDAD
INGENIERÍA ELECTRÓNICA
CAPITULO 6 CONCEPTOS
3
6.2. CONCEPTOS ELECTRÓNICOS
6.2.1 Circuito.
6.2.2 Reglas de Kirchhoff
6.2.3 Fuentes
6.2.4 Frecuencia (F)
6.2.5 Periodo (T)
6.2.6 Semiconductores
CAPITULO 7 ELEMENTOS
7.2 INTEGRADOS
7.2.1 Compuertas
7.2.2 Microelectrónica
7.2.3 Microprocesadores
7.4 OPTOELECTRÓNICA
7.4.1 LED
7.4.2 Fotodetectores
7.4.3 Fibra Óptica
4
CAPITULO 0. INTRODUCCIÓN
5
El capítulo V está dedicado a una de las principales funciones de la Ingeniería
que es el Diseño. Comienza por definir Análisis y Síntesis dentro del contexto de la
ingeniería, luego habla del modelado, sus herramientas y las motivaciones del
Diseño. Por ultimo da una introducción a algunos procedimientos que se siguen
dentro del diseño.
6
PRIMERA UNIDAD DIDÁCTICA
CAPÍTULO 1. CONCEPTUALIZACIÓN
1.1 Ciencia
La definición de ciencia es un concepto amplio y se podría dar de diversas formas,
dependiendo de la disciplina desde la cual se trabaja. La siguiente es la definición
que da la Real Academia Española RAE.
1.1.1 Definición1
ciencia. (Del lat. scientĭa).
1. f. Conjunto de conocimientos obtenidos mediante la observación y el
razonamiento, sistemáticamente estructurados y de los que se deducen principios
y leyes generales.
1
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006.
http://www.rae.es.
7
1. f. pl. Las que tienen por objeto el estudio de la naturaleza, como la geología, la
botánica, la zoología, etc. A veces se incluyen la física, la química, etc.
~s ocultas.
1. f. pl. Conocimientos y prácticas misteriosos, como la magia, la alquimia, la
astrología, etc., que, desde la antigüedad, pretenden penetrar y dominar los
secretos de la naturaleza.
Ciencias humanas.
1.1.2. Objetivos
La ciencia también se define, a partir de su objetivo, como la búsqueda del
conocimiento de la realidad o como el conocimiento racional, sistemático, exacto y
comprobable de la realidad.
2
FLOREZ Carlos, GALINDO Gladis, Ciencia y Conocimiento, Usta, Santafé de Bogotá. 1971. p 251.
8
Facticidad: Significa que la ciencia parte de los hechos, tratando de ser
independiente a cualquier tipo de valoración o caracterización emocional o
sentimental. La estadística le sirva a la ciencia como un instrumento que le
permite sistematizar y cuantificar estos hechos observables. A las teorías que se
forman a partir de los hechos que han sido confirmados, se les da el nombre de
datos empíricos.
Análisis: La ciencia es analítica, porque los problemas que trata de resolver, son
descompuestos en sus elementos para entender y descubrir la forma como se
relacionan estos con el fenómeno que se esta investigando.
9
de una ley y la ley se convierte en una expresión racional de la generalización de
los casos particulares.
Falibilidad: La ciencia es uno de los pocos sistemas creados por el hombre que
parte del principio de su posibilidad de equivocarse, de cometer errores. Por
principio la ciencia es refutable, es falible. Siempre que exista la posibilidad de
encontrar nuevos hechos o hipótesis que generan una mejor explicación de los
fenómenos se hace alusión a la falibilidad de la ciencia.
10
Sintetizando, podemos afirmar que la Ciencia hace referencia al SABER, la
técnica a la HABILIDAD para hacer algo y esto se ha generado a través de la
misma historia del hombre, desde sus inicios, hasta la misma revolución científica
técnica que ha desarrollado:3
LOS INICIOS: El hombre comenzó a dominar técnicas como el uso del fuego, de
la rueda, domesticar animales, hacer herramientas, fundir, cultivar, construir y a
tener conocimientos del calendario, de las matemáticas, etc.
3
FACUNDO D, H Ángel, Ciencia tecnología e investigación, ICFES, Bogotá... p 18.
4
HESSEN, J; Teoría Del conocimiento, Losada, Bs As; 1970. Pg 345
11
CIENCIA BÁSICA TEÓRICA: Es una construcción conceptual que, luego de la
materialización de la ciencia moderna, puede expresarse por medio de diversas
ecuaciones simples.
Otra definicion
Si retomamos el concepto de ingeniería orientada al campo ocupacional, se
concreta en la aplicación del conocimiento de las ciencias naturales, mediada por
los métodos tecnológicos y las destrezas técnicas, para: Aprovechar
adecuadamente los recursos energéticos; transformar las materias y los
materiales; proteger y preservar el ambiente; producir, reproducir y manejar
información; gestionar, planear y organizar los talentos humanos y los recursos
financieros para el beneficio de la humanidad; mediante el diseño de soluciones
creativas y la utilización de las herramientas disponibles.
5
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
12
INVESTIGACIÓN; reconociendo y definiendo las necesidades reales. Búsqueda
experimental del conocimiento. Suministro e información ingenieril a las otras
funciones. Principios científicos y datos sobre los eventos ingenieriles recién
descubiertos.
6
DIXON, JOHR; Diseño en Ingeniería, inventiva, análisis y toma decisiones. Limusa. Wiley. México. 1970.
7
HOYOS VASQUEZ, Guillermo; Elementos para la comprensión de la Ciencia y la Tecnología. Colombia al
despertar de la modernidad; Ediciones Foro. Bogotá 1994. Pg 23
13
Los ingenieros civiles realizan estudio de factibilidad, investigaciones de
campo y diseño, las que se ejecutan durante la construcción y las que
realizan después de la construcción como el mantenimiento e
investigación.
14
Los ingenieros químicos tienen que ver con el diseño, y desarrollo de los
productos, como alimentos, drogas, plásticos, empaques, vidrios,
productos químicos en general.
15
técnica y económica y asigna las funciones y el rendimiento al software,
al hardware a la gente y a la base de datos así como los elementos
claves del sistema.
16
1.2.3.12 Ingeniería de Alimentos: Rama especializada en la producción de
alimentos, desde la obtención de materias primas, su transformación
física, química y Biológicas, mediante procesos industriales hasta su
embasado y distribución. Para ello toma los conceptos de la física y la
química, y los aplica junto con los principios de la ingeniería del diseño,
desarrollo de operaciones de equipos y procesos para el manejo,
transformación, conservación y aprovechamiento integral de las
materias primas, alimentarías, bajo parámetros de calidad, desde el
momento de su producción primaria hasta su consumo. Esto se realiza
sin agotar la base de los recursos naturales ni deteriorar el medio
ambiente y atendiendo a los aspectos de calidad, seguridad, higiene y
saneamiento.
17
- Comunicaciones satelitales.
- Radio y televisión.
- Telemática y redes de computadoras.
- Tecnología de Internet.
- Sistemas de telemetría.
- Sistemas de control.
1.3.1 Definición9
1.3.2 Objetivos
Ningún aspecto de la Vida Humana ha podido sustraerse a las aplicaciones de la
electrónica. La producción en las granjas, las ventas al por menor, la
manufactura, las comunicaciones, el transporte, las labores domésticas, el
8
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
9
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006.
http://www.rae.es.
18
entretenimiento, en fin todas las actividades modernas se han desarrollado
significativamente mediante la incorporación de electrónica.
Corrobora esta afirmación el desarrollo que tendrá una de las áreas más
importantes de la tecnología electrónica, el mercado mundial de los computadores.
En el año 1991 el número de computadores por persona era de 0.02. Para el año
2001 esta cifra era de 0.07, y una década después se espera que llegue a 0.18
computadores por persona. Para alcanzar estas metas se tendrán que fabricar
1000 millones de computadores en los próximos 20 años, sin contar los que se
requerirán para reemplazar aquellos que van quedando obsoletos.
2
AGARWALA GOKUL, “The World Wide Electronics Industry Status & Opportunities for Latin
America”, California, 1995.
19
cuya expansión se estima que será vertiginosa en las próximas décadas. En este
campo el crecimiento y expansión de las redes mundiales ha sido permanente.
Durante 1994 los suscriptores de líneas telefónicas aumentaron el 21.4%,
pasando de 31.3 a 38.0 millones; los suscriptores de teléfonos móviles se
incrementaron en 74.5%, al pasar de 11.0 a 19.2 millones; los usuarios de TV por
cable crecieron 6% aproximadamente, al pasar de 13.7 a 14.5 millones; y los
suscriptores de Internet aumentaron el 126.6% al pasar de 6.0 a 13.9 millones.
DISTRIBUCIÓN REGIONAL
Región No. De Empresas Empleo Productividad
(Dólares)
USA/Canadá 21.632 2.126.000 124.900
W. Europa 17.766 1.633.000 116.500
E. Europa 2.010 1.172.000 10.750
Japón 35.355 1.940.000 95.500
Cuatro Tigres 9.245 757.300 90.925
R.Asia /Aust. 6.200 2.227.000 28.000
M.E./Africa 500 180.000 33.000
América Latina 6.300 492.000 55.000
Total 99.058 10.527.700 76.375
20
Fuente: AGARWALA GOKUL “The World Wide Electronics Industry Status
& Opportunities for Latin America”, California, 1995.
Como puede verse el campo de acción para los tecnólogos y los ingenieros
electrónicos es muy amplio y se encuentra en expansión por el creciente
desarrollo que los servicios de base electrónica están teniendo en todo el mundo,
desarrollo que apenas se halla en sus comienzos y del que no se pueden sustraer
los países subdesarrollados, a riesgo de acentuar su atraso..
1.4 SISTEMA
1.4.1 Definición10
sistema.
1. m. Conjunto de reglas o principios sobre una materia racionalmente enlazados
entre sí.
2. m. Conjunto de cosas que relacionadas entre sí ordenadamente contribuyen a
determinado objeto.
3. m. Biol. Conjunto de órganos que intervienen en alguna de las principales
funciones vegetativas. Sistema nervioso.
4. m. Ling. Conjunto estructurado de unidades relacionadas entre sí que se
definen por oposición; p. ej., la lengua o los distintos componentes de la
descripción lingüística.
Otras definiciones
10
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es
11
ROMERO, Augusto, Teoría de sistemas; Universidad Pedagógica Nacional de Colombia. Bogotá 1978.
Mimeografiado. Pg 42
21
Desde aquí se ve la palabra en diferentes campos, desde la industria hasta las
ciencias puras.
Llama la atención las definiciones que han aportado diversos autores en su afán
de construir una teoría general de sistemas:
Banghart (1969), define sistema como un término que representa todas las
actividades que comprende un proceso de solución de problemas, desde su
formulación, pasando por la implementación, hasta llegar a las recomendaciones.
Kaufman (1972), define un sistema como la suma total de partes trabajando inter-
dependientemente entre si para lograr resultados requeridos, con base en
necesidades establecidas.
22
Ryan (1969) establece las siguientes características como propias de los
sistemas:
o Son conjuntos de elementos ordenados y organizados.
o Están compuestos de elementos o componentes y de relaciones entre si y con
la totalidad del sistema.
o Funcionan como una totalidad en virtud de la interdependencia entre las partes.
o Están ubicados dentro de un contexto y orientados hacia fines específicos.
o Poseen una estructura de funcionamiento que les permite una dinámica de
desarrollo.
Este mismo autor ofrece cuatro principios generales, los cuales han sido aplicados
al estudio del funcionamiento de los sistemas y al desarrollo de nuevos sistemas:
12
BERTANLANFFY, L:V Teoría general de sistemas. Ed Boston, 1973, pg 99.
23
partes o subsistemas. Esta situación determina la necesidad de clasificarlos
según ciertos niveles.
NIVEL DESCRIPCIÓN
Estructuras estáticas Llamado también el nivel de las estructuras.
Considerado como el principio de conocimientos teóricos organizados,
pues la precisión de relaciones estáticas hace posible la teoría
dinámica o funcional. Este nivel comprende; átomos, moléculas,
cristales, estructuras biológicas de nivel microscópico. Su descripción
se hace a través de fórmulas estructurales.
Mecanismos de control Son sistemas cibernéticos y homeostáticos en cuanto a la transmisión
e interpretación de información esencial para la supervivencia del
sistema. A este nivel pertenecen el termostato, servomecanismos y
mecanismos homeostáticos en los organismos.
Sistemas abiertos Son estructuras autorreguladas, en donde se puede diferenciar la vida.
Son sistemas que sostienen el paso de la materia (metabolismo).
También se le denomina el nivel de la célula y de los organismos en
general.
Sistema animal Están caracterizados por la capacidad de movimiento creciente,
conducta teleológica, aprendizaje y conocimiento de su existencia. El
modo de actuar responde a una imagen o estructura de conocimiento
o percepción del medio ambiente. Tienen comportamiento autónomo
debido a la gran capacidad de recepción y procesamiento de
información. Aquí comienza la teoría referida a los autómatas.
Es el individuo considerado como sistema. Se diferencia del nivel
anterior por cuanto posee autoconciencia; la percepción, además de
ser más compleja tiene una cualidad reflexiva, no sólo conoce, sino
que esta consciente de lo que conoce. Estas propiedades están
ligadas a los fenómenos del lenguaje: hablar, producir, percibir e
Sistemas humanos interpretar símbolos.
Sistemas sociales Son las organizaciones sociales, donde tienen especial significado los
valores, la naturaleza y dimensión del conjunto de valores, los
símbolos vinculados a las manifestaciones artísticas y la gama
completa de emociones humanas.
Sistemas simbólicos Representados por el lenguaje; la lógica; las matemáticas, las artes, la
moral y demás sistemas de orden simbólicos.
24
25
CAPITULO 2 ANTECEDENTES
LA INGENIERÍA PRIMITIVA
La ingeniería, cualquiera que sea su definición formal, tiene su historia, pues ella
no se ha desarrollado sin conexión con las otras actividades humanas, al
contrario: es una de las más significativas empresas sociales del hombre. En este
sentido la ingeniería debe mirarse en el contexto de la historia general asociada
con los grandes eventos que han cambiado totalmente los sistemas de la vida
humana como: la revolución en la producción de alimentos (6000-3000 AC), la
aparición de la sociedad urbana (3000-2000 AC), el nacimiento de la ciencia
griega (600-300), la revolución en la fuerza motriz (Edad Media), el surgimiento de
la ciencia moderna (siglo XVII), el vapor y la revolución industrial (siglo XVIII), la
electricidad y los comienzos de la ciencia aplicada (siglo XIX), la edad de la
automatización (siglo XX), la revolución termonuclear, la revolución de la
electrónica y la informática, en suma con la nueva era del conocimiento. A través
de las edades, el ingeniero ha estado al frente como un hacedor de la historia. Sus
logros materiales han tenido tanto impacto como cualquier otro desarrollo político,
económico o social. Estos cambios fundamentales han estimulado desarrollos
ingenieriles, los cuales a su vez han acelerado la velocidad de la revolución
histórica14
13
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
14
El autor cita a: Kirby, Richard Shelton et al., Engineering in history, Dover Publications, New York,
1990, Ribeiro, Darcy, El proceso civilizatorio, Universidad del Valle, Cali, 1993.
26
Los comienzos de la ingeniería se considera que ocurrieron en Asia Menor o
África hace unos 8000 años, cuando el hombre empezó a cultivar plantas,
domesticar animales, y construir casas en grupos comunitarios.
Los desarrollos de esta época incluyen los métodos de producir fuego a voluntad,
la fusión de ciertos minerales para producir herramientas de cobre y bronce, la
invención del eje y la rueda, el desarrollo del sistema de símbolos para la
comunicación escrita, las técnicas de cálculo y la aritmética y la normalización de
pesas y medidas.
Hasta 3000 A.C. la mayoría de las edificaciones eran modestas viviendas, pero
desde entonces la ingeniería estructural dejó de ser meramente funcional, también
fue arquitectónica. Se construyeron grandes palacios para los príncipes y enormes
templos para los sacerdotes. Una consecuencia de la aparición de las religiones
organizadas, con su gran estructura, fue un aumento de la actividad ingenieril y de
su conocimiento. La nueva riqueza y los rituales religiosos también llevaron a la
construcción de tumbas monumentales, de las cuales son ejemplo sobresaliente
las pirámides. De hecho el primer ingeniero conocido por su nombre fue Imhotep,
constructor de la Pirámide de peldaños en Saqqarah, Egipto, probablemente hacia
el 2550 A.C. Este ingeniero alcanzó tanta reverencia por su sabiduría y habilidad,
que fue elevado a la categoría de dios después de su muerte.
15
El autor cita a: The New Encyclopaedia Britannica, "Engineering", Macropaedia, vol 18, 15th ed.,
Chicago, 1993, p. 414.
27
no fue reconocida jamás como obra de ingeniería, sino, acaso, como obra de
arquitectura.
16
El autor cita a: Beakley, George C. and H. W. Leach, Engineering. An introduction to a creative profession,
The Macmillan Company, New York, 1987.
Ehinnery, John R., The world of engineering, McGraw Hill, New York, 1985.
17
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
28
Con el declinar de la civilización egipcia, el centro del conocimiento se desplazó a
la isla de Creta y después, alrededor del 1400 A. C., hacia la antigua ciudad de
Micenas en Grecia, el lugar de donde Agamenón partió para la guerra de Troya.
La ciencia griega no fue muy propensa a la ingeniería, pero en este sentido quizá
su mayor contribución fue descubrir que la naturaleza tiene leyes generales de
comportamiento, las cuales se pueden describir con palabras. Además está la
ventaja de la geometría euclidiana y su influjo en la ingeniería
18
El autor cita a: Franz, Georg, Las transformaciones en el mundo mediterráneo, Siglo
XXI, México, 1980.
29
Pontífice, la palabra que designaba a las ingenieros constructores de puentes,
tomó una denotación tan importante que en tiempos de los romanos vino a
significar el magistrado sacerdotal que organizaba y presidía el culto a los dioses y
con esa acepción se utiliza el término en la actualidad. Esta anotación semántica
sólo para insistir en el contenido sacro de las actividades ingenieriles.
Un historiador afirma que las ciudades del imperio romano gozaban de sistemas
de drenaje y suministro de agua, calefacción, calles pavimentadas, mercados de
carne y pescado, baños públicos y otras facilidades municipales comparables a las
actuales.
30
poco esfuerzo organizado para realizar trabajo científico. Al contrario, fue un
período en el cual individuos aislados hicieron nuevos descubrimientos y
redescubrieron hechos científicos conocidos antes.
Fue durante este período que se usó por primera vez la palabra ingeniero. La
historia cuenta que alrededor del año 200 D.C se construyó un ingenio, una
invención, que era una especie de catapulta usada en el ataque de las murallas
defensoras de las ciudades. Miles de años después sabemos que el operador de
tal máquina de guerra era el ingeniator, el origen de nuestro título moderno: el
ingeniero.
Un historiador afirma que: "la principal gloria de la Edad Media no fueron sus
catedrales, su épica o su escolástica: fue la construcción, por primera vez en la
historia, de una civilización compleja que no se basó en las espaldas sudorosas de
esclavos o peones sino primordialmente en fuerza no humana"20. Esto porque la
revolución medieval de la fuerza y la potencia es uno de los desarrollos más
dramáticos e importantes de la historia. Obviamente que un estímulo para este
desarrollo fue el decaimiento de la institución de la esclavitud y el continuo
crecimiento del cristianismo.
Además se hicieron otros avances técnicos como el uso del carbón de leña y el
soplo de aire para fundir el hierro eficientemente. Otro avance fue la introducción,
desde China, del papel y la pólvora por los árabes, así como las ciencias de la
química y la óptica que ellos desarrollaron.
Sin duda el uso del papel, la invención de la imprenta y la brújula, con las
posibilidades de navegación, contribuyeron a la dispersión del conocimiento.
20
El autor cita a: Harvey, John, The Gothic World 1100-1600, B. T. Batsford, London, 1970.
31
actualidad. El libro de bosquejos del ingeniero francés Villard de Honnecourt
revela un amplio conocimiento de las matemáticas, la geometría, las ciencias
naturales y la artesanía.
De esos tiempos data una máquina tan maravillosa como el reloj mecánico, que
iría a influir tan marcadamente en la civilización moderna. En Asia la ingeniería
también avanzó con complejas técnicas de construcción, hidráulica y metalurgia,
que ayudaron a crear civilizaciones como la del imperio Mongol, cuyas grandes y
bellas ciudades impresionaron a Marco Polo en el siglo XIII.
En esa época se hicieron los primeros intentos para producir la máquina de vapor
por parte de Papin y Newcomen. Aunque estas primeras máquinas eran muy
ineficientes, marcaron el inicio de las máquinas térmicas como productoras de
potencia21.
La revolución industrial
Cuarenta años después de la muerte de Newcomen, James Watt hizo cambios tan
fundamentales e importantes que, junto con Newcomen y Savery, se le da crédito
como originador de la máquina de vapor. El otro desarrollo que dio ímpetu a los
21
El autor cita a: Berg, Maxine, La era de las manufacturas 1700-1820, Editorial
Crítica, Barcelona, 1987.
32
descubrimientos tecnológicos fue el método, descubierto por Henry Cort, para
refinar el hierro. Este y la máquina de Watt proporcionaron una fuente de hierro
para la maquinaria y plantas de fuerza motriz para operar la maquinaria.
Tres desarrollos de la ingeniería del siglo XIX cambiaron las formas de vida
humana y alteraron la evolución de la historia. El primero fue la expansión de la
revolución industrial, el segundo el surgimiento de la ingeniería civil como una
profesión, que incluyó la conciencia de la necesidad de la educación científica y
técnica como prerrequisito para la práctica ingenieril. El tercer desarrollo, y el más
importante, correlacionado con el segundo, fue la introducción de un nuevo
método para el logro del avance ingenieril: el método de la ciencia aplicada.
Casi desde su inicio la ingeniería tuvo dos aplicaciones: una de uso cotidiano y
una de uso mítico. El primer mundo conceptual corresponde a la solución de las
necesidades civiles y militares que permitió construir todo tipo de obras y espacios
para realizar actividades cotidianas y colectivas. La otra aplicación, de carácter
22
Cazadero, Manuel, Las revoluciones industriales, Fondo de Cultura Económica, México, 1995.
33
sacro, se refiere a la fabricación de utensilios y la creación de espacios más
complejos y se concretó, sobre todo, en las construcciones de templos y tumbas23.
Este aspecto mágico de la ingeniería podría indagarse en las obras de todas las
civilizaciones, desde los megalitos, los ziggurats sumerios, las mastabas,
pirámides y templos egipcios, los templos minoicos, los laberintos cretenses, los
monumentos romanos, las catedrales góticas, las pagodas orientales, las
pirámides americanas, las tumbas agustinianas, hasta los templos actuales. Esto
se puede rastrear en cualquier cultura, antigua o actual. En este contexto se opta
por ejemplos de nuestra cultura aborigen lo que permite explicar más de cerca la
dimensión mítica de la ingeniería.
“Entre los kogi, como en la mayoría de las comunidades indígenas, quien detenta
la principal jerarquía religiosa, el mamo, es el depositario del mito en su integridad
y del conocimiento en general, se convierte en conservador del orden natural y
social a la vez que asume las funciones de arquitecto e ingeniero".
Así se entienden afirmaciones como las de Llanos: " Para poder identificar una
cultura y posteriormente conocer su actuación histórica con sus transformaciones,
tenemos que aproximarnos a sus modelos conceptuales que están contenidos en
sus asentamientos domésticos cotidianos (poblados, viviendas, campos de cultivo,
talleres, caminos, etc.), y a sus modelos míticos por intermedio del conjunto de
23
El autor cita a: O'Dea, William T., The meaning of engineering, Museum Press, London, 1961.
24
El autor cita a:Llanos V., Héctor, "Espacios míticos y cotidianos en el sur del Alto Magdalena
Agustiniano", Ingeniería prehispánicas, FEN, Bogotá, 1990.
25
El autor cita a: Salazar, Luz Amanda, En los orígenes de la ingeniería colombiana, Universidad Nacional de
Colombia, Bogotá, 1988, p. 41.
34
signos plasmados de manera articulada en sus objetos mágicos, hechos en arcilla,
piedra, metal o cualquier otro material".
1- los seres o cosas sobre los que actuar, 2- los conocimientos, 3- la intención y
decisión de aprovechar los recursos y conocimientos y 4- la inventiva y la
capacidad manual. El primer elemento son los recursos, los otros tres son
aspectos de la cultura humana que obran sobre los primeros.
Pero, como anota Patiño, "Un recurso puede existir al alcance y no ser
aprovechado. las razones son varias, pero se pueden reducir a dos: que no se
conozcan las propiedades de las cosas o que se formen tabúes sobre lugares,
minerales, plantas o animales, que impiden usarlas a pesar de su presencia. La
posesión de técnicas no quiere decir que sean o puedan ser siempre utilizadas".
Una culminación de ello es, sin duda, la catedral gótica, cuyo contenido esotérico
ha descrito tan bien Fulcanelli cuando dice que: "Es asilo inviolable de los
26 El autor cita a: Llanos V., Héctor, "Algunas consideraciones sobre la Cultura de San Agustín: Un Proceso
histórico Milenario en el Sur del Alto Magdalena de Colombia", Boletín Museo del Oro, Banco de la
República, No 22, Bogotá, 1988, p. 83.
35
perseguidos y sepulcro de los difuntos ilustres. Es la ciudad dentro de la ciudad, el
núcleo intelectual y moral de la colectividad, el corazón de la actividad, pública, el
apoteósis del pensamiento del saber y del arte."
"La explicación del término arte gótico debe buscarse en el origen cabalístico de la
palabra... arte gótico no es más que una deformación de argótico. La catedral es
una obra de art goth, es pues, una cábala hablada...". 28
27 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57.
28 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57.
29 El autor cita a: Claret Z., Alfonso, "Una apreciación evaluativa de la Edad Media desde el punto de vista
de las ciencias", Seminario Historia de las Ciencias, Facultad de Educación, Universidad del Valle, 1984.
36
Los sueños del hombre, los que lo han llevado a la situación actual del mundo,
pasan por el dominio de la naturaleza: se sueña con el control de la población, con
un gobierno mundial, con fuentes permanentes de energía, con el control del
clima, con los robots, con los computadores y la educación con ellos, con la
transferencia instantánea de masas a distancia, con la aldea global, con la
reproducción asexuada, con los seres humanos biónicos (cyborgs), con la
ingeniería genética, con el control de la evolución, con la inmortalidad, con la
telepatía, con la comunicación entre especies, con la explotación del espacio
próximo, con las colonias espaciales, con los vuelos en campos de baja
gravitación, con los viajes interplanetarios, con la creación de nuevas tierras, con
el control de la gravitación, con la comunicación interestelar, con los viajes
interestelares, con los agujeros negros, con los imperios galácticos, con los viajes
a través del tiempo, con los cambios alternativos a través del tiempo, sueños todos
estos que tienen un elevado contenido tecnológico, vale decir ingenieril.
30
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
37
Una visión que parte de que durante la conquista y la colonia, España y Portugal
no se abrían a la modernidad sino que con la Contrarreforma se encerraban en el
dogma y la fe única. De ahí el retraso en la sociedad, la política, la tecnología, la
economía o la cultura. Las ideologías provenientes de Europa fueron asumidas en
la América Latina con el fervor acrítico de una creencia religiosa. Inclusive el
marxismo todavía tiene vida en muchos reductos de este "Lejano Occidente". Esto
ha sido así hasta ahora porque ..."tenemos una cultura filosófica mimética que
repite los planteamientos que formulan los pensadores alemanes, franceses,
británicos, etc., sin vincular para nada esas reflexiones con nuestro pasado
histórico, con nuestro ethos cultural, con nuestras necesidades y perspectivas"31.
Es decir, que Colombia debe buscar sus vías para perfeccionar su modernización,
porque no se trata de modernizar la dependencia, de copiar servilmente el
desarrollo de los poderosos o de confrontarlos mediante regresiones invariables y
todavía más costosas. Se habla de tres formas principales de modernización:
31
El autor cita a: Menco M. , José T., "Acerca de la razón aúrea", Informetal, No. 47, Abril 1996, p. 24
32
El autor cita a: Dussel, Enrique, 1492 El encubrimiento del otro, Antropos, Bogotá, 1992.
38
• La modernización gradual, como trata de hacerse en los países
tercermundistas, laboratorios de modernidad donde lo moderno es frágil.33
Aunque Colombia haya pasado de país rural a país urbano - en 1938 el 70% de la
población residía en zonas rurales y hoy el 75% vive en las cabeceras -, y en la
ciudades las vanguardias pueden haberse trepado a la nave de lo posmoderno,
parece un poco forzado tratar de encontrar posmodernidad precisamente en las
características de una América Latina que no ha podido acceder a la modernidad.
Nuestra modernidad es, cuando más, periférica y mestiza. "En América Latina y en
Colombia en particular, lo moderno no puede jamás considerarse como un
proyecto agotado. Muy al contrario, diría que el proyecto moderno aún tiene
demasiadas porsibilidades,... aunque el sendero de la modernidad no podemos
recorrerlo del mismo modo como lo hicieron otros países para bien o para mal".34
Evidentemente, nuestro empeño debe ser la entrada a la modernidad con todo lo
que eso implica y no simplemente a la modernización ni mucho menos el creernos
posmodernos por influjo de unas artes que no están inscritas en el
internacionalismo nivelador de la aldea global.
Antecedentes
Es posible que los indios no fueran grandes matemáticos, tema que también
podría discutirse, pero afirmar que fue nula la ejecución de cualquier obra es sin
duda una temeridad, por decir lo menos, como se demostrará en este trabajo. Un
33
El autor cita a: Hernández, Miguel Angel, "La modernización social y el mundo moderno", Estructura
Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MEN-
DNP-FONADE, Bogotá, 1990.
34
El autor cita a: Bateman, Alfredo, "Historia de la matemática y la ingeniería", Ciencia y Tecnología en
Colombia, Colcultura, Bogotá, 1978, p. 107.
35 Jaramillo Vélez, Rubén, "La postergación de la experiencia de la modernidad en Colombia", Estructura
Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MEN-
DNP-FONADE, Bogotá, 1990.
39
punto de vista similar es adoptado por un historiador oficial como el ingeniero
Poveda Ramos cuando señala que : " Todo lo que podemos reconocer a nuestros
aborígenes como 'ingenieros' es la construcción de caminos con una técnica muy
rudimentaria, aunque a veces con trazados muy audaces; la técnica de la
separación del oro de aluviones, la de su fundición y la de su elaboración a mano,
la minería de sal de socavón y su evaporación de aguas salinas, la muy primitiva
alfarería y los hornos de leña para cocer piezas de barro, la hilatura y el tejido del
algodón y de la lana. Pero casi nada más.".36
Un punto de vista similar es adoptado por Luz Amanda Salazar al indicar que :"
...los conocimientos agrupados hoy bajo la denominación de ingeniería no
existieron como una rama autónoma, sino formando parte de una gran amalgama
gnoseológica, técnica y mítico-religiosa, pero ante todo práctica. No había
distinciones entre unas y otras actividades".38
40
-. Fue a través de las mismas tecnologías como se confirió el poder a aquellos que
lo impartían y controlaban”.39
Los materiales usados por nuestros antepasados para sus utensilios, fueron de
origen mineral, vegetal y animal.41 La tecnología de los materiales tiene que ver
pues, con la utilización y manipulación de materiales y de manera notable con el
manejo de los metales o metalurgia, que lleva incluso hasta la minería. De otro
lado, la ingeniería civil se hace evidente en las construcciones (donde estaría
asociada con la arquitectura) y las intervenciones del paisaje. Estas se manifiestan
en las redes de caminos, en las modificaciones del suelo para fines agrícolas y en
los sistemas de manejo hidraúlico.
Así pues el territorio que hoy comprende Colombia ha sido ocupado desde hace
13000 años. Desde el inicio de la utilización de este espacio geográfico, la acción
de los grupos humanos ha tenido una fuerte incidencia sobre el paisaje y algunas
de las más grandes transformaciones fueron realizadas con anterioridad al siglo
XVI, es por eso que estamos de acuerdo con los diversos autores hablan de
Ingeniería Prehispánica en nuestro país.
39
El autor cita a: Lechtman, Heather, " Perspectivas de la metalurgia precolombina de las Américas",
Precolumbian American Metallurgy, Banco de la República, Bogotá, 1986, p. 26.
40
El ator cita a: Patiño, Víctor Manuel, Historia de la cultura material en la América equinoccial, Tomo V.
Tecnología, Instituto Caro y Cuervo, Bogotá, 1992.
El autor cita a: Plazas, Clemencia, et al., La sociedad hidraúlica zenú, Banco de la
41
41
El término Ingeniería Prehispánica se hace claro cuando se estudian evidencias
como las siguientes:
42 El autor cita a: Ingenierías prehispánicas, Santiago Mora (ed.), Fondo Fen, Bogotá,
1990. Precolumbian American Metallurgy, Clemencia Plazas (ed.), Banco de la República,
Bogotá, 1986.
Echavarría, A., "Metalurgia Prehispánica en América", Informetal, Nos 30, 31 y 32, 1992.
Espinoza, Iván D. y Duque Marcela, "La explotación aurífera en la Antioquia
Prehispánica", Informetal, Nos. 36 y 37, 1993.
43 El autor cita a: Nieto Arteta, Luis Eduardo, Economía y cultura en la historia de
Colombia, Tiempo Presente, Bogotá, 1975.
42
tribal africano de la población colombiana, predominan los tipos de origen
septentrional y los congoleses….44
Los pueblos de Guinea, de la cuenca de Senegal, del Níger y del Sudán dieron
nacimiento a culturas de muy alto grado de desarrollo. Conocieron la ganadería
vacuna, el uso del camello, el trabajo del hierro y el bronce, la manufactura de
tejidos y tuvieron un arte (esculturas de Benin y Dahomey), una religión y una
organización política compleja. En sus áreas se formaron imperios como el Malí y
el Songoi y sus contactos con el norte de Africa llevaron hasta ellos influencias del
Islam. Otras culturas, como las de los pueblos congos, hotentotes y bosquimanos,
practicaron la agricultura de azada y la ganadería vacuna, y conocieron la técnica
del hierro, pero no alcanzaron el refinamiento de las culturas septentrionales. Pero
todo esto se perdió con la trata y a pesar del influjo negro en la economía y la
sociedad, su incidencia tecnológica y científica es irrelevante.
44 El autor cita a: Jaramillo Uribe, Jaime, Ensayos sobre historia social colombiana,
Universidad Nacional, Bogotá, 1968.
45 El autor cita a: Silva, Renán, Universidad y sociedad en el Nuevo Reino de Granada,
Banco de la República, Bogotá, 1992, p. 443.
46
El autor cita a: Poveda Ramos, Gabriel, Minas y mineros de Antioquia, Banco de la
República, Medellín, 1981.
47
El autor cita a: Bateman, Alfredo D., "Historia de las matemáticas y la ingeniería",
Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.),
Colcultura,
Bogotá, 1978, p. 107., Obregón Torres, Diana, Sociedades científicas en Colombia 1859-
1936, Banco de la república, Bogotá, 1992.
43
En esta década personajes como Pedro Alcántara Herrán y Mariano Ospina
Rodríguez representan la élite ilustrada que trató de introducir una nueva
orientación técnica en la clase alta mediante la importación de instructores
extranjeros de ciencias y el envío de jóvenes de familias prestantes a los centros
científicos del exterior. En ambos casos, el interés declarado de la élite se
orientaba más a lo práctico, lo técnico y lo productivo que hacia lo teórico, lo
científico y lo intelectual. Si bien no estaban en contra de promover la formación
de científicos creativos, su principal preocupación era la de crear un cuerpo de
técnicos y empresarios que pudieran ayudarles a ponerse al día,
económicamente, con los más avanzados países del mundo occidental. Era
necesario inculcar una inclinación científica hacia el conocimiento, haciendo más
énfasis en el desarrollo el razonamiento que en la memorización de verdades
concluyentes. Existía, por supuesto, un límite para el entusiasmo por el
racionalismo científico. Los conservadores neogranadinos rechazaban
vigorosamente los aspectos ateo - materialistas de la Ilustración occidental. En su
calidad de élites tradicionales, si bien en vías de modernización, deseaban
adueñarse sólo de aquellas ideas nuevas que consideraban necesarias para el
progreso económico de su país48.
Por ello resulta tan característico y sui generis ese sincretismo colombiano, esa
modernización en contra de la modernidad, que permitirá en los primeros decenios
del siglo avanzar en el terreno infraestructural sin variar sustancialmente la
concepción tradicionalista o la visión del mundo y la ideología, que desde la firma
del Concordato de 1887 estuvo sometida al control de la iglesia 49.
48
El autor cita a: Safford, F., El ideal de lo práctico, El Ancora Editores, Bogotá, 1989.
49
El autor cita a: Corredor, Consuelo, "Modernismo sin Modernidad", Controversia, No
161, Bogotá, 1990.
Parra, Lisímaco, "Modernidad y Ciencia", Estructura Científica, desarrollo tecnológico y
entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MEN-DNP-FONADE,
Bogotá, 1990, p. 561.
50
El autor cita a: Poveda Ramos, Gabriel, "Los ferrocarriles y la ingeniería", Revista
Universidad de Antioquia, No 206, Oct-Dic, 1986, p. 5.
Obregón Torres, Diana, Sociedades científicas en Colombia 1859-1936, Banco de la
república, Bogotá, 1992.
44
Por esa época existían ya la Facultad de Matemáticas e Ingeniería de la
Universidad Nacional en Bogota, la Facultad de Ingeniería de la Universidad del
Cauca y la Escuela de Minas de Medellín. Los ingenieros antioqueños eran lo
suficientemente numerosos como para mantener una comunidad científica, la cual
tenía unas tendencias profesionales muy contrastantes con las de los ingenieros
del oriente del país, quienes dominaban la Sociedad de Ingenieros de Bogotá.
Estos eran predominantemente burócratas, por su residencia en Bogotá tenían la
pista de los empleos técnicos gubernamentales como la topografía, la
construcción o la inspección de obras públcas y el magisterio. De otro lado los
ingenieros de Antioquia Cauca eran menos politizados y burocráticos, confiaban
más en la empresa privada, muchas veces la suya propia.
TENDENCIAS
A partir del siglo XIX se ha hecho cada vez más patente la interacción entre el
sistema general de la sociedad y el subsistema tecnológico. La sociedad impulsa o
deprime el desarrollo de la tecnología mediante factores económicos,
orientaciones políticas, previsión de recursos humanos, expectativas de utilización,
51
El autor: Safford, Frank, "Orígenes de la profesión de ingeniero en Colombia",
Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.),
Colcultura, Bogotá, 1978, p. 57.
45
y aún las actitudes conductuales de los individuos. Se comprende así que
cualquier análisis prospectivo de la ingeniería pasa por una mirada a las
tendencias tecnológicas globales más importantes, entre las cuales están las
siguientes:
52
El autor cita a: Cortés A., Carlos, "Planes y Prospectiva de la Facultad de Ingeniería
de la Universidad Nacional", Ingeniería e Investigación, NO 37, 1998, p. 111.
46
Esto no quiere decir que las industrias que tienen que ver con los recursos
naturales, la infraestructura y la calidad del ambiente vayan a debilitarse. No, es
que las economías avanzadas y en desarrollo en última instancia se basarán "en
el poder del cerebro" y las economías de escala y la automatización no serán
suficientes para sobrevivir. Además el rápido crecimiento de las tecnologías que
diseminan rápidamente el conocimiento y proporcionan fácil acceso a la
información y los datos alterarán la forma y posibilidad de la sustancia del trabajo
ingenieril en la próxima generación.
La ética es fundamental por las consecuencias, cada vez más impactantes, de las
decisiones de los ingenieros en cualquier campo, quienes deberán ser capaces de
enfrentar el imperativo tecnológico y estar en capacidad de poner la dignidad
humana por encima del dios mercado y la voracidad neoliberal.
53
El autor cita a: Ackoff, Russel L., Rediseñando el futuro, Limusa, Mexico, 1995 p. 21
47
Las siguientes son algunas características generales, necesarias en los ingenieros
del futuro: habilidades de grupo, incluyendo colaboración y aprendizaje activo,
habilidades de comunicación, liderazgo, perspectiva en sistemas, entendimiento y
apreciación de la diversidad de las personas, apreciación de las diferentes culturas
y prácticas comerciales y el entendimiento de que la práctica de la ingeniería
ahora es global, perspectiva interdisciplinaria, compromiso con la calidad, la
oportunidad y el mejoramiento continuo, investigación de pregrado en experiencias
de trabajo en ingeniería, entendimiento de los impactos sociales, económicos y
ambientales en la toma de decisiones en ingeniería y ética54.
Lo que se anota de la ingeniería del futuro debe revertir la situación actual, en que
es una profesión invisible, los mayores "agentes de cambio de la civilización"
están impelidos a convertirse en actores reales y centrales de la construcción del
mundo que queremos.
54
Eel autor cita a: Smith Jr., Clifford V., "La educación en ingeniería para la competencia en el siglo XXI",
Conferencia Mundial sobre educación en ingeniería y líderes en la industria, París, 1996, ACOFI, 1997, P.
175.
55
El autor cita a: Ferro B., Jesús, "Estrategias educativas para la ingeniería del año dos
mil", Visión de la Universidad ante el siglo XXI, Ediciones Uninorte, Barranquilla, 1996, p.
96.
56
El autor cita a: Clarke, R. W. and Kulacki, F. A., "International Engineering: Tins our Engineer School
Never Told You", Mechanical Engineering Education for Global Practice. Proceedings of the 1997 ASME
Mechanical Engineering Department Heads Conference, American Society of Mechanical Engineers, New
York, 1997, p. 27.
48
He ahí la tarea de nuestra ingeniería: estar al tanto, e incluso adelantarse, a los
últimos desarrollos mundiales sin olvidar las grandes necesidades básicas de
nuestro pueblo, las cuales deben satisfacerse sin atentar contra el ambiente y de
una manera eficiente y eficaz. Un enorme reto sin duda, por eso debemos tener
muy claro el rumbo que debemos fijar a nuestra facultad y el tipo de ingenieros
que se forma en ella.
Introducción
Historia de la electrónica.
• Nacimiento de la electrónica:
Como hacia el fin de siglo XIX ya se había inventado el micrófono, que transforma
una señal acústica en una eléctrica. Por otro lado, ya se había inventado el
audífono, aparato que transforma una señal eléctrica en una acústica. En este
sistema las voces se distorsionaban mucho, la energía con que se emitía la onda
era muy pequeña. Además, el hecho de que la fracción de energía que llegaba al
57
http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/electr.htm
http://www.cft.gob.mx/html/la_era/magic/es1.html
http://infodev.upc.edu.pe/ieee/La%20Rama/articulos/moran1.htm
http://www.airpower.maxwell.af.mil/apjinternational/apj-s/1trimes01/campbell.htm
49
receptor era muy pequeña, hacía difícil su funcionamiento para distancias
grandes. La solución más satisfactoria fue lograda una vez que se inventó el tubo
al vacío.
En 1899 J.J. Thomson estableció que las cargas que se liberaban al calentar la
superficie metálica eran electrones.
50
radio, muy rústico, el cual trató de vender a los aficionados de la radio y a las
fuerzas armadas. También formó una compañía para poder competir con la ATT
en comunicaciones de larga distancia. Su radio podía transmitir y recibir voces,
pero no pudo conseguir que sus triodos amplificaran en forma confiable.
• Desarrollo de la Radio.
Un elemento crucial para el desarrollo de la radio fue el oscilador. Este circuito fue
inventado en 1913 por el físico estadounidense Edwin Howard Armstrong (1890-
1954). Es un circuito basado en un tríodo, de cuya salida se toma una parte de la
corriente que se vuelve a alimentar a la entrada del tríodo, formando un circuito de
retroalimentación. El primer programa público de radio fue emitido en Inglaterra el
23 de febrero de 1920. Así nació radio.
51
1941, comparada con la amplitud modulada (AM), tiene la ventaja de que sus
transmisiones no se alteran con las perturbaciones, ya sean atmosféricas o
producidas por el hombre, que afectan la amplitud de la onda pero no su
frecuencia. En el sistema de FM no se presenta el llamado fenómeno de
"estática", que es un ruido sistemático que se oye en emisiones de AM.
• Desarrollo de Televisión.
52
compañía Westinghouse una versión primitiva, pero que funcionaba. Las
imágenes eran débiles y vagas, casi sombras. Los directivos de la empresa no se
impresionaron tampoco cuando Zworykin les mostró una versión mejorada en
1929.
La RCA probó por primera vez un sistema completo en 1933. Transmitió imágenes
de 240 líneas a una distancia de siete kilómetros en Colligswood, Nueva Jersey.
Aumentaron el número de líneas; actualmente se usan 525. En 1938 la RCA tuvo
listo un sistema de televisión en funcionamiento. Por problemas burocráticos el
gobierno no aprobó la licencia de funcionamiento hasta julio de 1941. Durante los
años de la segunda Guerra mundial, científicos e ingenieros dirigidos por Zworykin
desarrollaron una cámara 100 veces más sensible que el iconoscopio, al terminar
la guerra, la RCA reinició sus trabajos en el campo de la televisión.
En la década de 1930 fue muy popular el concepto del rayo de la muerte: podía
causar incapacidad física, mental y aun la muerte. Durante dicha década hubo
buen número de personas que pretendieron haber inventado y construido
dispositivos que producían diferentes tipos de rayos. Análisis mostraban que
siempre había algún truco.
Se construyó un pequeño sistema acústico, que daría una señal cuando recibiera
los sonidos producidos por los aviones, no era funcional ya que no distinguía entre
el ruido producido por el atacante y otros sonidos, automóviles, animales.
53
doctor Robert Watson Watt, físico y director del Laboratorio de Investigación de
Radio y le preguntó sobre el prospecto de desarrollar algún rayo de la muerte.
Watson Watt regresó a su laboratorio y propuso lo siguiente al doctor Arnold
Wilkins, físico y ayudante suyo: calcule la cantidad de potencia de radiofrecuencia
necesaria para elevar la temperatura de 4 litros de agua de 35.5º C a 41ºC a una
distancia de 5 km y a una altura de 1 kilómetro. Su cálculo mostró que se
necesitaba generar una potencia enorme era claro que no era factible un rayo de
la muerte por medio de la radio.
En agosto de 1939, tres semanas antes del inicio de la segunda Guerra Mundial,
Gran Bretaña contó con un sistema de detección de aviones. Con ayuda del radar,
los ingleses podían detectar la salida de los aviones alemanes desde sus bases
situadas en países conquistados, como Francia y Bélgica.
54
A medida que la microtecnología electrónica se desarrolló, se aplicó a
computadoras comerciales. Se diseñaron diferentes dispositivos portátiles como
las calculadoras.
55
equipados con sistemas de navegación basado en satélites (sistemas GPS), con
video-cámaras para "ver", con micrófonos para "escuchar" y con
parlantes para "hablar".
Junto con los automóviles inteligentes se tendrán también las pistas inteligentes
que se encargan de conducir vehículos sin la necesidad de un conductor. Las
pistas inteligentes se han planteado como una solución a las insoportables
congestiones de tránsito vehicular. El Sistema de Autopistas Automáticas de Alta
Velocidad (Automated Highway System) que se viene desarrollando en California,
EE. UU.
En el campo de las comunicaciones, las redes completamente ópticas se
impondrán como la tecnología más eficiente para transmisiones intensivas en data
(voz, fax, video) entre millones de terminales. En teoría una fibra óptica simple
puede transmitir a una velocidad de 100 veces superior a la velocidad de
transmisión en cables de cobre.
56
Ventajas Desventajas
• La igualdad entre hombres y mujeres se • Si cae en manos irresponsables será
daría, igualdad de oportunidades, no una amenaza para la humanidad.
habría trabajo que solo se ajuste para un
solo sexo. • Los jóvenes se van haciendo muy
dependientes a esta tecnología.
• Vida más fácil.
• Decaería la innovación debido a la falta
• Mayor calidad y esperanza de vida. de creatividad.
Conclusiones
57
El ser humano ha hecho una travesía a lo largo del desarrollo del
electromagnetismo, en la época que existía una absoluta curiosidad científica por
los fenómenos naturales, hasta llegar a la actualidad, en donde es parte sustancial
de una poderosa industria tecnológica internacional. La industria electromagnética
fue la primera que se desarrolló a partir de bases completamente científicas.
Los esfuerzos que desde los inicios de la década del 80 han venido realizando
preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y
electricistas, por crear una industria electrónica nacional, han tenido hasta ahora
muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos
del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse
en su ramo, pero hoy día las que subsisten apenas si han logrado crecer.
2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior
a la apertura económica.
58
1. Dificultad para conseguir internamente los componentes electrónicos
debido a lo reducido del mercado.
2. Dificultad para conseguir las herramientas necesarias para la I&D, tales
como programas de simulación, programas CAD y sistemas de desarrollo
para microprocesadores y microcontroladores.
3. Dificultad para conseguir la información técnica actualizada, en especial los
manuales de los fabricantes de semiconductores.
4. Deficiente calidad de los componentes metal mecánicos fabricados en el
país, como cajas y chasis.
Casi todas las empresas del sector electrónico profesional son pequeñas, pero
revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí
todo el proceso de producción, incluyendo las labores de investigación y desarrollo
de los productos. En cambio hay otras empresas, por cierto muy pocas,
subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar
sus productos.
59
CAPITULO 3 ACTUALIDAD
PANORAMA MUNDIAL
58
V, Sonia, HERNANDEZ, Silvana, Los grandes bloques mundiales. Revista de la facultad de
ingeniería.UNAM, Vol. 47 Marzo de 1997.
60
En la oferta y la demanda están ligados tanto quienes proporcionan la mayor parte
de la materia prima, como los poseedores de la tecnología, los modernos
procesos industriales, las corrientes en investigación y desarrollo, patentes, las
normas internacionales, la producción de energía, alimentos, inversiones y mejor
nivel de vida. La diferencia de bienes y servicios en distintas sociedades y la
capacidad de compra son tan muy marcadas.
59
VALENCIA, Asdrúbal. La Ciencia y la tecnología en Colombia. Ciencia y tecnología y sociedad. CESET-
U de A. Medellín, 1997.
61
haciendo énfasis en la capacidad de investigación, con la esperanza de que esta
se reflejaría en tecnología para el sector productivo. En un enfoque simplista que
falló por múltiples factores, como los económicos y los inherentes al proceso de
maduración de las innovaciones.
60
CERNUSCHI, Félix. Criterios modernos para la formación de ingenieros integrados. Número 3
Montevideo, junio 1.999. Sitio. WWW.fing.edu.uy/cey/.
62
tecnológico. Este proyecto se convirtió en la ley 29 de febrero de 1990 conocida
como la ley Marco en Ciencia y tecnología que fue el eje de la Reforma Jurídica
adoptada. Ella reconoce la necesidad de la intervención del estado en la
promoción y orientación del adelanto científico y tecnológico.
INGENIERÍA EN COLOMBIA
La carencia de apoyo a las ciencias, se vio reflejado en los primeros intentos por
hacer universidad, pues 1968 se creo COLCIENCIAS, como una entidad para
formar el desarrollo científico en el país, lo que demuestra que no ha realizado un
esfuerzo coherente y sostenido para crear una infraestructura científica y
tecnológica.
63
La Ingeniería Colombiana es escasa: no obstante ha hecho aportes significativos
al país; tales eventos se pueden describir en diversos niveles: A nivel de formación
están las actividades ingenieriles por la jerarquía y la creatividad. En el nivel uno
esta la investigación tecnológica científica, sobre nuevos procedimientos del
cálculo. En el nivel dos la creación de nuevos trabajos de proyectos y obras de
ingeniería. En el nivel tres obras proyectadas de ingenieros del nivel dos o del
mantenimiento de industrias establecidas. En el nivel cuatro la realización de
tareas de ensayos, mediciones, control, ejecutados por ingenieros investigadores
de alta formación.
Según el ICFES el porcentaje de titulo de ingeniería en 1976 era casi del 0% y las
maestrías no han pasado del 1%.61
Dentro de las ventajas hay coincidencia en que existe un mejor conocimiento del
medio geográfico y cultural y la exigencia de salarios de menos costos. Y dentro
de las desventajas hay cinco aspectos que resaltan como son: La debilidad del
país en ciencia y tecnología e investigación, para tecnología de punta, las
limitaciones financieras por el escaso acceso a créditos. La ingeniería extranjera
que tiene alianzas nacionales con los gobiernos de origen. En gestión tecnológica
las empresas presentan grandes debilidades de adaptación e innovación; los
sistemas de comunicación e información precarios y el no manejo de un idioma
extranjero y la poca estructura tecnológica, la privatización de empresas estatales
y la debilidad gremial.
61
COLCIENCIAS, Sistema nacional de Ciencia y Tecnología. Instrumentos jurídicos, Colciencias,
Bogotá.1991.
64
En gestión tecnológica una mayor capacidad, diseñando alianzas con firmas
extranjeras de esta manera progresando en la internacionalización. Se requiere al
igual de exponer de banco de datos, comunicaciones, e información inteligente.
62
Adolfo Mora Villate, Profesor Depto de Ingeniería Eléctrica Universidad Nacional
http://www.icfes.gov.co/revistas/ingeinve/No37/Art3.html
63 Cita el Autor: CURTOIS, Bernard. "CAD and testing of ICs and systems: Where are we going ?". Estudio
realizado para el Centro Nacional de Investigaciones Científicas (CNRS) de Francia. Grenoble. 1993.
65
cuando se mejora el desempeño de alguno de los periféricos, como sucede
cuando se eleva la resolución de los monitores.
La electrónica de consumo, que ocupa el segundo lugar en ventas de equipos,
suministra los aparatos asequibles a las grandes masas y que son utilizados en el
hogar para el entretenimiento y la cultura, como televisores, radios, grabadoras,
equipos de sonido, juegos, relojes y calculadoras.
El sector de las telecomunicaciones se remonta a los orígenes de la electrónica a
partir de la segunda mitad del siglo XIX, con la telegrafía primero y luego con la
telefonía y la radio. Hoy día las telecomunicaciones abarcan, además de los
sistemas tradicionales, nuevas tecnologías como la fibra óptica, los sistemas
satelitales y la telefonía móvil celular.
Mientras en el mundo las telecomunicaciones ocupan el tercer lugar en ventas de
equipos, en Colombia ocupan el primer lugar, sin tener en cuenta la electrónica de
consumo, según un estudio realizado en 198864.
64 MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y
experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales.
1988.
66
seguir con el montaje de dichas tarjetas dentro de las cajas, quedando de esta
manera construidos los instrumentos
Los componentes electrónicos son de 2 tipos:
La Microelectrónica
67
planteado explícitamente, que la microelectrónica constituye el factor clave, el
decisivo dentro de la electrónica.
Como cada vez se hace más difícil con el proceso de fabricación actual
(fotolitografía), reducir las dimensiones de los transistores, se están ensayando
otras alternativas, como el montaje de varios chips dentro de una misma envoltura
y el empaquetamiento de las memorias en 3 dimensiones
68
dólares para el montaje de la planta de fabricación de tales chips, empleando
tecnologías de 0.3 a 0.35 micras.
Las nuevas tecnologías están originando toda una revolución en el campo de las
telecomunicaciones, que ha causado un remezón en las tradicionales y a veces
paquidérmicas compañías del ramo, a las que les está brotando competencia por
doquier, gracias a la irrupción de tecnologías como la telefonía móvil celular, los
sistemas satelitales y la fibra óptica. Esta ultima aunque es menos popular que las
2 primeras, es la que ofrece mayor capacidad de transmisión, permitiendo enviar
por un mismo haz más de 10.000 conversaciones telefónicas o muchas señales
de video simultáneamente. La ultima generación de fibras ópticas, que emplea
amplificadores de fibra dopados con Erbio, puede transmitir más de 1000 km a la
fantástica velocidad de 100 Gigabits por segundo65.
69
En las industrias de procesos se están usando desde la década pasada los
transmisores inteligentes, que son instrumentos de medición dotados de
microprocesadores, que por medio de programas (software) pueden realizar
funciones adicionales como: autodiagnóstico, linealización, compensación por
cambios en las condiciones de operación y control del proceso. Con la próxima
entrada en vigencia de la norma conocida como "bus de campo", se consolidara
este tipo de instrumentos, pero ya no transmitiendo en forma análoga sino digital y
obteniendo otras ventajas como: extensión del control distribuido por toda la
planta, menos posibilidades de degradación por ruido, empleo de menor cantidad
de cables en el sistema de control y posibilidad de interconectar entre si equipos
de diferentes fabricantes.
Las perspectivas para las industrias que se aferren a los sistemas tradicionales de
producción no son nada halagüeñas. Las industrias que no se modernicen, que no
incorporen las tecnologías avanzadas a sus procesos de producción, perderán
competitividad y estarán condenadas irremediablemente a desaparecer.
Los esfuerzos que desde los inicios de la década del 80 han venido realizando
preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y
electricistas, por crear una industria electrónica nacional, han tenido hasta ahora
muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos
del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse
en su ramo, pero hoy día las que subsisten apenas si han logrado crecer.
2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior
a la apertura económica.
66
MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y
experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales.
1988.
70
Además, la industria electrónica debe afrontar otras dificultades, propias de su
naturaleza, tales como:
Casi todas las empresas del sector electrónico profesional son pequeñas, pero
revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí
todo el proceso de producción, incluyendo las labores de investigación y desarrollo
de los productos. En cambio hay otras empresas, por cierto muy pocas,
subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar
sus productos.
71
Según el censo ya citado, el 96 % de las empresas del sector electrónico se
concentran en las 3 principales ciudades: Bogotá, Calí y Medellín. El resto se
ubican en ciudades intermedias como Pereira y Popayán.
72
CAPITULO 4. APLICACIONES
4.1 Industriales
4.1.1 Definición
4.1.2 Estado del arte.
4.2 Robótica
4.2.1 Definición67
La palabra "robot" viene del vocablo checo "robota" que significa "servidumbre",
"trabajo forzado", o esclavitud, especialmente los llamados "trabajadores
alquilados" que vivieron en el Imperio Austrohungaro hasta 1848.
El término "robot" fue utilizado por primera vez por Karen Capek en su historia
actuada "R.U.R. (Rossum's Universal Robots)" (escrita en colaboración con su
hermano Josef en 1920; interpretada por primera vez en 1921; interpretada en
Nueva York en 1922; la edición en inglés fue publicada en 1923). Aunque los
robots de Čapek eran humanos artificiales orgánicos, la palabra robot es casi
siempre utilizada para referirse a humanos mecánicos. El término androide puede
referirse a cualquiera de estos, mientras que un Cyborg ("organismo cibernético" u
"hombre biónico") puede ser una criatura que es la combinación de partes
orgánicas y mecánicas.
En el principio del siglo XVIII, Jacques de Vaucanson creó un androide que tocaba
la flauta, así como un pato mecánico que continuamente comía y defecaba. En
uno de los cuentos de Hoffmann de 1817 “El Coco” presenta una mujer que
parecía una muñeca mecánica, y en la obra de Edward S. Ellis de 1865 “El
Hombre de Vapor de las Praderas” expresa la fascinación americana por la
industrialización.
La prehistoria
La palabra robot surge con la obra RUR, los "Robots Universales de Rossum"
de Karel Capek, es una palabra checoeslovaca que significa trabajador, sirviente.
Sin embargo podemos encontrar en casi todos los mitos de las diversas culturas
una referencia a la posibilidad de crear un ente con inteligencia, desde el Popol-
Vuh de nuestros antepasados mayas hasta el Golem del judaísmo. Desde la
época de los griegos se intentó crear dispositivos que tuvieran un movimiento
67
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es
73
sinfin, que no fuera controlado ni supervisado por personas, en los siglos XVII y
XVIII la construcción de autómatas humanoides fabricados con mecanismos de
relojería por Jacques de Vaucanson, Pierre Henri-Louis, Jaquet- Droz, como el
escribiente, the Draughtsman, el músico Henri Maillar det (1800), Olimpia de la
ópera de Offenback de Hoffman, fortalecieron la búsqueda de mecanismos que
auxiliaran a los hombres en sus tareas. Estos autómatas desataron controversias
alrededor de la posible inteligencia que pudieran tener estos dispositivos pesadas
y en la búsqueda de la posibilidad de crear vida artificialmente. El escribiente
hacía mofa de la frase de Descartes de "Pienso luego existo", parafraseándola al
escribir "Escribo luego existo".
Los fraudes surgieron como en el caso del ajedrecista, en el que un muñeco
mecánico daba respuesta a jugadas de ajedrez, comprobándose más tarde que
era un enano encerrado en la caja del muñeco el que daba las respuestas y movía
el muñeco. Todos estos mitos anteceden a la obra Kapec, en la que se plantea la
construcción de robots para liberar a las personas de la carga pesada de trabajo.
Sin embargo, esta ficción y la creada por Asimov, junto con las desarrollos
mecácnicos de máquinas como el telar de Thaillard, motiva a George Devol a
crear el origen de los robots industriales, un manipulador que sería parte de una
célula de trabajo.
La historia
La clasificación de los robots se establece de diversas maneras, temporalmente,
por su funcionalidad, por su geometría, por la inteligencia, por lo que hablar de
generaciones de robots se puede plantear desde esos diversos puntos de vista.
Las características con las que se clasifican principlamente los robots son
Propósito o función
Sistema de coordenadas empleado
Número de grados de libertad del efector formal
Generación del sistema control.
Clasificación basada en su propósito o función :
Industriales b) Personales / Educativos c) Militares--vehículos autónomos
Los elementos que constituyen un robot industrial son:
Efectores finales Brazos manipuladores Controladores Sensores Fuentes de poder
Clasificación de los robots basados en las generaciones de sistemas de control.
La primera generación: El sistema de control usado en la primera generación de
robots esta basado en la "paradas fijas" mecánicamente. Esta estrategia es
conocida como control de lazo abierto o control "bang bang". Podemos considerar
como ejemplo esta primera etapa aquellos mecanismos de relojería que permiten
mover a las cajas musicales o a los juguetes de cuerda. Este tipo de control es
muy similar al ciclo de control que tienen algunos lavadores de ciclo fijo y son
equivalentes en principio al autómata escribiente de H. M. Son útiles para las
aplicaciones industriales de tomar y colocar pero están limitados a un número
pequeño de movimientos.
La segunda generación utiliza una estructura de control de ciclo abierto, pero en
lugar de utilizar interruptores y botones mecánicos utiliza una secuencia numérica
de control de movimientos almacenados en un disco o cinta magnética. El
74
programa de control entra mediante la elección de secuencias de movimiento en
una caja de botones o a través de palancas de control con los que se "camina", la
secuencia deseada de movimientos. El mayor número de aplicaciones en los que
se utilizan los robots de esta generación son de la industria automotriz, en
soldadura, pintado con "spray". Este tipo de robots constituyen la clase más
grande de robots industriales en E.U., incluso algunos autores sugieren que cerca
del 90 % de los robots industriales en EU pertenecen a esta 2ª generación de
control La tercera generación de robots utiliza las computadoras para su estrategia
de control y tiene algún conocimiento del ambiente local a través del uso de
sensores, los cuales miden el ambiente y modifican su estrategia de control, con
esta generación se inicia la era de los robots inteligentes y aparecen los lenguajes
de programación para escribir los programas de control. La estrategia de control
utilizada se denomina de "ciclo cerrado" La cuarta generación de robots, ya los
califica de inteligentes con más y mejores extensiones sensoriales, para
comprender sus acciones y el mundo que los rodea. Incorpora un concepto de
"modelo del mundo" de su propia conducta y del ambiente en el que operan.
Utilizan conocimiento difuso y procesamiento dirigido por expectativas que
mejoran el desempeño del sistema de manera que la tarea de los sensores se
extiende a la supervisión del ambiente global, registrando los efectos de sus
acciones en un modelo del mundo y auxiliar en la determinación de tareas y
metas.
La quinta generación, actualmente está en desarrollo esta nueva generación de
robots, que pretende que el control emerja de la adecuada organización y
distribución de módulos conductuales, esta nueva arquitectura es denominada
arquitectura de subsumción, cuyo promotor es Rodney Brooks.
Robots equipados con una sola rueda fueron utilizados para llevar a cabo
investigaciones sobre conducta, navegación, y planeo de ruta. Cuando estuvieron
listos para intentar nuevamente con los robots caminantes, comenzaron con
pequeños hexápodos y otros tipos de robots de múltiples piernas. Estos robots
imitaban insectos y artrópodos en funciones y forma. Como se ha hecho notar
anteriormente, la tendencia se dirige hacia ese tipo de cuerpos que ofrecen gran
flexibilidad y han probado adaptabilidad a cualquier ambiente. Con más de 4
piernas, estos robots son estáticamente estables lo que hace que el trabajar con
ellos sea más sencillo. Solo recientemente se han hecho progresos hacia los
robos con locomoción bípeda.
75
producción muy amplia, el ejemplo más notorio ha sido Aibo de Sony68.
Existen barios parámetros para clasificar los robots, estos pueden ser, por su
grado de inteligencia o toma de decisiones, por la función que desempeñan o por
su morfología.
La robótica en la actualidad
Los robots son usados hoy en día para llevar a cabo tareas sucias, peligrosas,
difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la
forma de un robot industrial usado en las líneas de producción. Otras aplicaciones
incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y
rescate de personas y localización de minas terrestres. La manufactura continúa
siendo el principal mercado donde los robots son utilizados. En particular, robots
articulados (similares en capacidad de movimiento a un brazo humano) son los
más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de
maquinaria. La Industria automotriz ha tomado gran ventaja de esta nueva
tecnología donde los robots han sido programados para reemplazar el trabajo de
los humanos en muchas tareas repetitivas. Existe una gran esperanza,
especialmente en Japón, de que el cuidado del hogar para la población de edad
avanzada pueda ser llevado a cabo por robots.
68
http://es.wikipedia.org/wiki/Robot#Historia Marzo de 2006
69
http://www.virtual.unal.edu.co/cursos/artes/2003259/Cap03/0304.htm#rf Curso Mundos Virtuales,
Universidad Nacional de Colombia.
76
instrumentos tales como incubadoras, manejadores de líquidos y lectores. Otros
lugares donde los robots están reemplazando a los humanos son la exploración
del fondo oceánico y exploración espacial. Para esas tareas, robots de tipo
artrópodo son generalmente utilizados. Mark W. Tilden del Laboratorio Nacional de
los Álamos se especializa en robots económicos de piernas dobladas pero no
empalmadas, mientras que otros buscan crear la réplica de las piernas totalmente
empalmadas de los cangrejos.
Los robots industriales son robots que se emplean para tareas vinculadas con la
producción de bienes de origen manufacturado en fábricas o industrias.
77
- Robots de soldadura Se emplean masivamente
en el ensamblaje de vehículos a motor, la soldadura
por arco es la más habitual.
- Robots de carga y descarga Este tipo de robots suele estar formado por un doble
eje (X e Y) que permite desplazar cargas sobre dos puntos, de esta forma nos
situamos en el punto A y recogemos el objeto en cuestión para a continuación
desplazarnos sobre el plano y situarlo en un punto B.
Suele ser necesario un tercer grado de libertad (en Z) para poder desplazar los
objetos verticalmente y evitar así que toquen el suelo.
- Robots de ensamblaje
Se utilizan principalmente en las tareas del hogar (home care), como aspiradores,
transportadores de objetos dentro de la casa para el lavado, planchado...
78
grupos de investigación en algunas universidades, no se tiene trabajos a nivel
industrial que sirvan de ejemplo para mostrar un desarrollo significativo en el tema.
Al ser un ordenador limitado, los microbots están dedicados a resolver tareas que
no exijan una elevada potencia y complicados algoritmos, con rapidez y precisión.
Robot en el Espacio70.
70
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones Junio 2006
79
El Programa de Telerobótica Espacial de la NASA, esta diseñado para desarrollar
capacidades de la telerobótica para la movilidad y manipulación a distancia,
uniendo la robótica y las teleoperaciones y creando nuevas tecnologías en
telerobótica.
80
Robots en el Hogar.71
Uno de los primeros robots domésticos fue la estufa, ya sea de leña o de gas; le
siguen el refrigerador, el lavavajillas, el horno de microondas, el horno eléctrico y
así muchos más electrodomésticos que pasan desapercibidos por la mayoría de
nosotros, y no nos damos cuenta de que también son considerados como robots,
robots electrodomésticos.
Entretenimiento.
Como se puede ver, la robótica puede ser utilizada en casi cualquier actividad que
el ser humano realice, y puede ser de gran utilidad.
Nos damos cuenta de que la robótica empieza a ser parte de nuestras vidas
cotidianas, así como lo empezaron algunas de las actividades que actualmente
realizamos todos los días.
4.3. AUTOMATIZACIÓN
4.3.1 Definición
Automatización72.
71
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones junio 2006
72
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es.
81
1. f. Acción y efecto de automatizar.
automatizar.
1. tr. Convertir ciertos movimientos corporales en movimientos automáticos o
indeliberados.
2. tr. Aplicar la automática a un proceso, a un dispositivo, etc.
autómata.
(Del lat. automăta, t. f. de -tus).
1. m. Instrumento o aparato que encierra dentro de sí el mecanismo que le
imprime determinados movimientos.
2. m. Máquina que imita la figura y los movimientos de un ser animado.
3. m. coloq. Persona estúpida o excesivamente débil, que se deja dirigir por otra.
AUTOMATIZACIÓN 73
Con el nacimiento de la Revolución Industrial, muchas fábricas tuvieron gran
aceptación por la automatización de procesos repetitivos en la línea de
ensamblaje. La automatización consiste, principalmente, en diseñar sistemas
capaces de ejecutar tareas repetitivas hechas por los hombres, y capaces de
controlas operaciones sin la ayuda de un operador humano. El término
automatización también se utiliza para describir a los sistemas programables que
pueden operar independientemente del control humano. La mayoría de las
industrias has sido automatizadas o utilizan tecnología para automatizar algunas
labores; en la industria de la telefonía, marcación, transmisión y facturación esta
completamente automatizados. Los ferrocarriles son controlados por herramientas
automáticas de señalización, las cuales cuentan con sensores capaces de
detectar el cruce de carros en un punto en especial, esto significa que se puede
tener vigilado el movimiento y localización de vagones de tren.
73
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Automatización, Junio 2006
82
Los robots comenzaron a aparecer en este proceso de automatización
industrial hasta la aparición de las computadoras en los 40’s. Estos robots
computarizados, están equipados con pequeños microprocesadores capaces de
procesar la información que le proveen los sensores externos y así es como el
robot puede tomar cambiar o mantener una operación en ejecución, a esto se le
llama retroalimentación, y forma parte de la Cibernética. La retroalimentación es
esencial en cualquier mecanismo de control automático, ya que ayuda a controlar
los factores externos que le afecten en la correcta ejecución de sus operaciones
normales.
ANTECEDENTES 74
Antiguamente, se creaban artefactos capaces de realizar tareas diarias y comunes
para los hombres, o bien, para facilitarles las labores cotidianas; se daban cuenta
de que había tareas repetitivas que se podían igualar con un complejo sistema, y
es así como se comienza a crear máquinas capaces de repetir las mismas labores
que el hombre realizaba, y como ejemplo de estas máquinas podemos citar las
siguientes:
• La rueda como medio de transporte o como herramienta, por ejemplo, para un
alfarero.
• El engrane.
• La catapulta como arma de combate.
• El molino, ya sea para obtener agua de las entrañas de la tierra, o como
moledor de granos.
Y así una gran variedad de máquinas que antiguamente se creaban para facilitarle
las tareas a los hombres. Pero no todos estos artefactos tenían una utilidad,
algunas máquinas solamente servían para entretener a sus dueños, y no hacían
nada más que realizar movimientos repetitivos ó emitir sonidos. Cabe mencionar
que los árabes fueron unos maestros en la construcción de autómatas y en la
precisión de sus cálculos, y como ejemplo de ello, se puede mencionar que
inventaron el reloj mecánico, así como sus grandes aportaciones a la astrología.
También los ingenieros griegos aportaron grandes conocimientos a los autómatas,
aunque su interés era más bien hacia el saber humano más que hacia las
aplicaciones prácticas.
74
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Historia
83
Solamente por citar algunos de estos inventos, se mencionan los siguientes:
84
• Reloj con forma de gallo que canta en la catedral de Strasbourg, que funcionó
desde 1352 hasta 1789.
• Leonardo Da Vinci construye en el año 1500 un león automático en honor de
Luis XII que actúa en la entrada del Rey de Milán.
• Salomón de Caus (1576 - 1626) construye fuentes ornamentales y jardines
placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza.
• En 1640, René Descartes inventó un autómata al que se refiere como "mi hijo
Francine".
• En 1662, se abre en Osaka el teatro Takedo de autómatas.
• Jacques de Vaucanson, construye el pato, el autómata más conocido; un pato
hecho de cobre, que bebe, come, grazna, chapotea en el agua y digiere su
comida como un pato real. Previamente construye un flautista y un tamborilero
en 1738; el primero consistía en un complejo mecanismo de aire que causaba
el movimiento de dedos y labios, como el funcionamiento normal de una flauta.
• Los Maillardet (Henri, Jean-David, Julien-Auguste, Jacques-Rodolphe) hicieron
su aparición a finales del siglo XVIII y principios del XIX, construyen un escritor-
dibujante, con la forma de un chico arrodillado con un lápiz en su mano, escribe
en inglés y en francés y dibuja paisajes. Construyen un mecanismo "mágico"
que responde preguntas y un pájaro que canta en una caja.
• Robert Houdini construye una muñeca que escribe. También realiza un
pastelero, un acróbata, una bailarina en la cuerda floja, un hombre que apunta
con una escopeta y una artista del trapecio.
• Thomas Alva Edison construyó en el año 1891 una muñeca que habla.
85
4.3.2 Estado del Arte
75
QUE SON LOS EDIFICIOS INTELIGENTES?
Son simplemente, construcciones con un nivel de alta tecnología en todos sus
procesos.
Eso quiere decir que TODOS los profesionales que intervienen en el DISEÑO,
CONSTRUCCIÓN, INTERVENTORíA, GERENCIA DE PROYECTO,
COMERCIALIZACIÓN y demás áreas vitales para el proyecto, deben tener lo
conocimientos necesarios para integrar nuevos aspectos que de forma
sincronizada permitan disfrutar del concepto de EFICIENCIA.
Una construcción inteligente, es una construcción EFICIENTE, eso quiere decir
que puede hacer mucho con la mínima cantidad de recursos.
Por ejemplo, un pequeño centro de salud, en un municipio apartado, que recicle
sus desperdicios, soporte los cortes de energía eléctrica con foto celdas solares,
mantenga una temperatura adecuada aprovechando la arborización y la
orientación de sus fachadas de acuerdo al recorrido del sol, controle sus usuarios,
empleados, proveedores y visitantes con un sencillo sistema de video que sirve de
control de acceso y centralice la iluminación en el cuarto de vigilancia; es mucho
más "inteligente" que un supermoderno edificio con altísima tecnología,
sobrecotos enormes y sofisticados sistemas que ni siquiera se hablan unos con
otros.
El concepto de EFICIENCIA comienza a verse por la simplicidad - y es que lo más
simple, casi siempre es lo que mejor funciona y lo que menos falla -, seguido de la
flexibilidad y la capacidad de proyectarse a la necesidades en un futuro.
Desde el punto de vista Electrónico, - que es nuestro fuerte - debo decir que un
edificio inteligente debe albergar tecnología en cuatro frentes diferentes:
Seguridad, Comunicaciones, Apoyo Logístico y Automatización de procesos.
Sin embargo no sirve de nada invertir mucho dinero en estas tecnologías, si por
ejemplo, al arquitecto se le olvidaron los parqueaderos de visitantes, o si por
pensar en mucha seguridad cambió los espacios de naturaleza abierta por muros
de 3 metros con cero estética.
Hablar de la parte electrónica implica un correcto balance entre todos los aspectos
concernientes al proyecto.
Volvamos a lo nuestro, la tecnología de punta..... Cuando hablamos de seguridad,
casi siempre pienso en Circuito Cerrado de TV, control de acceso, alarmas contra
intrusión e incendio, sistemas de apoyo a requisas y seguridad en la información.
Una adecuada INTEGRACION entre estos subsistemas permite un nivel de
seguridad adecuado, cumpliendo las normas internacionales y permitiendo que la
información se centralice en un solo lugar.
Si hablamos de comunicaciones, debemos pensar en las redes telefónicas, las
redes de datos -tan indispensables como las anteriores hoy en dia-, las redes
75
http://edificiosinteligentes.blogspot.com/, Ing. Germán Alexis Cortés, Consultor - Automatización
de Edificios. Mayo 2006
86
multimedia de audio y video que reemplazan a las tradicionales de sonido
ambiental y televisión comunal, redes de sonido y audio profesional (solo para
auditorios o áreas similares) y todos los canales de comunicación hacia el exterior.
Cuando nos referimos a las redes de Automatización de procesos, estamos
hablando de control centralizado de iluminación - que es lo que mas consume
energía-, supervisión y control de equipos electromecánicos (ascensores, aire
acondicionado, motobombas, plantas eléctricas, UPS, subestación, entre otras),
control de fluidos, distribución del control en toda la edificación y centralización de
la información en un solo punto que de forma automática realice operaciones con
la mínima intervención del operador.
Finalmente los sistemas de apoyo logístico, se refieren a todo los elementos
electrónicos que permiten una operación de cada sitio con mayor seguridad y
confort. Nos referimos a los sistemas de información administrativos para control
de inventarios, ventas y contabilidad en general, a las redes especiales para fines
muy especiales (por ejemplo el sistema de llamado de enfermeras en un hospital,
o el sistema de control de taquillas en en estadio o el sistema de redes
inalámbricas para hacer pedidos en un restaurante o el sistema de control de
inventarios por RFID en un almacén de cadena, solo por dar algunos ejemplos).
La INTEGRACIÓN real de estos cuatro grandes sistemas electrónicos,
compartiendo información, registrando todo cuanto acontece en medios
electrónicos para su posterior investigación, disminuyendo la intervención de
humanos en los procesos y alertando al operador cuando eventos anormales
ocurran permiten tener un adecuado sistema electrónico que apoya el concepto de
edificio inteligente en nuestro medio.
Quiero terminar el dái de hoy, recordando que lo simple siempre es lo mejor.... el
grado de sofisticación debe reducirse al máximo en cada caso. Pero también
quiero recordar que los extremos son malos, las cosas muy simples son buenas
solo si hacen lo que realmente queremos que hagan. Asi que un buen diseño de
edificio inteligente es aquel que logra un balance perfecto entre alta tecnología,
recursos económicos y capacidad operativa.
4.34. COMUNICACIONES
4.4.1 Definición
comunicación76.
(Del lat. communicatĭo, -ōnis).
1. f. Acción y efecto de comunicar o comunicarse.
2. f. Trato, correspondencia entre dos o más personas.
3. f. Transmisión de señales mediante un código común al emisor y al receptor.
76
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
87
4. f. Unión que se establece entre ciertas cosas, tales como mares, pueblos, casas
o habitaciones, mediante pasos, crujías, escaleras, vías, canales, cables y otros
recursos.
5. f. Cada uno de estos medios de unión entre dichas cosas.
6. f. Papel escrito en que se comunica algo oficialmente.
7. f. Escrito sobre un tema determinado que el autor presenta a un congreso o
reunión de especialistas para su conocimiento y discusión.
8. f. Ret. Figura que consiste en consultar la persona que habla el parecer de
aquella o aquellas a quienes se dirige, amigas o contrarias, manifestándose
convencida de que no puede ser distinto del suyo propio.
9. f. pl. Correos, telégrafos, teléfonos, etc.
medio de comunicación
vía de comunicación
4.5. ELECTROMEDICINA
4.5.1 Definición
Electromedicina77.
77
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es.
88
CAPITULO 5. DISEÑO
Otra Definición
análisis78.
1. m. Distinción y separación de las partes de un todo hasta llegar a conocer sus
principios o elementos.
2. m. Examen que se hace de una obra, de un escrito o de cualquier realidad
susceptible de estudio intelectual.
3. m. Tratamiento psicoanalítico
4. m. Gram. Examen de los componentes del discurso y de sus respectivas
propiedades y funciones.
5. m. Inform. Estudio, mediante técnicas informáticas, de los límites,
características y posibles soluciones de un problema al que se aplica un
tratamiento por ordenador.
6. m. Mat. Parte de las matemáticas basada en los conceptos de límite,
convergencia y continuidad, que dan origen a diversas ramas: cálculo diferencial e
integral, teoría de funciones, etc.
7. m. Med. análisis clínico.
~ cualitativo.
1. m. Quím. El que tiene por objeto descubrir y aislar los elementos o ingredientes
de un cuerpo compuesto.
~ cuantitativo.
1. m. Quím. El que se emplea para determinar la cantidad de cada elemento o
ingrediente.
~ dimensional.
1. m. Fís. Método que se ocupa del análisis de las dimensiones de las
magnitudes físicas, y que permite establecer directamente relaciones entre las que
intervienen en un proceso, sin necesidad de realizar un análisis completo y
detallado.
~ espectral.
78
http://www.rae.es/
89
1. m. Fís. Método de análisis químico cualitativo, y en algunos casos
cuantitativos, mediante técnicas espectroscópicas.
~ factorial.
1. m. Estad. Método estadístico usado para cuantificar la importancia de cada uno
de los factores actuantes en un fenómeno.
síntesis79.
1. f. Composición de un todo por la reunión de sus partes
2. f. Suma y compendio de una materia u otra cosa.
3. f. Quím. Proceso de obtención de un compuesto a partir de sustancias más
sencillas.
~ abiótica.
1. f. Bioquím. Producción de biopolímeros a partir de moléculas orgánicas
sencillas.
De otra parte el método ingenieril se define: como una estrategia para producir el
mejor cambio con los recursos disponibles en una situación deficientemente
entendida o incierta.
Determina especificaciones
Determinar las especificaciones significa, ampliar más los detalles, o sea, hacer
consideraciones como las siguientes:
79
REAL ACADEMIA ESPAÑOLA, marzo de 2006. http://www.rae.es
80
Wright, Paul, introducción a la ingeniería, Adisson Wesly, DEL: 1994.
90
¿Cuáles son las características de la población que usara el producto?
Hallar las componentes físicas correctas de una estructura física (hallar, física)
81
DIXON,Cork. Diseño en Ingeniería. Inventiva, análisis y toma de decisiones. Limusa. Wiley.
México. 1970.
91
Una actividad cuyo objetivo es solucionar un problema (objetivo, actividad de
solución)
Toma de decisiones frente a la incertidumbre con grandes penas `para el error
(decisiones, incertidumbres, penas).
Simular lo que queremos hacer antes de hacerlo, tantas veces como sea
necesario para tener confianza en el resultado final (simular, confianza).
El factor condicionante para aquellas partes del producto que estarían en contacto
con la gente (contacto con la gentes)
Una actividad creativa que trae a la existencia algo nuevo y útil que no existía
previamente (actividad creativa, útil que no existía)
La actividad del diseño es planear y realizar una estrategia creativa para llevar a
cabo una tarea física, mental, moral o artística o satisfacer una necesidad. El
propósito del diseño es:
92
Otra actividad que se realiza en este contexto es el análisis de valor, que se aplica
a los procedimientos lo mismo que a los productos y su meta es reducir el costo
excesivo en el diseño. El concepto básico es que muchos de los diseños
propuestos se pueden mejorar notablemente, ya que el diseño original puede
presentar costos excesivos, aunque no existe ninguna limitante para aplicar la
técnica de análisis de valor desde la primera vez. Una manera de hacer este
análisis es definir y evaluar la función. Hay que hacer una distinción entre valor y
función.
Al definir las funciones se deben expresar con un nombre y un verbo y dividir las
de cada componente en primarias y secundarias. Esta cuidadosa definición de las
funciones permitirá tener en cuenta las consideraciones ergonómicas y
ambientales necesarias. Así con todas estas metodologías se puede optimizar el
diseño en todos los sentidos y se estará en condiciones de avanzar al siguiente
paso del método ingenieril.
Optimiza el diseño
Para optimizar el diseño, se requiere de las simulaciones con el modelo de diseño
más promisorio y las comprobaciones de la concordancia entre las dimensiones y
los materiales permiten optimizar el diseño seleccionado. Tales actividades
permiten detectar cuando se producen equivocaciones, fallas, accidentes,
reparaciones, y cambios si las decisiones se han basado en predicciones que no
son precisas.
Aun sin recurrir a herramientas tan sofisticadas, los diseños se pueden optimizar
teniendo presente que deben ser tan simples como se pueda. A menudo una
solución de ingeniería, que es específicamente simple en comparación con lo que
realiza, se describe como elegante. Puesto que la complejidad es lo contrario de
la sencillez, la elegancia es una regla de oro en el método ingenieril.
93
En el primer caso debe resolverse el modelo para las condiciones optimizadas y
comparar estos resultados con los deseados.
De conocer todas las regulaciones que gobiernan no solamente los ensayos sino
también el futuro desempeño de la solución en cuestión. Aunque en el país
existen las normas ICONTEC y hay podemos organizaciones de normas como las
ASTM o las DIN, lo normal será buscar conformidad con las normas
internacionales ISO.
Hay que describir con los detalles suficientes los atributos físicos y las
características de funcionamiento de la solución propuesta, de manera que las
personas que deben aprobarla, los encargados de su construcción, y quienes la
manejarán y conservarán, puedan desempeñar satisfactoriamente sus funciones.
El hecho de que alguien distinto de nosotros por lo general construya, opere y
cuide nuestras obras, hace que adquiera especial importancia la presentación
cuidadosa por escrito y la comunicación exacta de ellas.
Controla la producción
El control de la producción, es un ideal para un ingeniero solo, a menos que se
trate de una pequeña empresa, pero es una posibilidad real para una organización
grande y es el meollo de la filosofía de la llamada calidad total.
Esto es fundamental porque entre los diseños y prototipos y los productos reales
puede haber grandes diferencias, bien porque no se siguen estrictamente las
especificaciones de diseño, bien porque no se cuenta con los equipos adecuados
para efectuar los procesos de fabricación y montaje, porque la habilidad y la
experiencia del personal encargado de esta fase son suficientes, por la
combinación de varios de los anteriores factores.
94
estar en capacidad de apreciar las causas por las que su diseño fallo. Si el
ingeniero o grupo de trabajo puede realizar este análisis sería magnifico, en caso
contrario habrá que asesorarse de los especialistas. En cualquier evento la
determinación del por qué de una falla es fundamental para hacer las correcciones
necesarias sea en el diseño, en el material utilizado, en el proceso de fabricación
y montaje, en la operación o en el mantenimiento.
95
SEGUNDA UNIDAD: CONCEPTOS BÁSICOS DE INGENIERÍA ELECTRÓNICA.
CAPÍTULO 6. CONCEPTOS
Hoy se sabe que la interacción eléctrica tiene su origen en una propiedad de las
partículas elementales llamada carga eléctrica. A diferencia de la masa, que existe
bajo una única forma, la carga puede ser de dos tipos, que designamos como
positiva y negativa. Esto se evidencia en el hecho de que los cuerpos electrizados
pueden atraerse o repelerse. Hay partículas que carecen de carga y se dice que
son neutras.
A pesar de que la fuerza entre cargas eléctricas es mucho más intensa que la
atracción gravitatoria, no la percibimos en condiciones normales. La razón es que
la materia ordinaria está compuesta por partículas con carga positiva (protones) y
otras con carga igual pero negativa (electrones), además de las que no tienen
ninguna carga o neutrones.
Sin embargo la carga total no sufre variación; se conserva. Lo que ocurre es que
los electrones se transfieren al paño con que se frota o son cedidos por él,
quedando con una carga igual y opuesta a la del cuerpo electrizado.
Un cuerpo cargado atrae a otro neutro porque atrae a las cargas de signo
contrario y repele a las del mismo signo, produciendo una separación o
polarización de las cargas del cuerpo neutro. Como veremos, la fuerza
electrostática disminuye con la distancia, por lo que la atracción es más intensa
que la repulsión. Si entran en contacto, el exceso de cargas puede repartirse entre
los dos cuerpos, que entonces se repelerán.
96
Una cantidad de carga cualquiera sólo puede ser múltiplo entero de la carga del
electrón. Decimos que está cuantizada, que se presenta en cantidades discretas o
cuantos. Si bien la carga elemental es muy pequeña, no es infinitesimal; por tanto,
cuando hablemos de diferenciales de carga entenderemos que se trata de una
cantidad pequeña a escala macroscópica pero grande a escala atómica.
Por ejemplo, en algunas sustancias los electrones están fuertemente ligados a los
núcleos y su movilidad es escasa: se dice que son aislantes eléctricamente. Sin
embargo hay otras, como los metales, que tienen electrones prácticamente libres
para desplazarse por la sustancia y son capaces de transportar la carga eléctrica:
decimos que son conductores. En realidad hay toda una gama entre uno y otro
extremo.
En resumen:
- Las cargas eléctricas existen bajo dos formas: positivas y negativas. Las cargas
del mismo signo se repelen y las de distinto signo se atraen.
- La carga está cuantizada: siempre es un múltiplo entero de la carga elemental.
- La materia en su conjunto es neutra, con igual número de cargas positivas que
negativas. La carga total, considerando su suma algebraica, se conserva.
Lá matéria está formada por átomos eletricamente neutros. Cada átomo posee un
pequeño núcleo que contiene protones dotados cada uno con una carga positiva y
neutrones de carga nula. Rodeando al núcleo existe un número igual de
electrones negativamente cargados. El electrón y el protón tienen cargas de igual
magnitud pero distinto signo. La carga del protón es e y la del electrón -e, siendo e
la unidad fundamental de carga. Todas las cargas se presentan en cantidades
enteras de la unidad fundamental de carga e. Es decir, la carga está cuantizada.
Toda carga Q presente en la naturaleza puede escribirse de la forma Q = Ne,
siendo N un número entero. La cuantización de la carga no se observa
normalmente porque N es casi siempre un número muy grande.
97
La carga no se crea, sino simplemente se transfiere. La carga neta de un sistema
considerada globalmente no cambia. Es decir, la carga se conserva. La ley de
conservación de la carga es una ley fundamental de la naturaleza. Aunque en
ciertos procesos puede ocurrir que los electrones se creen o se aniquilen, en todos
se producen o se destruyen cantidades iguales de cargas negativas y positivas, de
manera que la carga del universo no varía.
Materiales aislantes: todos los electrones están ligados a los átomos próximos y
ninguno puede moverse libremente (madera, vidrio).
La fuerza ejercida por una carga sobre otra fue estudiada por Charles Coulomb
(1736-1806) mediante una balanza de torsión de su propia invención.
82
TIPLER, Paúl A, Física, REVERTÉ, Barcelona 1996
98
igualmente cargadas y poder variar la carga depositada sobre las esferas. Por
ejemplo, comenzando con una carga q0 sobre cada esfera, podía reducir la carga
a 1 / 2q 0 conectando a tierra una de las esferas para descargarla y después
poniendo las dos esferas en contacto. Los resultados de los experimentos de
Coulomb y otros científicos sobre las fuerzas ejercidas por una carga puntual
sobre otra, se resumen en la ley de Coulomb:
La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de
la línea que las une. La fuerza varía inversamente con el cuadrado de la
distancia que separa las cargas y es proporcional al producto de las cargas.
Es repulsiva si tienen signos iguales y de atracción si tiene signos opuestos.
La figura 7.2 muestra las fuerzas ejercidas entres dos cargas del mismo signo y
entre dos cargas del signo contrario.
Figura 7.2: (a) Las cargas iguales se repelen, mientras que (b) las cargas
opuestas se atraen.
La fuerza F21, ejercida por q2 sobre q1 es el valor negativo de F12 según la tercera
ley de Newton. Es decir, F21, posee el mismo módulo de F12 pero su sentido es
opuesto. La magnitud de la fuerza eléctrica ejercida por una carga q1 sobre otra
carga q2 situada a la distancia r viene dada por:
99
Donde:
Si ambas cargas tienen el mismo signo, es decir, si ambas son positivas o ambas
negativas, la fuerza es repulsiva. Si las dos cargas tienen signos opuestos la
fuerza es atractiva. El principio de superposición de fuerzas se cumple para un
sistema discreto de cargas: la fuerza neta ejercida sobre una carga por un sistema
de cargas se determina por la suma de las fuerzas separadas ejercidas por cada
carga del sistema.
6.1.3 Corriente
100
Corriente continua o directa: es el flujo de electrones en una sola dirección. Ej:
batería automóvil; rayo.
6.1.4 Voltaje
Donde:
V1 - V2 es la diferencia de potencial
101
r es la distancia en metros entre los puntos 1 y 2
Que dos puntos tengan igual potencial eléctrico no significa que tengan igual
carga.
La historia nos dice que esta ley fue formulada por Georg Simón Ohm en 1827, en
la obra Die galvanische Kette, mathematisch bearbeitet (Trabajos matemáticos
sobre los circuitos eléctricos), basándose en evidencias empíricas. La formulación
original, es:
La ley de Ohm, establece que la intensidad de la corriente eléctrica que circula por
un dispositivo es directamente proporcional a la diferencia de potencial aplicada e
inversamente proporcional a la resistencia del mismo, según expresa la fórmula
siguiente:
102
La relación , que relaciona la Densidad de corriente con la
Conductividad para un Campo eléctrico dado, es la fundamental de la conducción
eléctrica pero es más cómodo trabajar con tensiones e intensidades que con
densidades y campos eléctricos por lo que si consideramos un conductor de
longitud L y sección constante A por el que circula una corriente de intensidad I y
sea Va y Vb la los potenciales en sus extremos y la conductividad σ es
independiente de la densidad de corriente J tendremos, en condiciones normales,
que:
Al factor
103
6.2. CONCEPTOS ELECTRÓNICOS
6.2.1 Circuito.
La regla 1, llamada regla de las mallas, se deduce a partir del simple hecho de que
en el estado estacionario la diferencia de potencial entre dos puntos cualesquiera
es constante. En estado estacionario, el campo eléctrico en cualquier punto (fuera
de una fuente fem) es debido a la carga acumulada sobre superficies de los
104
bornes de la batería, resistencia, cables, u otros elementos del circuito. Como el
campo eléctrico es conservativo, existe una función potencial en cualquier punto
del espacio (excepto en el interior de una fuente de fem). Según nos desplazamos
a lo largo de la malla del circuito, el potencial puede aumentar o disminuir en
función que encontremos con una resistencia o una batería, pero una vez
recorrida la malla y se ha llegado al punto desde el que se comenzó, la variación
neta de potencial debe ser igual a cero. Esta regla es una consecuencia directa
del principio de conservación de la energía. Si tenemos una carga q en un punto
donde el potencial es V, la energía potencial de la carga es qV. Cuando la carga
recorre un bucle en un circuito, pierde o gana energía al atravesar resistencia,
baterías u otros elementos, pero cuando vuelve a su punto de partida, su energía
deber ser de nuevo qV.
I1 = I 2 + I 3
105
Figura 9: Ilustración de la regla de los nudos de Kirchhoff. La corriente I1 en el
punto a es igual a la suma I2 + I3 de las corrientes que salen del punto a.
6.2.3 Fuentes
La manera de producir energía eléctrica puede ser por medios químicos para las
fuentes de voltaje de CD, o bien por medios electromecánicos para las fuentes de
CA; aunque también por medios electrónicos se puede construir una fuente de
voltaje de CD (comúnmente llamado eliminador de batería), o fuente de voltaje de
CA denominada generador de señales.
La red que alimenta a las industrias, casas, etc., es una fuente de energía eléctrica
de CA. Es producida por medios electromecánicos y es transferida por equipos o
componentes eléctricos a través de una red de distribución.
Para las fuentes de voltaje de CD, se denotará esta variable eléctrica por la letra
E, mientras que, para las fuentes de voltaje de CA se denotará por la letra e.
Fuente de Voltaje de CD
106
La fuente de voltaje de CD, se denomina así, porque la fuerza eléctrica produce un
movimiento de electrones en un solo sentido. Debido a esta característica, la
fuerza eléctrica tiene un polo positivo en un terminal de la fuente y un polo
negativo en el otro terminal. El sentido de la corriente en este tipo de fuentes
siempre será de menos a más.
107
Fuente de Voltaje de CA
Las fuentes de CA de tipo senoidal, son denominadas así, porque las variaciones
del voltaje con respecto al tiempo, esta representan por la gráfica de la función
seno. Este tipo de fuente es la que proporcionan las empresas de energía para el
suministro de luz eléctrica.
Para las fuentes de este tipo, la unidad de medida de voltaje el llamado voltaje
eficaz o R.M.S. porque es el voltaje efectivo de la señal y se referencia como
e(rms).
a) El voltaje que requiere el equipo sea el mismo que el que proporciona la fuente.
108
b) La corriente que requiera el equipo la pueda suministrar la fuente, pues de lo
contrario la fuente se dañará.
Es el número de ciclos que hay por unidad de tiempo. La frecuencia se denota por
la letra f y su unidad de medida es el hz, donde un hz, es un ciclo con duración de
un segundo. Además del hz, se tienen múltiplos para mediciones de f.
1hz=1ciclo/s
1kz=1000hz
1Mz=1 000 000hz
1Ghz=1 000 000 000hz
Es el tiempo que dura un ciclo. Para denotar esta variable se utiliza la letra T, y la
unidad de medida es el segundo, teniendo además submúltiplos de medida.
f=1/T
T= 1 / f
T f
s hz
ms khz
us Mhz
ns Ghz
109
T = 1/f = 1/60hz = 0.0166s = 16.6ms
Figura 12: Gráfica una señal de voltaje en forma senoidal con respecto al tiempo
Este tipo de señales pueden ser vistas y cuantificadas por medio de quipos de
medida, como los son voltímetros o multímetros, donde muestra los valores
expresados en números y el osciloscopio donde se ven las distintas formas que
tienen las señales y se puede obtener su periodo y frecuencia.
110
Figura 14
6.2.6 Semiconductores
Electrones en la
Elemento Grupo
última capa
Cd II A 2 e-
Al, Ga, B,
III A 3 e-
In
Si, Ge IV A 4 e-
P, As, Sb VA 5 e-
Se, Te, (S) VI A 6 e-
Bandas de energía
Supongamos una red cristalina formada por átomos de silicio (o cualquier mezcla
de las mencionadas). Cuando los átomos están aislados, el orbital s (2 estados
con dos electrones) y el orbital p (6 estados con 2 electrones y cuatro vacantes)
tendrán una cierta energía Es y Ep respectivamente (punto A). A medida que
disminuye la distancia interatómica comienza a observarse la interacción mutua
entre los átomos, hasta que ambos orbítales llegan a formar, por la distorsión
creada, un sistema electrónico único. En este momento tenemos 8 orbítales
híbridos sp³ con cuatro electrones y cuatro vacantes (punto B). Si se continúa
disminuyendo la distancia interatómica hasta la configuración del cristal,
111
comienzan a interferir los electrones de las capas internas de los átomos,
formándose bandas de energía (punto C). Las tres bandas de valores que se
pueden distinguir son:
Tipos de semiconductores
Semiconductores intrínsecos
112
invariable. Siendo n la concentración de electrones (cargas negativas) y p la
concentración de huecos (cargas positivas), se cumple que:
ni = n = p
Semiconductores extrínsecos
113
introduciendo sólo un átomo donador por cada 1000 átomos de silicio, la
conductividad es 24100 veces mayor que la del silicio puro.
En este caso, las impurezas aportan una vacante, por lo que se las denomina
receptoras de electrones. Ahora bien, el espacio vacante no es un hueco como el
formado antes con el salto de un electrón, si no que tiene un nivel energético
ligeramente superior al de la banda de valencia (del orden de 0,01 eV).
En este caso, los electrones saltarán a las vacantes con facilidad dejando huecos
en la banda de valencia en mayor número que electrones en la banda de
conducción, de modo que ahora son los huecos los portadores mayoritarios.
114
CAPITULO 7 ELEMENTOS
7.1 ELEMENTOS BÁSICOS
7.1.1 Resistencias83
Una resistencia ideal es un elemento pasivo que disipa energía en forma de calor.
Su ecuación de definición es:
83
www.wkipedia.com
115
Comportamiento en corriente continua
A bajas frecuencias, una resistencia real en corriente alterna (c. a.) se comportará
de la misma forma que lo haría una ideal. En los circuitos de c. a. la resistencia se
considera una magnitud compleja sin parte imaginaria o, lo que es lo mismo con
argumento nulo; cuya representación binómico y polar será:
Resistencia de un conductor84
Cuando fluye una carga por un material dado, experimente una oposición al flujo.
Esa oposición se llama resistencia del material. La resistencia depende de la
longitud, el área de corte transversal, el tipo de material y la temperatura opcional.
A una temperatura constante, la resistencia del material es:
ρl
R=
A
84
Electrónica Práctica 1, McGRAW-HILL
116
en metros cuadrados. La resistencia de un material es directamente proporcional
a su longitud e inversamente proporcional a su área de corte transversal.
7.1.2 Diodos85
Tipos de diodos
Diodo pn ó Unión pn
Al establecerse estas corrientes aparecen cargas fijas en una zona a ambos lados
de la unión, zona que recibe diferentes denominaciones como zona de carga
espacial, de agotamiento, de deflexión, de vaciado, etc.
85
www.wikipedia.com
117
electrones libres de la zona n con una determinada fuerza de desplazamiento, que
se opondrá a la corriente de electrones y terminará deteniéndolos.
Este campo eléctrico es equivalente a decir que aparece una diferencia de tensión
entre las zonas p y n. Esta diferencia de potencial (V0) es de 0,7 V en el caso del
silicio y 0,3 V si los cristales son de germanio.
La anchura de la zona de carga espacial una vez alcanzado el equilibrio, suele ser
del orden de 0,5 micras pero cuando uno de los cristales está mucho más dopado
que el otro, la zona de carga espacial es mucho mayor.
A (p) C ó K (n)
118
Polarización Directa
Para que un diodo esté polarizado directamente, tenemos que conectar el polo
positivo de la batería al ánodo del diodo y el polo negativo al cátodo. En estas
condiciones podemos observar que:
- El polo negativo de la batería repele los electrones libres del cristal n, con lo que
estos electrones se dirigen hacia la unión p-n.
- El polo positivo de la batería atrae a los electrones de valencia del cristal p, esto
es equivalente a decir que empuja a los huecos hacia la unión p-n.
- Una vez que un electrón libre de la zona n salta a la zona p atravesando la zona
de carga espacial, cae en uno de los múltiples huecos de la zona p convirtiéndose
en electrón de valencia. Una vez ocurrido esto el electrón es atraído por el polo
positivo de la batería y se desplaza de átomo en átomo hasta llegar al final del
cristal p, desde el cual se introduce en el hilo conductor y llega hasta la batería.
119
Polarización directa
Tensión umbral, de codo o de partida (Vγ ).La tensión umbral (también llamada
barrera de potencial) de polarización directa coincide en valor con la tensión de la
zona de carga espacial del diodo no polarizado. Al polarizar directamente el diodo,
la barrera de potencial inicial se va reduciendo, incrementando la corriente
ligeramente, alrededor del 1% de la nominal. Sin embargo, cuando la tensión
externa supera la tensión umbral, la barrera de potencial desaparece, de forma
que para pequeños incrementos de tensión se producen grandes variaciones de la
intensidad.
120
resultado es una avalancha de electrones que provoca una corriente grande. Este
fenómeno se produce para valores de la tensión superiores a 6 V.
Efecto Zener (diodos muy dopados). Cuanto más dopado está el material, menor
es la anchura de la zona de carga. Puesto que el campo eléctrico E puede
expresarse como cociente de la tensión V entre la distancia d; cuando el diodo
esté muy dopado, y por tanto d sea pequeño, el campo eléctrico será grande, del
orden de 3·105 V/cm. En estas condiciones, el propio campo puede ser capaz de
arrancar electrones de valencia incrementándose la corriente. Este efecto se
produce para tensiones de 4 V o menores.
Otros diodos
- Diodo Tener
121
Representación esquemática del diodo Zener
Resistencia Zener
Un diodo zener, como cualquier diodo, tiene cierta resistencia interna en sus
zonas P y N; al circular una corriente a través de éste se produce una pequeña
caída de tensión de ruptura.
Estabilizador Zener
Estabilizador Zener
Para elegir la resistencia limitadora R adecuada hay que calcular primero cual
puede ser su valor máximo y mínimo, después elegiremos una resistencia R que
se adecue a nuestros cálculos.
122
Donde:
- Diodo avalancha
123
- Diodo Varicap
- Foto diodo
124
Fotodiodo
Composición
Silicio 190–1100
Germanio 800–1700
125
- Diodo Schottky
El diodo Schottky llamado así en honor del físico alemán Walter H. Schottky,
también denominado diodo pnpn, es un dispositivo semiconductor que proporciona
conmutaciones muy rápidas entre los estados de conducción directa e inversa
(menos de 1ns en dispositivos pequeños de 5 mm de diámetro) y muy bajas
tensiones umbral (también conocidas como tensiones de codo, aunque en inglés
se refieren a ella como "knee", o sea, de rodilla). La tensión de codo es la
diferencia de potencial mínima necesaria para que el diodo actúe como conductor
en lugar de circuito abierto; esto, claro, dejando de lado la región Zener, que es
cuando más bien existe una diferencia de potencial lo suficientemente negativa
para que -a pesar de estar polarizado en contra del flujo de corriente- éste opere
de igual forma como lo haría regularmente.
A diferencia de los diodos convencionales de silicio, que tienen una tensión umbral
—valor de la tensión en directa a partir de la cual el diodo conduce— de 0,6 V, los
diodos Schottky tienen una tensión umbral de aproximadamente 0,2 V a 0,4 V
empleándose, por ejemplo, como protección de descarga de células solares con
baterías de plomo ácido.
126
La limitación más evidente del diodo de Schottky es la dificultad de conseguir
resistencias inversas relativamente elevadas cuando se trabaja con altos voltajes
inversos pero el diodo Schottky encuentra una gran variedad de aplicaciones en
circuitos de alta velocidad para computadoras donde se necesiten grandes
velocidades de conmutación y mediante su poca caída de voltaje en directo
permite poco gasto de energía, otra utilización del diodo Schottky es en variadores
de alta gama para que la corriente que vuelve desde el motor al variador no pase
por el transistor del freno y este no pierda sus facultades.
El diodo Schottky tiene varios tipos del mismo. Por ejemplo los tipos ALS y AS
permiten que los tiempos de conmutación entre los transistores sean mucho
menores puesto que son más superficiales y de menor tamaño por lo que se da
una mejora en la relación velocidad/potencia. El tipo ALS permite mayor potencia y
menor velocidad que la LS, mientras que las AL presentan el doble de velocidad
que las Schottly TTL con la misma potencia.
- Diodo túnel
El Diodo túnel es un diodo semiconductor que tiene una unión pn, en la cual se
produce el efecto túnel que da origen a una conductancia diferencial negativa en
un cierto intervalo de la característica corriente-tensión.
También se conocen como diodos Esaki, en honor del hombre que descubrió que
una fuerte contaminación con impurezas podía causar un efecto de tunelización de
los portadores de carga a lo largo de la zona de agotamiento en la unión. Una
característica importante del diodo túnel es su resistencia negativa en un
determinado intervalo de voltajes de polarización directa. Cuando la resistencia es
negativa, la corriente disminuye al aumentar el voltaje. En consecuencia, el diodo
túnel puede funcionar como amplificador o como oscilador. Esencialmente, este
diodo es un dispositivo de baja potencia para aplicaciones que involucran
microondas y que están relativamente libres de los efectos de la radiación.
127
- Diodo láser
Un diodo láser es dispositivo semiconductor similar a los diodos LED pero que
bajo las condiciones adecuadas emite luz láser. A veces se los denomina diodos
láser de inyección, o por sus siglas inglesas LD o ILD.
En los diodos láser, el cristal semiconductor tiene la forma de una lámina delgada
lográndose así una unión p-n de grandes dimensiones, con las caras exteriores
perfectamente paralelas. Los fotones emitidos en la dirección adecuada se
reflejarán repetidamente en dichas caras estimulando a su vez la emisión de más
fotones, hasta que el diodo comienza a emitir luz láser, que al ser coherente
debido a las reflexiones posee una gran pureza espectral.
7.1.3 Condensadores
86
128
las placas a otra, pero esto no dura siempre, la transferencia de carga termina
cuando la diferencia de potencial entre las placas, debida a la carga en las mismas
que son iguales y opuestas, sea igual a la suministrada por la pila. La cantidad de
carga que pueda almacenar el condensador depende de la geometría del mismo,
o sea, depende del tamaño de las placas del condensador y la distancia a la que
estén dichas placas, y es directamente proporcional a la diferencia de potencial
aplicada.
Q = CV
Donde:
Q = la carga almacenada.
Figura 31: Condensador construido por dos placas conductoras separadas por una
pequeña distancia. Cuando los conductores están conectados a los terminales de
una batería, ésta transfiere carga desde una de las placas a la otra hasta que la
diferencia de potencial entre ambas se hace igual a la diferencia de potencial entre
los extremos de la batería. La cantidad de carga transferida es proporcional a la
diferencia de potencial.
1 faradio = 1 culombio/voltio
129
Como el Faradio es una unidad relativamente grande se utilizan unidades más
pequeñas como: microfaradio (1uF = 10e-6) o el pico faradio(1pF = 10e-9).
Cálculo de la Capacitancia
Podemos distinguir tres casos para los que se puede calcular la diferencia de
potencial, de los cuales sus geométricas son bastantes sencillas. Estos casos son:
el condensador de placas paralelas o el condensador cilíndrico. Para el cálculo de
la diferencia de potencial se puede hallar, calculando primero el campo eléctrico
por la Ley de Gauss o la de Coulomb.
Formado por dos placas de la misma superficie A separadas por una distancia s,
pequeña comparada con la longitud y anchura de las placas. Se dispone de una
carga +Q en una placa y –Q en la otra. Como las placas están muy próximas, el
campo en cualquier punto entre las placas (excluyendo los puntos próximos a los
bordes) es aproximadamente igual al campo debido a dos planos de carga
infinitos, iguales y opuestos. Cada placa contribuye con un campo uniforme de
magnitud σ / 2ε 0 , resultando así un campo total E = σ / ε 0 , siendo σ = Q / A la
carga por unidad de área en cada una de las placas. Como el campo que existe
entre las placas de este condensador es uniforme (figura 33), la diferencia de
potencial entre las placas es igual al campo multiplicado por la separación de las
placas, s:
σ Qs
V = Es = s=
ε0 ε0 A
130
Siendo
Figura 33: Las líneas del campo eléctrico entre las placas de un condensador
plano están igualmente espaciadas, lo que indica que el campo es uniforme en
dicha zona.
Q ε0 A
C= =
V s
1 λ Q
Er = =
2πε 0 r 2πε 0 Lr
131
Figura 34: Condensador cilíndrico
b b
Q dr Q b
Vb − Va ) − ∫ E r dr = −
L∫
=− ln
a
2πε 0 a
r 2πε 0 L a
Q ln(b / a )
V = V a − Vb =
2πε 0 L
132
Y la capacidad es:
Q 2πε 0 L
C= =
V ln(b / a )
q
E=K
r
133
R2 r r R2 R2 q R − R1
V = − ∫ E ⋅ dr = ∫ E dr = ∫ k 2 dr = kq 2
R1 R1 R1 r R1 R2
R1 R2 R2
C= = 4πε o R1
k ( R2 − R1 ) R2 − R1
C = 4p e0 R
7.1.4 Inductores
88
http://es.wikipedia.org/wiki/Inductor
134
típicamente cable de cobre. Existen inductores con núcleo de aire ó con núcleo de
un material ferroso, para incrementar su inductancia.
Valor de la inductancia
Energía almacenada
135
7.1.5 Transistores89
Generalidades
El transistor bipolar tiene tres partes, como el triodo. Una que emite portadores
(emisor), otra que los recibe o recolecta (colector) y la tercera, que esta
intercalada entre las dos primeras, modula el paso de dichos portadores (base).
89
http://es.wikipedia.org/wiki/Transistor
136
En los transistores bipolares, una pequeña señal eléctrica aplicada entre la base y
emisor modula la corriente que circula entre emisor y colector. La señal base-
emisor puede ser muy pequeña en comparación con el emisor-colector. La
corriente emisor-colector es aproximadamente de la misma forma que la base-
emisor pero amplificada en un factor de amplificación "Beta".
Tipos de transistor
PNP
NPN
Figura 41: Símbolos esquemáticos para los BJT de tipo PNP y NPN. B=Base,
C=Colector y E=Emisor
137
Los transistores bipolares se usan generalmente en electrónica analógica.
También en algunas aplicaciones de electrónica digital como la tecnología TTL o
BICMOS.
Los MOSFET tienen en común con los FET su ausencia de cargas en las placas
metálicas así como un solo flujo de campo. Suelen venir integrados en capas de
arrays con polivalencia de 3 a 4Tg. Trabajan, mayormente, a menor rango que los
BICMOS y los PIMOS.
Un transistor de juntura bipolar está formado por dos junturas PN en un solo cristal
semiconductor, separados por una región muy estrecha. De esta forma quedan
formadas tres regiones:
Emisor, que se diferencia de las otras dos por estar fuertemente dopada,
comportándose como un metal.
Los transistores de efecto de campo o FET más conocidos son los JFET (Junction
Field Effect Transistor), MOSFET (Metal-Oxide-Semiconductor FET) y MISFET
(Metal-Insulator-Semiconductor FET).
P- channel
N- channel
138
Tienen tres terminales, denominadas puerta (gate), drenador (drain) y fuente
(source). La puerta es el terminal equivalente a la base del BJT. El transistor de
efecto de campo se comporta como un interruptor controlado por tensión, donde el
voltaje aplicado a la puerta permite hacer que fluya o no corriente entre drenador y
fuente.
Así como los transistores bipolares se dividen en NPN y PNP, los de efecto de
campo o FET son también de dos tipos: canal n y canal p, dependiendo de si la
aplicación de una tensión positiva en la puerta pone al transistor en estado de
conducción o no conducción, respectivamente. Los transistores de efecto de
campo MOS son usados extensísimamente en electrónica digital, y son el
componente fundamental de los circuitos integrados o chips digitales.
7.1.6 Amplificadores90
El amplificador operacional es una amplificador de alga ganancia acoplado
directamente que utiliza realimentación para desarrollar las características.
90
GUITIÉRREZ, Humberto, Electrónica Análoga, Fotocopiar Impresores, Bogotá 2002
139
El amplificador operaciones es ampliamente usada en el diseño de circuitos
análogos porque sus características son muy cercanas a las ideales.
Estructura interna
140
7.2 INTEGRADOS
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby justo meses
después de haber sido contratado por la firma Texas Instruments. Se trataba de
un dispositivo que integraba seis transistores en una misma base semiconductora.
En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la
contribución de su invento al desarrollo de la tecnología de la información.
Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados
microprocesadores.
141
transistores que pronto dejaron obsoletas a las válvulas o tubos de vacío. Existen
dos ventajas principales de los CIs sobre los circuitos convencionales: coste y
rendimiento. El bajo coste es debido a que los chips, con todos sus componentes,
son impresos como una sola pieza por fotolitografía y no construidos por
transistores de a uno por vez.
Con el transcurso de los años, los CIs están constantemente migrando a tamaños
más pequeños con mejores características, permitiendo que mayor cantidad de
circuitos sean empaquetados en cada chip (véase la ley de Moore). Al mismo
tiempo que el tamaño se comprime, prácticamente todo se mejora (el costo y el
consumo de energía disminuyen y la velocidad aumenta). Aunque estas ganancias
son aparentemente para el usuario final, existe una feroz competencia entre los
fabricantes para utilizar geometrías cada vez más delgadas. Este proceso, y el
esperado proceso en los próximos años, está muy bien descrito por la
International Technology Roadmap for Semiconductors, o ITRS.
7.2.1 Compuertas
142
puerta lógica consiste en una red de dispositivos interruptores que cumple las
condiciones booleanas para el operador particular. Son esencialmente circuitos de
conmutación integrados en un chip.
Puerta SI (IF)
143
Puerta Y (AND)
La puerta lógica Y, más conocida por su nombre en inglés AND, realiza la función
booleana de producto lógico. Su símbolo es un punto (·), aunque se suele omitir.
Así, el producto lógico de las variables A y B se indica como AB, y se lee A y B o
simplemente A por B.
Su definición se puede dar, como una compuerta que entrega un 1 lógico sólo si
todas las entradas están a nivel alto 1.
Puerta O (OR)
144
Entrada A Entrada B Salida A + B
0 0 0
0 1 1
1 0 1
1 1 1
La puerta lógica O-exclusiva, más conocida por su nombre en inglés XOR, realiza
la función booleana A'B+AB'. Su símbolo es el más (+) inscrito en un círculo. En la
figura de la derecha pueden observarse sus símbolos en electrónica.
145
Se puede definir esta puerta como aquella que da por resultado uno, cuando los
unos en las entradas son impares. ej: 1 y 0, 0 y 1 (en una compuerta de dos
entradas).
Lógica negada
Puerta NO (NOT)
Se puede definir como una puerta que proporciona el estado inverso del que esté
en su entrada.
146
Símbolo de la función lógica NO-Y. a) Contactos, b) Normalizado y c) No
normalizado
La puerta lógica NO-Y, más conocida por su nombre en inglés NAND, realiza la
operación de producto lógico negado. En la figura de la derecha pueden
observarse sus símbolos en electrónica.
0 0 1
0 1 1
1 0 1
1 1 0
La puerta lógica NO-O, más conocida por su nombre en inglés NOR, realiza la
operación de suma lógica negada. En la figura de la derecha pueden observarse
sus símbolos en electrónica.
147
Tabla de verdad puerta OR
0 0 1
0 1 0
1 0 0
1 1 0
0 0 1
0 1 0
1 0 0
1 1 1
148
Se puede definir esta puerta comos aquella que proporciona un 1 lógico, sólo si
las dos entradas son iguales, esto es, 0 y 0 ó 1 y 1.
Simbología
El símbolo tradicional es el más usado al ser el más simple para dibujarlo a mano,
a la vez que es más visual.
AND
OR
NOT
NAND
NOR
En la práctica, la puerta lógica más barata y más usada suele ser la puerta NAND.
Charles Peirce mostró que las puertas NAND pueden usarse solas (de la misma
forma que las puertas NOR) para conseguir los mismos resultados que con otras
puertas lógicas.
149
Puede que alguna vez se encuentre una puerta OR con una burbuja en cada una
de sus entradas, ya que por las Leyes de De Morgan se puede demostrar que
equivale a una puerta NAND, de la misma forma que una puerta NOR equivale a
una puerta AND con burbujas en sus entradas. Son símbolos equivalentes.
XOR
XNOR
El chip 7400 contiene cuatro puertas NAND. Los dos conectores adicionales son:
conexión a fuente (+5 V) y masa o tierra (0 V)
Las puertas lógicas triestado (de tres estados), son un tipo de puertas es las
cuales la salida tiene, además de los niveles alto y bajo, un tercer estado de alta
impedancia normalmente representado por Z. El estado Z se implementa
únicamente para facilitar el diseño de los circuitos, y no contiene ninguna
150
información. Esta característica se utiliza en circuitos en los cuales las salidas de
varias puertas lógicas se conectan a una única entrada, (evitando así un
cortocircuito). Una entrada de control activa una única salida a la vez,
dependiendo de la operación lógica requerida por el diseñador, mientras que las
otras salidas se mantienen en el estado Z de alta impedancia (también
denominado 'deshabilitado').
7.2.2 Microelectrónica
7.2.3 Microprocesadores
151
(situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché
L2 oscilan en la actualidad entre 256 kb y 2 Mb.
Este término fue usado frecuentemente en los años 70 y 90 para designar los
circuitos integrados encargados de las tareas gráficas de los ordenadores
domésticos de la época: el Commodore Amiga y el Atari ST. Ambos ordenadores
tenían un procesador principal, pero gran cantidad de sus funciones gráficas y de
152
sonido estaban incluidas en coprocesadores separados que funcionaban en
paralelo al procesador principal.
Cierto libro compara al Chipset con la médula espinal: una persona puede tener un
buen cerebro, pero si la médula falla, todo lo de abajo no sirve para nada.
Antecedentes históricos
Desde la aparición de los primeros computadores en los años cuarenta del siglo
XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el
153
microprocesador surgiera por simple disminución del procesador. Entre esas
evoluciones podemos destacar estos hitos:
154
• 19XX: Intel 8008
• 1978: Intel 8086, Motorola MC68000
• 1979: Intel 8088
• 1982: Intel 80286, Motorola MC68020
• 1985: Intel 80386, Motorola MC68020, AMD80386
• 1989: Intel 80486, Motorola MC68040, AMD80486
• 1993: Intel Pentium, Motorola MC68060, AMD K5, MIPS R10000
• 1995: Intel Pentium Pro
• 1997: Intel Pentium II, AMD K6, PowerPC6 (versiones G3 y G4), MIPS
R120007
• 1999: Intel Pentium III, AMD K6-2
• 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron,
PowerPC G4, MIPS R14000
• 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core
Duo, IMac con Procesador Intel Core Duo, AMD Athlon 64, AMD Athlon X2,
AMD Athlon FX.
Dos de las diferencias principales son el precio y el consumo. Puesto que los
sistemas integrados se pueden fabricar por decenas de millares o por millones de
unidades, una de las principales preocupaciones es reducir los costos. Los
sistemas integrados suelen usar un procesador relativamente pequeño y una
memoria pequeña para reducir los costes. Se enfrentan, sobre todo, al problema
de que un fallo en un elemento implica la necesidad de reparar la placa íntegra.
155
Componentes de un Sistema Integrado
El subsistema de presentación tipo suele ser una pantalla gráfica, táctil, LCD,
alfanumérico, etc.
Además de los conversores ac/dc y dc/dc, otros módulos típicos, filtros, circuitos
integrados supervisores de alimentación, etc. El consumo de energía puede ser
determinante en el desarrollo de algunos SE que necesariamente se alimentan
con baterías y es imposible su sustitución, con lo que la vida del SE suele ser vida
de las baterías.
156
Microprocesadores y sistemas embebidos
El subsistema de entrada acepta datos del exterior para ser procesados mientras
que el subsistema de salida transfiere los resultados hacia el exterior. Lo más
habitual es que haya varios subsistemas de entrada y varios de salida. A estos
subsistemas se les reconoce habitualmente como periféricos de E/S.
Hay que señalar que las líneas reales de distinción entre microprocesador,
microcontrolador y microcomputador en un solo chip están difusas, y se
denominan en ocasiones de manera indistinta unos y otros.
157
En general, un SE consiste en un sistema con microprocesador cuyo hardware y
software están específicamente diseñados y optimizados para resolver un
problema concreto eficientemente. Normalmente un SE interactúa continuamente
con el entorno para vigilar o controlar algún proceso mediante una serie de
sensores. Su hardware se diseña normalmente a nivel de chips, o de
interconexión de PCBs, buscando la mínima circuitería y el menor tamaño para
una aplicación particular. Otra alternativa consiste en el diseño a nivel de PCBs
consistente en el ensamblado de placas con microprocesadores comerciales que
responden normalmente a un estándar como el PC-104 (placas de tamaño
concreto que se interconectan entre sí “apilándolas” unas sobre otras, cada una de
ellas con una funcionalidad específica dentro del objetivo global que tenga el SE ).
Esta última solución acelera el tiempo de diseño pero no optimiza ni el tamaño del
sistema ni el número de componentes utilizados ni el coste unitario. En general, un
sistema embebido simple contará con un microprocesador, memoria, unos pocos
periféricos de E/S y un programa dedicado a una aplicación concreta almacenado
permanentemente en la memoria. El término embebido o empotrado hace
referencia al hecho de que el microcomputador está encerrado o instalado dentro
de un sistema mayor y su existencia como microcomputador puede no ser
aparente. Un usuario no técnico de un sistema embebido puede no ser consciente
de que está usando un sistema computador. En algunos hogares las personas,
que no tienen por qué ser usuarias de un ordenador personal estándar (PC),
utilizan del orden de diez o más sistemas embebidos cada día.
158
Un sistema embebido complejo puede utilizar un sistema operativo como apoyo
para la ejecución de sus programas, sobre todo cuando se requiere la ejecución
simultánea de los mismos. Cuando se utiliza un sistema operativo lo más probable
es que se tenga que tratar de un sistema operativo en tiempo real (RTOS), que es
un sistema operativo diseñado y optimizado para manejar fuertes restricciones de
tiempo asociadas con eventos en aplicaciones de tiempo real. En una aplicación
de tiempo real compleja la utilización de un RTOS multitarea puede simplificar el
desarrollo del software.
Los lugares donde se pueden encontrar los sistemas embebidos son numerosos y
de varias naturalezas. A continuación se exponen varios ejemplos para ilustrar las
posibilidades de los mismos:
159
• Puntos de información al ciudadano. En oficinas de turismo, grandes
almacenes, bibliotecas, etc. existen equipos con una pantalla táctil donde se
puede pulsar sobre la misma y elegir la consulta a realizar, obteniendo una
respuesta personalizada en un entorno gráfico amigable.
• Decodificadores y set-top boxes para la recepción de televisión. Cada vez
existe un mayor número de operadores de televisión que aprovechando las
tecnologías vía satélite y de red de cable ofrecen un servicio de televisión de
pago diferenciado del convencional. En primer lugar envían la señal en formato
digital MPEG-2 con lo que es necesario un procesado para decodificarla y
mandarla al televisor. Además viaja cifrada para evitar que la reciban en claro
usuarios sin contrato, lo que requiere descifrarla en casa del abonado.
También ofrecen un servicio de televisión interactiva o web-TV que necesita de
un software específico para mostrar páginas web y con ello un sistema basado
en procesador con salida de señal de televisión.
• Sistemas radar de aviones. El procesado de la señal recibida o reflejada del
sistema radar embarcado en un avión requiere alta potencia de cálculo además
de ocupar poco espacio, pesar poco y soportar condiciones extremas de
funcionamiento (temperatura, presión atmosférica, vibraciones, etc.).
• Equipos de medicina en hospitales y ambulancias UVI – móvil.
• Máquinas de revelado automático de fotos.
• Cajeros automáticos.
• Pasarelas (Gateways) Internet-LAN.
• Y un sin fin de posibilidades aún por descubrir o en estado embrionario como
son las neveras inteligentes que controlen su suministro vía Internet, PCs de
bolsillo, etc.
160
• Al utilizar dichos sistemas operativos se pueden encontrar fácilmente
herramientas de desarrollo software potentes así como numerosos
programadores que las dominan, dada la extensión mundial de las aplicaciones
para PCs compatibles.
• Reducción en el precio de los componentes hardware y software debido a la
gran cantidad de PCs en el mundo.
7.3.1 FPGA91
Estructura
Entre los CLB hay un gran número de elementos de interconexión, líneas que
pueden unir unos CLB con otros y con otras partes de la FPGA. Puede haber
líneas de distintas velocidades.
También hay pequeños elementos en cada una de las patillas del chip para definir
la forma en que ésta trabajará (entrada, salida, entrada-salida...). Se suelen llamar
IOB.
Aparte de esta estructura, que es la básica, cada fabricante añade sus propias
ideas, por ejemplo hay algunos que tienen varios planos con filas y columnas de
CLB.
Programación
La tarea del programador es definir la función lógica que realizará cada uno de los
CLB, seleccionar el modo de trabajo de cada IOB e interconectarlos todos.
91
http://es.wikipedia.org/wiki/FPGA
161
• VHDL
• Verilog
• ABEL
Aplicaciones típicas
Vendedores
92
www.wikipedia.org
162
una combinación de ceros y unos, que ya no se parece en nada a la señal original.
Precisamente, el término digital tiene su origen en esto, en que la señal se
construye a partir de números (dígitos).
1. La señal digital requiere mayor ancho de banda para ser transmitida que la
analógica.
2. Se necesita una conversión analógica-digital previa y una decodificación
posterior, en el momento de la recepción.
3. La transmisión de señales digital requiere una sincronización precisa entre los
tiempos del reloj de transmisor, con respecto a los del receptor. Un desfase,
por mínimo que sea, cambia por completo la señal.
Digitalización
163
1. Muestreo: El muestreo (en inglés, sampling) consiste en tomar muestras
periódicas de la amplitud de onda. La velocidad con que se toman esta
muestra, es decir, el número de muestras por segundo, es lo que se conoce
como frecuencia de muestreo.
2. Retención (En inglés, Hold): Las muestras tomadas han de ser retenidas
(retención) por un circuito de retención (Hold), el tiempo suficiente para permitir
evaluar su nivel (cuantificación).
3. Cuantificación: En el proceso de cuantificación se mide el nivel de voltaje de
cada una de las muestras. Consiste en asignar un margen de valor de una
señal analizada a un único nivel de salida.
4. Codificación: La codificación consiste en traducir los valores obtenidos durante
la cuantificación al código binario. Hay que tener presente que el código binario
es el más utilizado, pero también existen otros tipos de códigos que también
son utilizados.
Compresión
7.4 OPTOELECTRÓNICA93
164
está relacionado directamente con la luz y cada día son más utilizados en diversas
aplicaciones. En la actualidad es muy fácil observar en cualquier dispositivo
electrónico o eléctrico con un panel lleno de luces indicando cualquier tipo de
información. Por ejemplo, la mayoría de los equipos electrónicos disponen de
pilotos que nos avisa, el estado de funcionamiento del equipo, si se encuentra
encendido, si la batería ya se termino, si presenta algún tipo de error de
funcionamiento o simplemente si esta conectado a la energía eléctrica.
1. Dispositivos emisores: emiten luz al ser activados por energía eléctrica. Son
dispositivos que transforman la energía eléctrica en energía luminosa. A este nivel
corresponden los diodos LED o los LÁSER.
Un diodo LED, acrónimo inglés de Light Emitting Diode (diodo emisor de luz) es
un dispositivo semiconductor que emite luz monocromática cuando se polariza en
directa y es atravesado por la corriente eléctrica. El color depende del material
semiconductor empleado en la construcción del diodo, pudiendo variar desde el
ultravioleta, pasando por el espectro de luz visible, hasta el infrarrojo, recibiendo
éstos últimos la denominación de diodos IRED (Infra-Red Emitting Diode).
A (p) C ó K (n)
165
Figura 60: LED´S
Para obtener una buena intensidad luminosa debe escogerse bien la corriente que
atraviesa el LED; el voltaje de operación va desde 1,5 hasta 2,2 voltios
aproximadamente, y la gama de intensidades que debe circular por él va desde 10
hasta 20 mA en los diodos de color rojo, y de 20 a 40 mA para los otros LEDs.
El primer diodo LED que emitía en el espectro visible fue desarrollado por el
ingeniero de General Electric Nick Holonyak en 1962.
Tecnología LED/OLED
En corriente directa (DC), todos los diodos emiten una cierta cantidad de radiación
cuando los pares electrón-hueco se recombinan, es decir, cuando los electrones
caen desde la banda de conducción (de mayor energía) a la banda de valencia (de
menor energía). Indudablemente, la frecuencia de la radiación emitida y, por ende,
su color, dependerá de la altura de la banda prohibida (diferencias de energía
entre las bandas de conducción y valencia), es decir, de los materiales empleados.
Los diodos LED e IRED, además tienen geometrías especiales para evitar que la
radiación emitida sea reabsorbida por el material circundante del propio diodo, lo
que sucede en los convencionales.
166
Compuestos empleados en la construcción de diodos LED.
Long. de
Compuesto Color
onda
Rojo, naranja y
Arseniuro fosfuro de galio (GaAsP) 630nm
amarillo
Los primeros diodos construidos fueron los diodos infrarrojos y de color rojo,
permitiendo el desarrollo tecnológico posterior la construcción de diodos para
longitudes de onda cada vez menores. En particular, los diodos azules fueron
desarrollados a finales de los 90 por Shuji Nakamura, añadiéndose a los rojos y
verdes desarrollados con anterioridad, lo que permitió, por combinación de los
mismos, la obtención de luz blanca. El diodo de seleniuro de zinc puede emitir
también luz blanca si se mezcla la luz azul que emite con la roja y verde creada
167
por fotoluminiscencia. La más reciente innovación en el ámbito de la tecnología
LED son los diodos ultravioletas, que se han empleado con éxito en la producción
de luz blanca al emplearse para iluminar materiales fluorescentes.
Tanto los diodos azules como los ultravioletas son caros respecto de los más
comunes (rojo, verde, amarillo e infrarrojo), siendo por ello menos empleados en
las aplicaciones comerciales.
Los LED comerciales típicos están diseñados para potencias del orden de los 30 a
60 mW. En torno a 1999 se introdujeron en el mercado diodos capaces de trabajar
con potencias de 1 W para uso continuo; estos diodos tienen matrices
semiconductoras de dimensiones mucho mayores para poder soportar tales
potencias e incorporan aletas metálicas para disipar el calor (ver convección)
generado por efecto Joule. En 2002 se comercializaron diodos para potencias de 5
W, con eficiencias en torno a 60 lm/W, es decir, el equivalente a una lámpara
incandescente de 50 W. De continuar esta progresión, en el futuro será posible el
empleo de diodos LED en la iluminación.
El comienzo del siglo XXI ha visto aparecer los diodos OLED (diodos LED
orgánicos), fabricados con materiales polímeros orgánicos semiconductores.
Aunque la eficiencia lograda con estos dispositivos está lejos de la de los diodos
inorgánicos, su fabricación promete ser considerablemente más barata que la de
aquellos, siendo además posible depositar gran cantidad de diodos sobre
cualquier superficie empleando técnicas de pintado para crear pantallas a color.
Aplicaciones
Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos
a distancia de televisores, habiéndose generalizado su uso en otros
electrodomésticos como por ejemplo equipos de aire acondicionado, equipos de
música, etc. y en general para aplicaciones de control remoto, así como en
dispositivos detectores.
Los diodos LED se emplean con profusión en todo tipo de indicadores de estado
(encendido/apagado) en dispositivos de señalización (tráfico, de emergencia, etc.)
y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de
altura y está en Times Square, Manhattan). También se emplean en el alumbrado
de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas
electrónicas, etc., así como en bicicletas y usos similares. Existen además
impresoras LED.
168
fluorescente, presenta indudables ventajas, particularmente su larga vida útil, su
menor fragilidad y la menor disipación de energía, además que para el mismo
rendimiento luminoso producen luz de color, mientras que los utilizados hasta
ahora tienen un filtro, lo que reduce notablemente su rendimiento.
Conexión
• Rojo = 1,6 V
• Rojo alta luminosidad = 1,9v
• Amarillo = 1,7 V a 2V
• Verde = 2,4 V
• Naranja = 2,4 V
• Blanco brillante= 3,4 V
• Azul = 3,4 V
• Azul 430nm= 4,6 V
Luego mediante la ley de Ohm, puede calcularse el valor resistivo adecuado para
la tensión de la fuente que utilicemos.
Diodos Láser
Los diodos láser son constructivamente diferentes a los diodos LED normales. Las
características de un diodo láser son
La emisión de luz es dirigida en una sola dirección: Un diodo LED emite fotones en
muchas direcciones. Un diodo láser, en cambio, consigue realizar un guiado de la
luz preferencial una sola dirección.
169
(a)
(b)
Figura 61: Corte esquemático de la emisión de luz en diodos LED y láser (a)
Emisión fotónica en diodo LED (b) Emisión fotónica en diodo láser
(a)
170
(b)
Figura 62: Intensidad de luz en función de la longitud de onda para diodos LED y
láser (a) Espectro emitido por un LED (b) espectro emitido por un láser
Debido a estas dos propiedades, con el láser se pueden conseguir rayos de luz
monocromática dirigidos en una dirección determinada. Como además también
puede controlarse la potencia emitida, el láser resulta un dispositivo ideal para
aquellas operaciones en las que sea necesario entregar energía con precisión.
Materiales utilizados
Los materiales utilizados para la fabricación de diodos láser son prácticamente los
mismos que en diodos LED. En comunicaciones se utilizan predominantemente
diodos láser que emiten en el infrarrojo. También se utilizan de luz roja.
171
Figura 63: Esquema del funcionamiento del CD-ROM
Un haz láser es guiado mediante lentes hasta la superficie del CD. A efectos
prácticos, se puede suponer dicha superficie formada por zonas reflectantes y
zonas absorbentes de luz. Al incidir el haz láser en una zona reflectante, la luz
será guiada hasta un detector de luz: el sistema ha detectado un uno digital. Si el
haz no es reflejado, al detector no le llega ninguna luz: el sistema ha detectado un
cero digital.
7.4.2 Fotodetectores
- Fotorresistencias
- Fotodiodos
- Fototransistores
- Fotorresistencias
172
Una fotorresistencia se compone de un material semiconductor cuya resistencia
varia en función de la iluminación. La fotorresistencia reduce su valor resistivo en
presencia de rayos luminosos. Es por ello por lo que también se le llama
resistencias dependientes de luz (light dependent resistors), fotoconductores o
células fotoconductoras.
173
Por supuesto, el material de la fotorresistencia responderá a unas longitudes de
onda determinadas. Es decir, la variación de resistencia será máxima para una
longitud de onda determinada. Esta longitud de onda depende del material y el
dopado, y deberá ser suministrada por el proveedor. En general, la variación de
resistencia en función de la longitud de onda presenta curvas como las de la figura
siguiente.
El material mas utilizado como sensor es el CdS, aunque también puede utilizarse
Silicio, GaAsP y GaP.
Fotodiodos
174
Características
175
Para caracterizar el funcionamiento del fotodiodo se definen los siguientes
parámetros:
Los fotodiodos son más rápidos que las fotorresistencias, es decir, tienen un
tiempo de respuesta menor, sin embargo solo pueden conducir en una
polarización directa corrientes relativamente pequeñas.
Geometría
Fototransistor
176
Se trata de un transistor bipolar sensible a la luz.
La radiación luminosa se hace incidir sobre la unión colector base cuando éste
opera en la RAN. En esta unión se generan los pares electrón - hueco, que
provocan la corriente eléctrica.
177
El Optoacoplador
178
La fibra óptica es una guía de ondas en forma de filamento, generalmente de
vidrio (en realidad, de polisilicio), aunque también puede ser de materiales
plásticos, capaz de guiar una potencia óptica (lumínica), generalmente introducida
por un láser, o por un LED. Las fibras utilizadas en telecomunicación a largas
distancias son siempre de vidrio, utilizándose las de plástico solo en algunas redes
de ordenadores y otras aplicaciones de corta distancia, debido a que presentan
mayor atenuación que las de cristal.
Así, en el interior de una fibra óptica, la luz se va reflejando contra las paredes en
ángulos muy abiertos, de tal forma que prácticamente avanza por su centro. De
este modo, se pueden guiar las señales luminosas sin pérdidas por largas
distancias.
Charles Kao en su Tesis Doctoral de 1966 estimó que las máximas pérdidas que
debería tener la fibra óptica para que resultara práctica en enlaces de
comunicaciones eran de 20 dB/km. En 1970 los investigadores Maurer, Keck,
Schultz y Zimar que trabajaban para Corning Glass Works fabricaron la primera
fibra óptica dopando el sílice con titanio. Las pérdidas eran de 17 dB/km.
El primer enlace transoceánico que usó fibras ópticas fue el TAT-8, que comenzó
a operar en 1988. Desde entonces se ha empleado fibra óptica en multitud de
enlaces transoceánicos, entre ciudades y poco a poco se va extendiendo su uso
desde las redes troncales de las operadoras hacia los usuarios finales.
179
electromagnética, similar a la señal original. El sistema básico de transmisión se
compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector
óptico, línea de fibra óptica (primer tramo), empalme, línea de fibra óptica
(segundo tramo), corrector óptico, receptor, amplificador y señal de salida. En
resumen, se puede decir que este proceso de comunicación, la fibra óptica
funciona como medio de transportación de la señal luminosa, generado por el
transmisor de LED’S (diodos emisores de luz) y láser. Los diodos emisores de luz
y los diodos láser son fuentes adecuadas para la transmisión mediante fibra
óptica, debido a que su salida se puede controlar rápidamente por medio de una
corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud
de onda y el bajo voltaje necesario para manejarlos son características atractivas.
180
El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda
de plástico u otros materiales que lo resguardan contra la humedad, el
aplastamiento, los roedores, y otros riesgos del entorno.
La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con
aditivos que confinan las ondas ópticas en el núcleo.
- Fibra Monomodo:
181
Figura 77: Fibra monomodo
Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que
llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de
refracción en el interior del núcleo no es único y decrece cuando se desplaza del
núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el
eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la
dispersión entre los diferentes modos de propagación a través del núcleo de la
fibra.
Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con
una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km.
Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas
fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción
182
es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo
hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.
183