Unidad 2:
Conducción eléctrica de los materiales.
1
Por el contrario, si en lugar de efectuar la unión con un alambre metálico
empleaban un hilo de seda, el objeto no se energizaba. También
verificaron que el elemento distante no podía ser electrificado si la línea de
transmisión hacía contacto con la tierra, pero que era posible energizarlo si
dicha línea estaba separada del suelo, suspendida por medio de hilos de
seda.
Con todos estos experimentos concluyeron que la electrificación era un
efecto que se presentaba en la superficie de los cuerpos, en donde
aparecía lo que llamaron una "virtud" o "fluido" eléctrico y que en la
actualidad se llama carga eléctrica. Encontraron que la carga eléctrica
podía moverse libremente de un cuerpo a otro a través de ciertos
materiales que llamaron conductores (el cuerpo humano, los metales, el
aire húmedo, etc.). También verificaron que materiales tales como la
madera, la seda y la cerámica no conducen electricidad, por lo que los
llamaron aisladores o no-conductores.
De esta manera, Gray descubrió dos importantes propiedades de la
electricidad: que puede ser conducida y aislada. Posteriormente, la
asistencia financiera del reverendo Granville Wheler permitió la continuidad
de sus estudios.
Este trabajo inspiraría luego a generaciones de investigadores a
experimentar con corrientes eléctricas y cómo transmitirlas a grandes
distancias. A pesar de la importancia de sus investigaciones (algunos
proponen que fue el precursor de las comunicaciones eléctricas) recibió
poco crédito por ellas. En ese momento, los descubrimientos en
electricidad ocurrían rápidamente y sus hallazgos tendieron a parecer
triviales en poco tiempo.
En la actualidad no hay un monumento a Gray y se cree que fue enterrado
en una tumba común de un viejo cementerio de Londres, en un área
reservada a pensionistas pobres de Charterhouse.
Pasaron más de 2.000 años sin avances desde Tales de Mileto hasta que
el inglés Guillermo Gilbert, médico de cámara de la reina Isabel I, retoma
alrededor del 1600 los estudios de los griegos y emplea por primera vez la
palabra electricidad para describir sus experimentos sobre electricidad y
magnetismo. En su obra De Magneticisque Corporibus et de Magno
Magnete Tellure detalló que algunas sustancias como el vidrio, el azufre y
2
la resina se comportaban como el ámbar, y cuando eran frotadas atraían
objetos livianos; mientras que otras como el cobre o la plata no ejercían
ninguna atracción. A las primeras las llamó "eléctricas", mientras que a las
segundas las denominó "aneléctricas".
En 1672 el físico alemán Otto von Guericke desarrolló la primera máquina
electrostática para producir cargas eléctricas. Esta máquinaconsistía de
una esfera de azufre que podía hacer girar con una mano y frotar con la
otra. Además de atraer pequeños trozos de papel producía (lo cual era
inesperado) crujidos y diminutas chispas mientras se la frotaba. Por
primera vez se veía que la electricidad podía fluir, aunque en realidad se
pensaba que era un fluido que podía ser transferido de un objeto a otro por
frotamiento. Luego, a fines de 1673 el francés François de Cisternay Du
Fay identificó la existencia de dos cargas eléctricas, positiva y negativa.
Según su teoría, estas cargas estaban ligadas a la existencia de dos tipos
de fluidos eléctricos: uno de atracción y otro de repulsión.
En 1785, el francés Charles Coulomb corroboró que la fuerza entre cargas
eléctricas era proporcional al producto de las cargas e inversamente
proporcional al cuadrado de la distancia que separaba las cargas. Este
enunciado se conoció como Ley de Coulomb. El italiano Galvani hizo otro
descubrimiento importante en forma accidental hacia fines del siglo XVIII.
En 1786 observó que al conectar un alambre de hierro o latón al nervio de
una pata de rana y una varilla al músculo, éste se contraía del mismo
modo que cuando se le hacía pasar una descarga eléctrica.
Alejandro Volta, profesor de la Universidad de Pavia, Italia, no aceptó la
conclusión ofrecida por Galvani y demostró que la contracción de las patas
de la rana observada por Galvani no tenía nada que ver con la rana en sí,
sino que era debida a los alambres de hierro y latón, los que generaban
electricidad al tomar contacto con la humedad salina de la rana. Más tarde,
Volta fabricó una pila con placas de cobre y cinc superpuestas y en
contacto con una solución salina. El resultado fue una corriente eléctrica
que fluía por el hilo de unión. Sin embargo, había muy poco en los estudios
que se hacían en aquellos tiempos que tuviera verdadero significado. A la
electricidad se la consideraba más bien como un juego para atraer o
repeler y producir chispitas. Y en realidad, las minúsculas cantidades de
electricidad generadas por las máquinas de frotamiento no tenían ninguna
3
utilidad práctica. Casi todos los conocimientos actuales de electricidad se
adquirieron en los últimos 200 años.
El descubrimiento de Faraday condujo directamente al del dínamo, o
principio del generador: cuando una bobina gira dentro de un campo
magnético en el cable se genera una corriente eléctrica. Thomas Alva
Edison, el científico e inventor estadounidense, desarrolló este concepto y
construyó un generador eléctrico capaz de producir corrientes eléctricas
mucho mayores que la pila de Volta.
Ya era obvio que la electricidad en movimiento era una forma de energía.
A principios del 1800, Humphry Davy descubrió que la electricidad podía
emplearse también para producir luz. Conectó los terminales de una
batería muy potente a dos varillas de carbón apenas separadas entre sí, y
obtuvo una luz muy brillante; la lámpara de arco había sido inventada. En
1841, el inglés J.P. Joule formuló las leyes del desprendimiento del calor
producido al paso de una corriente eléctrica por un conductor. Estas leyes
explican lo que ocurre en un cable que conduce corriente: éste se calienta
porque la resistencia del cable convierte parte de la energía eléctrica en
calor. Este principio es la base de todos los aparatos eléctricos de
calefacción o similares. En 1879 Edison introdujo la lámpara eléctrica
haciendo pasar una corriente eléctrica a través de un fino filamento de
carbón encerrado en una ampolla de vidrio, en cuyo interior había hecho el
vacío. El filamento se puso incandescente e iluminó durante 44 horas.
Hacia el año 1850, casi todos los efectos eléctricos importantes habían
sido descubiertos y explicados. Había dos importantes excepciones. Una
de ellas era la existencia de ondas electromagnéticas. En 1865 el británico
James Clerk Maxwell demostró matemáticamente que las ondas
(alteraciones electromagnéticas) están asociadas a todas las corrientes
eléctricas variables, y 22 años después (en 1887) Heinrich Hertz, produjo y
detectó en la realidad las ondas previstas por MaxwelI. Este
descubrimiento condujo a la idea, desarrollada extensamente por
Guillermo Marconi, de que las ondas electromagnéticas podían ser
empleadas para transmitir mensajes sin cables a través del aire. Al
principio se las utilizó para enviar señales telegráficas y luego, en el siglo
XX, para transmitir sonidos e imágenes. La pregunta acerca de qué era
realmente la electricidad y qué era lo que fluía por el circuito eléctrico no
4
fue contestada hasta 1897, en que J. J.Thompson descubrió el "ladrillo" de
que estaba construida la electricidad: el electrón. Mediante un fuerte
campo eléctrico deflectó una corriente eléctrica que circulaba por el vacío y
constatando en qué dirección se desviaba, probó que estaba constituida
por cargas eléctricas negativas, o electrones. Más tarde, en 1911, Roberto
Millikan demostró que el electrón transportaba la menor carga eléctrica
posible. Estos descubrimientos abrieron la puerta al desarrollo de la radio,
la televisión, las computadoras, la telefonía y casi toda la tecnología que
nos rodea actualmente.
Llegan del sol, del viento, del agua de los ríos, del mar, de las
profundidades de la tierra y de algunos residuos. No se agotan, se
obtienen de forma periódica y no limitada en el tiempo, no producen lluvia
ácida ni contribuyen al efecto invernadero, no dejan residuos importantes,
acercan las fuentes de producción al consumidor ahorrando miles de
kilovatios en transporte, fortalecen la independencia energética y la
industria nacional, favorecen la creación de empleo y por si esto fuera
poco, nos resultan baratas. En síntesis, ésta sería la definición de las
energías renovables en sus distintas manifestaciones: eólíca, solar,
biomasa, hidráulica y geotérmica. La dependencia de combustibles no
renovables (petróleo, carbón, gas) nos obliga a repensar el actual modelo
energético, debido a la gravedad de los daños ambientales. En este
sentido, la eficiencia energética, el ahorro energético y las energías
renovables son las mejores vías para afrontar el cambio climático y el
efecto invernadero que se avecina.
Las energías renovables han cubierto durante miles de años las
necesidades energéticas de la Humanidad y lo volverán a hacer en un
futuro, tras un breve paréntesis de apenas dos siglos, en los que las
fuentes energéticas basadas en combustibles fósiles y nucleares, han
devastado el planeta y continúan poniendo en serio peligro la subsistencia
de los seres vivos. Embarcarnos en estas energías limpias no significa,
como algunos piensan, retroceder al pasado y paralizar el avance
tecnológico. Por el contrario, sacar buen rendimiento de una energía
gratuita y aprovechable, es síntoma de progreso y de un desarrollo
sostenible.
Teorías sobre el movimiento electrónico de los materiales.
5
Modelo atómico de Dalton.
El modelo atómico de Dalton surgido en el contexto de la química, fue el
primer modelo atómico con bases científicas, propuesto entre 1803 y 1807
por John Dalton, aunque el autor lo denominó más propiamente "teoría
atómica" o "postulados atómicos".
El modelo permitió aclarar por primera vez el por qué las sustancias
químicas reaccionaban en proporciones estequiométricas fijas (Ley de las
proporciones constantes), y por qué cuando dos sustancias reaccionan
para formar dos o más compuestos diferentes, entonces las proporciones
de estas relaciones son números enteros (Ley de las proporciones
múltiples). Por ejemplo 12 g de carbono (C), pueden reaccionar con 16 g
de oxígeno (O2) para formar monóxido de carbono (CO) o pueden
reaccionar con 32 g de oxígeno para formar dióxido de carbono (CO2).
Además, el modelo aclaraba que aun existiendo una gran variedad de
sustancias diferentes, estas podían ser explicadas en términos de una
cantidad más bien pequeña de constituyentes elementales o elementos.
En esencia, el modelo explicaba la mayor parte de la química de fines del
siglo XVIII y principios del siglo XIX, reduciendo una serie de hechos
complejos a una teoría combinatoria realmente simple.
Dalton postuló su teoría formulando una serie de enunciados simples:
1. La materia está formada por partículas muy pequeñas llamadas
átomos, que son indivisibles y no se pueden destruir.
2. Los átomos de un mismo elemento son iguales entre sí, tienen la
misma masa e iguales propiedades. Los átomos de diferentes
elementos tienen masa diferente. Comparando la masa de los
elementos con los del hidrógeno tomado como la unidad, propuso el
concepto de peso atómico relativo.
3. Los átomos permanecen sin división, aún cuando se combinen en las
reacciones químicas.
4. Los átomos, al combinarse para formar compuestos, guardan
relaciones simples de números enteros y pequeños.
6
5. Los átomos de elementos diferentes se pueden combinar en
proporciones distintas y formar más de un compuesto.
6. Los compuestos químicos se forman al unirse átomos de dos o más
elementos.
La materia está formada por partículas muy pequeñas llamadas “átomos”.
Estos átomos no se pueden dividir ni romper, no se crean ni se destruyen
en ninguna reacción química, y nunca cambian.
Los átomos de un mismo elemento son iguales entre sí, tienen la misma
masa y dimensiones. Por ejemplo: todos los átomos de hidrógeno son
iguales.
Por otro lado, los átomos de elementos diferentes son diferentes. Por
ejemplo: los átomos de oxígeno son diferentes a los átomos de hidrógeno.
Los átomos pueden combinarse para formar compuestos químicos. Por
ejemplo: los átomos de hidrógeno y oxígeno pueden combinarse y formar
moléculas de agua.
Los átomos se combinan para formar compuestos en relaciones numéricas
simples. Por ejemplo: al formarse agua, la relación es de 2 a 1 (dos
átomos de hidrógeno con un átomo de oxígeno).
Los átomos de elementos diferentes se pueden combinar en proporciones
distintas y formar más de un compuesto. Por ejemplo: unos átomos de
carbono con uno de oxígeno forman monóxido de carbono (CO), mientras
que dos átomos de oxígeno con uno de carbono, forman dióxido de
carbono (CO2).
La hipótesis de John Dalton, que afirmaba que los elementos en estado
gaseoso eran monoatómicos y que los átomos de los elementos se
combinaban en la menor proporción posible para formar átomos de los
compuestos, lo que hoy llamamos moléculas, generó algunas dificultades.
Por ejemplo, Dalton pensó que la fórmula del agua era HO. En
consecuencia de esto se realizaron cálculos erróneos sobre la masa y
peso de algunos compuestos básicos.
En 1805, Gay-Lussac y Alexander von Humboldt mostraron que el agua
estaba formada por dos átomos de hidrógeno y uno de oxígeno. En 1811,
Amedeo Avogadro concretó la exacta composición del agua, basándose
7
en lo que hoy se conoce como Ley de Avogadro y la evidencia de la
existencia de moléculas diatómicas homonucleares. No obstante, estos
resultados fueron ignorados en su mayor parte hasta 1860. Esto fue, en
parte, por la creencia de que los átomos de un elemento no tenían ninguna
afinidad química hacia átomos del mismo elemento. Además, algunos
conceptos de la disociación de moléculas no estaban explicados en la Ley
de Avogadro.
En 1860, en el Congreso de Karlsruhe sobre masas estables y pesos
atómicos, Cannizzaro revivió las ideas de Avogadro y las usó para realizar
una tabla periódica de pesos atómicos, que tenían bastante similitud con
los actuales valores. Estos pesos fueron un importante prerrequisito para
el descubrimiento de la Tabla periódica de Dmitri Mendeléyev y Lothar
Meyer.
Hasta la segunda mitad del siglo XIX no aparecieron evidencias de que los
átomos fueran divisibles o estuvieran a su vez constituidos por partes más
elementales. Por esa razón el modelo de Dalton no fue cuestionado
durante décadas, ya que explicaba adecuadamente los hechos. Si bien el
modelo usualmente nacido para explicar los compuestos químicos y las
regularidades estequiométricas, no podía explicar las regularidades
periódicas en las propiedades de los elementos químicos tal como
aparecieron en la tabla periódica de los elementos de Mendeleiev (esto
sólo sería explicado por los modelos que suponían el átomo estaba
formado por electrones dispuestos en capas). El modelo de Dalton
tampoco podía dar cuenta de las investigaciones realizadas sobre rayos
catódicos que sugirieron que los átomos no eran indivisibles sino que
contenían partículas más pequeñas cargadas eléctricamente
8
Modelo atómico de Thomson.
El modelo atómico de Thomson es una teoría sobre la estructura atómica
propuesta en 1904 por Thomson, quien descubrió el electrón en 1897,
pocos años antes del descubrimiento del protón y del neutrón. En el
modelo, el átomo está compuesto por electrones de carga negativa en un
átomo positivo, incrustados en este al igual que las pasas de un pudin. Por
esta comparación, fue que el supuesto se denominó «Modelo del pudin de
pasas». Postulaba que los electrones se distribuían uniformemente en el
interior del átomo suspendidos en una nube de carga positiva. El átomo se
consideraba como una esfera con carga positiva con electrones repartidos
como pequeños gránulos. La herramienta principal con la que contó
Thomson para su modelo atómico fue la electricidad.
El nuevo modelo atómico usó la amplia evidencia obtenida gracias al
estudio de los rayos catódicos a lo largo de la segunda mitad del siglo XIX.
Si bien el modelo atómico de Dalton daba debida cuenta de la formación
de los procesos químicos, postulando átomos indivisibles, la evidencia
adicional suministrada por los rayos catódicos sugería que esos átomos
contenían partículas eléctricas de carga negativa. El modelo de Dalton
ignoraba la estructura interna, pero el modelo de Thomson agregaba las
virtudes del modelo de Dalton y simultáneamente podía explicar los
hechos de los rayos catódicos.
9
Si bien el modelo de Thomson explicaba adecuadamente muchos de los
hechos observados de la química y los rayos catódicos, hacía predicciones
incorrectas sobre la distribución de la carga positiva dentro de los átomos.
Las predicciones del modelo de Thomson resultaban incompatibles con los
resultados del experimento de Rutherford, que sugería que la carga
positiva estaba concentrada en una pequeña región en el centro del
átomo, que es lo que más tarde se conoció como núcleo atómico. El
modelo atómico de Rutherford, permitió explicar esto último, revelando la
existencia de un núcleo atómico cargado positivamente y de elevada
densidad.5
Otro hecho que el modelo de Thomson había dejado por explicar era la
regularidad de la tabla periódica de Mendeleiev. Los modelos de Bohr,
Sommerfeld y Schrödinger finalmente explicarían las regularidades
periódicas en las propiedades de los elementos químicos de la tabla, como
resultado de una disposición más estructurada de los electrones en el
átomo, que ni el modelo de Thomson ni el modelo de Rutherford habían
considerado.
11
Por un lado, se planteó el problema de cómo un conjunto de cargas
positivas podían mantenerse unidas en un volumen tan pequeño,
hecho que llevó posteriormente a la postulación y descubrimiento de
la fuerza nuclear fuerte, que es una de las cuatro interacciones
fundamentales.
Por otro lado, existía otra dificultad proveniente de la electrodinámica
clásica que predice que una partícula cargada y acelerada, como
sería el caso de los electrones orbitando alrededor del núcleo,
produciría radiación electromagnética, perdiendo energía y
finalmente cayendo sobre el núcleo. Las leyes de Newton, junto con
las ecuaciones de Maxwell del electromagnetismo aplicadas al átomo
de Rutherford llevan a que en un tiempo del orden de {\displaystyle
10^{-10}} 10^{-10}s, toda la energía del átomo se habría radiado, con
la consiguiente caída de los electrones sobre el núcleo. Se trata, por
tanto de un modelo físicamente inestable, desde el punto de vista de
la física clásica.
Según Rutherford, las órbitas de los electrones no están muy bien
definidas y forman una estructura compleja alrededor del núcleo, dándole
un tamaño y forma algo indefinidas. Los resultados de su experimento le
permitieron calcular que el radio atómico era diez mil veces mayor que el
núcleo mismo, y, en consecuencia, que el interior de un átomo está
prácticamente vacío.
El modelo atómico de Rutherford fue sustituido muy pronto por el de Bohr.
Bohr intentó explicar fenomenológicamente que solo algunas órbitas de los
electrones son posibles. Lo cual daría cuenta de los espectros de emisión
y absorción de los átomos en forma de bandas discretas.
12
Modelo atómico de Bohr
El modelo atómico de Bohr es un modelo clásico del átomo, pero fue el
primer modelo atómico en el que se introduce una cuantización a partir de
ciertos postulados. Dado que la cuantización del momento es introducida
en forma ad hoc, el modelo puede considerarse transicional en cuanto a
que se ubica entre la mecánica clásica y la cuántica. Fue propuesto en
1913 por el físico danés Niels Bohr, para explicar cómo los electrones
pueden tener órbitas estables alrededor del núcleo y por qué los átomos
presentaban espectros de emisión característicos (dos problemas que eran
ignorados en el modelo previo de Rutherford). Además el modelo de Bohr
incorporaba ideas tomadas del efecto fotoeléctrico, explicado por Albert
Einstein en 1905.
Bohr intentaba hacer un modelo atómico capaz de explicar la estabilidad
de la materia y los espectros de emisión y absorción discretos que se
observan en los gases. Describió el átomo de hidrógeno con un protón en
el núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr
partía conceptualmente del modelo atómico de Rutherford y de las
incipientes ideas sobre cuantización que habían surgido unos años antes
con las investigaciones de Max Planck y Albert Einstein.
En este modelo los electrones giran en órbitas circulares alrededor del
núcleo, ocupando la órbita de menor energía posible, o la órbita más
cercana posible al núcleo. El electromagnetismo clásico predecía que una
partícula cargada moviéndose de forma circular emitiría energía por lo que
los electrones deberían colapsar sobre el núcleo en breves instantes de
tiempo. Para superar este problema Bohr supuso que los electrones
solamente se podían mover en órbitas específicas, cada una de las cuales
13
caracterizada por su nivel energético. Cada órbita puede entonces
identificarse mediante un número entero n que toma valores desde 1 en
adelante. Este número "n" recibe el nombre de número cuántico principal.
Bohr supuso además que el momento angular de cada electrón estaba
cuantizado y solo podía variar en fracciones enteras de la constante de
Planck. De acuerdo al número cuántico principal calculó las distancias a
las cuales se hallaba del núcleo cada una de las órbitas permitidas en el
átomo de hidrógeno. Estos niveles en un principio estaban clasificados por
letras que empezaban en la "K" y terminaban en la "Q". Posteriormente los
niveles electrónicos se ordenaron por números. Cada órbita tiene
electrones con distintos niveles de energía obtenida que después se tiene
que liberar y por esa razón el electrón va saltando de una órbita a otra
hasta llegar a una que tenga el espacio y nivel adecuado, dependiendo de
la energía que posea, para liberarse sin problema y de nuevo volver a su
órbita de origen. Sin embargo no explicaba el espectro de estructura fina
que podría ser explicado algunos años más tarde gracias al modelo
atómico de Sommerfeld. Históricamente el desarrollo del modelo atómico
de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.
En 1913, Niels Bohr desarrolló su célebre modelo atómico de acuerdo a
tres postulados fundamentales:
Primer postulado
Los electrones describen órbitas circulares en torno al núcleo del átomo sin
irradiar energía.
Segundo postulado
Las únicas órbitas permitidas para un electrón son aquellas para las cuales
el momento angular, L del electrón sea un múltiplo entero de h=h/2π
Tercer postulado
El electrón solo emite o absorbe energía en los saltos de una órbita
permitida a otra. En dicho cambio emite o absorbe un fotón cuya energía
es la diferencia de energía entre ambos niveles.
Se puede demostrar que este conjunto de hipótesis corresponde a la
hipótesis de que los electrones estables orbitando un átomo están
14
descritos por funciones de onda estacionarias. Un modelo atómico es una
representación que describe las partes que tiene un átomo y como están
dispuestas para formar un todo. Basándose en la constante de Planck
{\displaystyle E=h\nu \,} E=h\nu \, consiguió cuantizar las órbitas
observando las líneas del espectro.
15
l = 2 se denominarían d o diffuse.
l = 3 se denominarían f o fundamental.
Para hacer coincidir las frecuencias calculadas con las experimentales,
Sommerfeld postuló que el núcleo del átomo no permanece inmóvil, sino
que tanto el núcleo como el electrón se mueven alrededor del centro de
masas del sistema, que estará situado muy próximo al núcleo al tener este
una masa varios miles de veces superior a la masa del electrón.
Para explicar el desdoblamiento de las líneas espectrales, observado al
emplear espectroscopios de mejor calidad, Sommerfeld supuso que las
órbitas del electrón pueden ser circulares y elípticas. Introdujo el número
cuántico secundario o azimutal, en la actualidad llamado l, que tiene los
valores 0, 1, 2,…(n-1), e indica el momento angular del electrón en la
órbita en unidades de {\displaystyle {\frac {h}{2\pi }}} {\displaystyle {\frac
{h}{2\pi }}}, determinando los subniveles de energía en cada nivel cuántico
y la excentricidad de la órbita.
En 1916, Arnold Sommerfeld, con la ayuda de la teoría de la relatividad de
Albert Einstein, hizo las siguientes modificaciones al modelo de Bohr:
16
Modelo atómico de Schrödinger
El modelo atómico de Schrödinger12 (1926) es un modelo cuántico no
relativista. En este modelo los electrones se contemplaban originalmente
como una onda estacionaria de materia cuya amplitud decaía rápidamente
al sobrepasar el radio atómico.
El modelo de Bohr funcionaba muy bien para el átomo de hidrógeno. En
los espectros realizados para otros átomos se observaba que electrones
de un mismo nivel energético tenían energías ligeramente diferentes. Esto
no tenía explicación en el modelo de Bohr, y sugería que se necesitaba
alguna corrección. La propuesta fue que dentro de un mismo nivel
energético existían subniveles. La forma concreta en que surgieron de
manera natural estos subniveles, fue incorporando órbitas elípticas y
correcciones relativistas. Así, en 1916, Arnold Sommerfeld modificó el
modelo atómico de Bohr, en el cual los electrones solo giraban en órbitas
circulares, al decir que también podían girar en órbitas elípticas más
complejas y calculó los efectos relativistas.
El modelo atómico de Schrödinger concebía originalmente los electrones
como ondas de materia. Así la ecuación se interpretaba como la ecuación
ondulatoria que describía la evolución en el tiempo y el espacio de dicha
onda material. Más tarde Max Born propuso una interpretación
probabilística de la función de onda de los electrones. Esa nueva
interpretación es compatible con los electrones concebidos como
partículas cuasipuntuales cuya probabilidad de presencia en una
determinada región viene dada por la integral del cuadrado de la función
de onda en una región. Es decir, en la interpretación posterior del modelo,
este era modelo probabilista que permitía hacer predicciones empíricas,
17
pero en el que la posición y la cantidad de movimiento no pueden
conocerse simultáneamente, por el principio de incertidumbre. Así mismo
el resultado de ciertas mediciones no están determinadas por el modelo,
sino solo el conjunto de resultados posibles y su distribución de
probabilidad.
El modelo atómico de Schrödinger predice adecuadamente las líneas de
emisión espectrales, tanto de átomos neutros como de átomos ionizados.
El modelo también predice la modificación de los niveles energéticos
cuando existe un campo magnético o eléctrico (efecto Zeeman y efecto
Stark respectivamente). Además, con ciertas modificaciones
semiheurísticas el modelo explica el enlace químico y la estabilidad de las
moléculas. Cuando se necesita una alta precisión en los niveles
energéticos puede emplearse un modelo similar al de Schrödinger, pero
donde el electrón es descrito mediante la ecuación relativista de Dirac en
lugar de mediante la ecuación de Schrödinger. En el modelo de Dirac, se
toma en cuenta la contribución del espín del electrón.
18
electrodinámica cuántica y es un efecto de la energía del punto cero
del vacío cuántico.
Cuando se considera un átomo de hidrógeno los dos primeros aspectos
pueden corregirse añadiendo términos correctivos al hamiltoniano atómico.
19
Efecto piel.
El efecto pelicular es un efecto eléctrico muy curioso. Se da únicamente en
corriente alterna, y consiste en que la densidad de corriente se da
principalmente por el exterior del conductor.
En un conductor, la circulación de una corriente se distribuye en la
superficie de su sección de acuerdo a la frecuencia. En corriente continua
o alterna de muy baja frecuencia, toda la sección conduce. A medida que
la frecuencia aumenta, la circulación sólo se produce por las zonas
exteriores del conductor. A frecuencias muy altas, sólo conduce la
superficie exterior. Esto se conoce como “efecto Skin” (efecto Piel)
Este fenómeno hace que la resistencia efectiva o de corriente alterna sea
mayor que la resistencia óhmica o de corriente continua. Este efecto es el
causante de la variación de la resistencia eléctrica, en corriente alterna, de
un conductor debido a la variación de la frecuencia de la corriente eléctrica
que circula por éste.
El efecto pelicular (o piel) es un fenómeno electromagnético debido a la
dificultad de los campos electromagnéticos de penetrar en los materiales
conductores. Se demuestra directamente de las ecuaciones de Maxwell
(que son la mejor forma de describir estos fenómenos de forma clásica), y
se confirma para diámetros del conductor superiores a 3 veces la distancia
de la superficie a la que circula la carga para una misma frecuencia. En
cuanto pueda voy a consultar ése artículo para ver la demostración, pero lo
que sé hasta ahora es que sólo depende de la frecuencia, es decir, a
mayor frecuencia, más cerca de la superficie circula la carga.
20
En corriente continua, la densidad de corriente es similar en todo el
conductor (figura a), pero en corriente alterna se observa que hay una
mayor densidad de corriente en la superficie que en el centro (figura b).
Este fenómeno se conoce como efecto pelicular, efecto skin o efecto
Kelvin. Hace que la resistencia efectiva o de corriente alterna sea mayor
que la resistencia óhmica o de corriente continua.
21
despreciables. Por eso el ACSR. El alma de acero no es para transmitir
corriente, es para mejorar las propiedades mecánicas del conductor al que
está expuesto.
22
ejemplo, para el cobre, la profundidad de piel es aproximadamente 0. 85
cm en 60 Hz y 0. 007 cm a 1Mhz, el flujo de electrones pierde la
profundidad en el centro y tiende a viajar por las orillas, se redujo
completamente el área transversal de conducción. Observando este
ejemplo de otra forma, el 63% del flujo de corriente de RF en el alambre de
cobre fluirá a una distancia de 0. 007 cm del borde exterior del cable.
Efecto resistivo.
Resistencia eléctrica es toda oposición que encuentra la corriente a su
paso por un circuito eléctrico cerrado, atenuando o frenando el libre flujo
de circulación de las cargas eléctricas o electrones. Cualquier dispositivo o
consumidor conectado a un circuito eléctrico representa en sí una carga,
resistencia u obstáculo para la circulación de la corriente eléctrica.
A.- Electrones fluyendo por un buen conductor eléctrico, que ofrece baja
resistencia. B.- Electrones fluyendo por un mal conductor. eléctrico, que
ofrece alta resistencia a su paso. En ese caso los electrones chocan unos
contra otros al no poder circular libremente y, como consecuencia, generan
calor.
Normalmente los electrones tratan de circular por el circuito eléctrico de
una forma más o menos organizada, de acuerdo con la resistencia que
encuentren a su paso. Mientras menor sea esa resistencia, mayor será el
orden existente en el micromundo de los electrones; pero cuando la
resistencia es elevada, comienzan a chocar unos con otros y a liberar
energía en forma de calor. Esa situación hace que siempre se eleve algo la
temperatura del conductor y que, además, adquiera valores más altos en
el punto donde los electrones encuentren una mayor resistencia a su paso.
23
Responsable del calentamiento del conductor y de caída de tensión a lo
largo del conductor. La resistencia depende del tipo de material del cual esté
hecho. Este efecto es dominante sobre los demás en redes de baja tensión,
debidos al calibre de los conductores que se emplean en dichos niveles de
tensión.
Una resistencia ideal es un elemento pasivo que disipa energía en forma de
calor según la ley de Joule. También establece una relación de
proporcionalidad entre la intensidad de corriente que la atraviesa y la tensión
medible entre sus extremos, relación conocida como ley de Ohm:
U(t) = R*i(t)
RESISTENCIA DE LA LINEA
𝜌𝑙
𝑅𝐷𝐶 =
𝐴
Donde,
𝑇2 + 𝑇0
𝜌2 = 𝜌1
𝑇1 + 𝑇0
Donde,
T2, T1 son las temperaturas en °C correspondientes a las
Resistividades 𝜌2 y 𝜌1 respectivamente.
25
INFLUENCIA DEL EFECTO SKIN EN LA RESISTENCIA
𝑅𝑇𝑂𝑇𝐴𝐿 = 𝑅𝐴𝐶 + ∆𝑅
Donde ∆𝑅 es una serie infinita.
𝜋 4 𝑓
∆𝑅 = 8𝜋 × 10−4 × 𝑓 [ − √10𝜋 × 10−4 × ℎ√ … ]
8 3 𝜌
Donde,
26
Para cálculos a 60 hz. una solución que se considera práctica es considerar
únicamente el primer término de la serie. Para este caso la corrección sería
un término constante que es independiente de la altura del conductor. En lo
sucesivo a este término constante de corrección por retorno por tierra se le
llamará Rn, y su valor será:
Ω
𝑅𝑛 = 0.0592
𝐾𝑚
27
Materiales conductores.
28
Materiales conductores aplicados en la ingeniería eléctrica.
Los materiales conductores son aquellos que ofrecen poca resistencia al
paso de la electricidad, por lo que se transforman en las mejores formas de
distribuir la energía en el espacio físico.
29
conductividad tiene que ver con las bandas de valencia y la formación de
una nube de electrones.
De acuerdo a la forma en la que se realiza y fundamenta la conducción, los
materiales de este tipo suelen clasificarse de la siguiente manera:
Conductores metálicos: Son los que tienen una conducción
electrónica, pues los portadores de las cargas son electrones libres.
Esto ocurre precisamente porque a este grupo pertenecen los
metales y las aleaciones.
|Metal |Conductividad (S/m( |
| |a temperatura ambiente |
|Plata |6,8 x 107 |
|Cobre |6,0 x 107 |
|Oro|4,3 x 107 |
|Aluminio |3,8 x 107 |
|Latón (70 % Cu – 30 % Zn) |1,6 x 107 |
|Acero simple |0,6 x 107 |
|Acero inoxidable |0,2 x 107|
Conductores electrolíticos: Son los que tienen una conducción de
tipo iónica, en donde las sustancias se disocian total o parcialmente
formando iones positivos o negativos, que son los portadores de
cargas. Aquí el paso de la corriente eléctrica se produce en
consonancia con un desplazamiento de materia y con una reacción
química. son sustancias que, al disolverse en agua, son capaces de
conducir la electricidad, ejemplos de estos son las sales, los ácidos y
las bases.
Algunos óxidos, al disolverse en agua, forman bases o ácidos y por lo
tanto conducen la corriente eléctrica.
Existen sustancias que no conducen la electricidad al disolverse en agua,
estas reciben el nombre de no electrolitos.
30
Esa es la diferencia entre un electrolito y un no electrolito, que, al
disolverse en agua, el primero produce iones en solución y el segundo no.
Cuando en una solución se ha formado un número suficiente de iones,
esta es capaz de conducir la corriente eléctrica.
Para determinar si una sustancia en solución es un electrolito o no
electrolito, se utiliza un sencillo aparato, constituido por un par de
electrodos conectados a un foco, una pila y un vaso de precipitados.
31