La hidrostática es la rama de la física que estudia los fluidos en

Transcripción

La hidrostática es la rama de la física que estudia los fluidos en
Física II
2007
Centro de Desarrollo
Educativo [CDE]
[Acuerdo No.
MSB120051404 de Fecha
15 de Marzo 2005]
[C.T. 14PBJ0076Z]
2
http://www.utea1.net
http://www.mxgo.net
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
SECRETARÍA DE EDUCACIÓN JALISCO
COORDINACIÓN DE EDUCACIÓN MEDIA SUPERIOR,
SUPERIOR Y TECNOLÓGICA
DIRECCIÓN GENERAL DE EDUCACIÓN MEDIA SUPERIOR
DIRECCIÓN DEL BACHILLERATO EN LA MODALIDAD INTENSIVA
SEMIESCOLARIZADA
FÍSICA II
DOCUMENTO BASE
Guadalajara, Jalisco
Febrero de 2008
3
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
SECRETARÍA DE EDUCACIÓN JALISCO
FISICA II
DIRECTORIO
SECRETARIO DE EDUCACIÓN JALISCO
LIC. MIGUEL ÁNGEL MARTÍNEZ ESPINOSA
COORDINADOR DE EDUCACIÓN MEDIA SUPERIOR,
SUPERIOR Y TECNOLÓGICA
LIC. EDUARDO DÍAZ BECERRA
DIRECCIÓN GENERAL DE EDUCACIÓN MEDIA SUPERIOR
MTRO. JOSÉ MANUEL BARCELÓ MORENO
DIRECCIÓN DEL BACHILLERATO EN LA MODALIDAD
INTENSIVA SEMIESCOLARIZADA
MTRA. DIMNA SILVIA GONZÁLEZ HERNÁNDEZ
Academia:
Porfirio Rafael Pérez Cisneros
Jacobo Aguilar Martínez
Luis Gil Coronado
4
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
UNIDAD I
1.1. Hidrostática
Es la rama de la hidráulica que estudia las presiones y fuerzas producidas por un líquido en
reposo y sus condiciones de equilibrio.
Consideremos una porción de fluido en equilibrio de altura dy y de sección S(área), situada a una
distancia y del fondo del recipiente que se toma como origen.
Las fuerzas que mantienen en equilibrio a dicha porción de fluido son las siguientes:
 El peso, que es igual al producto de la densidad del fluido, por su volumen y por la
intensidad de la gravedad, ( Sdy)g.

pS

(p+dp)S
La condición de equilibrio establece que;
( Sdy)g+pS=(p+dp)S donde dp=− gdy
Integrando esta ecuación entre los límites que se indican en la figura
Si el punto B está en la superficie y el punto A está a una profundidad h. La ecuación anterior se
escribe de forma más cómoda. Ahora, p0 es la presión en la superficie del fluido (la presión
atmosférica) y p la presión a la profundidad h.
p=p0+ gh
1.1.1. Concepto e importancia del estudio de la hidráulica y su división
La hidráulica es una rama de la física y la ingeniería que se relaciona con el estudio de las
propiedades mecánicas de los fluidos. Y se divide en hidrostática e hidrodinámica.
Hidrostática es la parte de la Física que estudia a los fluidos en reposo. Se consideran fluidos
tanto a los líquidos como a los gases, ya que un fluido es cualquier sustancia capaz de fluir.
5
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La hidrodinámica es la parte de la física que estudia el movimiento de los fluidos. Este movimiento
está definido por un campo vectorial de velocidades correspondientes a las partículas del fluido y
de un campo escalar de presiones, correspondientes a los distintos puntos del mismo. Existen
diversos tipos de fluidos:
1.1.2. Características de los líquidos
Viscosidad
Los líquidos presentan mucha mayor tendencia al flujo y tienen coeficientes de viscosidad mucho
más altos. Los coeficientes de viscosidad de los líquidos disminuyen con la temperatura. En los
líquidos la viscosidad aumenta si la presión se incremente. La mayoría de los métodos empleados
para la medición de la viscosidad de los líquidos se basa en las ecuaciones de Poiseuille o de
Stokes. La ecuación de Poiseuille para el coeficiente de viscosidad de líquidos es:
donde V es el volumen del liquido de viscosidad que fluye en el tiempo t a través de un tubo
capilar de radio r y la longitud L bajo una presión de P dinas por centímetro cuadrado. Se mide el
tiempo de flujo de los líquidos, y puesto que las presiones son proporcionales a las densidades de
los líquidos, se puede escribir como:
Las cantidades t1 y t2 se miden más adecuadamente con un viscosímetro de Ostwald. Una
cantidad definida de liquido se introduce en el viscosímetro sumergido en un termostato y luego se
hace pasar por succión al bulbo B hasta que el nivel del liquido este sobre una marca a. Se deja
escurrir el liquido el tiempo necesario para que su nivel descienda hasta una marca b y se mide
con un cronometro. El viscosímetro se limpia, luego se añade el líquido de referencia y se repite la
operación. Con este procedimiento se obtienen t1 y t2 y la viscosidad del líquido se calcula con la
ecuación anterior.
Tensión superficial
En un líquido, cada molécula se desplaza siempre bajo influencia de sus moléculas vecinas. Una
molécula cerca del centro del líquido, experimenta el efecto de que sus vecinas la atraen casi en
la misma magnitud en todas direcciones. Sin embargo, una molécula en la superficie del líquido no
esta completamente rodeado por otras y, como resultado, solo experimenta la atracción de
aquellas moléculas que están por abajo y a los lados. Por lo tanto la tensión superficial actúa en
un líquido perpendicular a cualquier línea de 1cm de longitud en la superficie del mismo. Para la
tensión superficial tenemos lo siguiente:
Donde:





r = Radio del tubo capilar.
h = Altura medida desde el nivel del líquido en el tubo de ensaye, hasta el nivel del líquido
en el tubo capilar.
g = Aceleración de la gravedad.
 = Angulo de contacto en el líquido con las paredes del tubo capilar.
 = Tensión superficial.
6
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Para los líquidos que mojan el vidrio, su ángulo de contacto se supone a 0°, y sacando el (cos 0°)
es 1, por lo que la ecuación anterior se reduce a:
Donde:

 = Es la diferencia de densidades que existe en el líquido y su vapor.
Tensión superficial de los líquidos a 20 °C
Líquido
 (10-3 N/m)
Aceite de oliva
33.06
Agua
72.8
Alcohol etílico
22.8
Benceno
29.0
Glicerina
59.4
Petróleo
26.0
Fuente: Manual de Física, Koshkin N. I. , Shirkévich M. G.. Editorial Mir (1975).
Fuerzas de cohesión
Son las fuerzas existentes entre las moléculas de una determinada sustancia. En la siguiente
figura podrás ver cómo pueden medirse estas fuerzas.
Toda la materia está compuesta por átomos o moléculas iguales o diferentes. Las fuerzas que
mantienen unidas entre sí las moléculas y los átomos son de tipo electrostático originadas por la
carga eléctrica que poseen. Estas fuerzas de atracción disminuyen mucho con la distancia (Ley de
Coulomb).
Adherencia
Se denomina a la fuerza de atracción entre las moléculas de distinta sustancia. En un fluido cada
molécula interacciona con las que le rodean. El radio de acción de las fuerzas moleculares es
relativamente pequeño, abarca a las moléculas vecinas más cercanas. Vamos a determinar de
7
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
forma cualitativa, la resultante de las fuerzas de interacción sobre una molécula que se encuentra
en



A, el interior del líquido
B, en las proximidades de la superficie
C, en la superficie
Consideremos una molécula (en color rojo) en el seno de un líquido en equilibrio, alejada de la
superficie libre tal como la A. Por simetría, la resultante de todas las fuerzas atractivas
procedentes de las moléculas (en color azul) que la rodean, será nula.
En cambio, si la molécula se encuentra en B, por existir en valor medio menos moléculas arriba
que abajo, la molécula en cuestión estará sometida a una fuerza resultante dirigida hacia el
interior del líquido. Si la molécula se encuentra en C, la resultante de las fuerzas de interacción es
mayor que en el caso B.
Las fuerzas de interacción, hacen que las moléculas situadas en las proximidades de la superficie
libre de un fluido experimenten una fuerza dirigida hacia el interior del líquido. Como todo sistema
mecánico tiende a adoptar espontáneamente el estado de más baja energía potencial, se
comprende que los líquidos tengan tendencia a presentar al exterior la superficie más pequeña
posible.
Capilaridad
Es la cualidad que posee una sustancia para absorber un líquido. Sucede cuando las fuerzas
intermoleculares adhesivas entre el líquido y el sólido son mayores que las fuerzas
intermoleculares cohesivas del líquido. Esto causa que el menisco tenga una forma cóncava
cuando el líquido está en contacto con una superficie vertical. En el caso del tubo delgado, éste
succiona un líquido incluso en contra de la fuerza de gravedad. Este es el mismo efecto que causa
que los materiales porosos absorban líquidos.
Efectos
de
Un
aparato
capilaridad es el tubo
8
capilaridad
comúnmente empleado para demostrar la
capilar; cuando la parte inferior de un tubo de
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
vidrio se coloca verticalmente, en contacto con un líquido como el agua, se forma un menisco
cóncavo; la tensión superficial succiona la columna líquida hacia arriba hasta que el peso del
líquido sea suficiente para que la fuerza de la gravedad se equilibre con las fuerzas
intermoleculares.
El peso de la columna líquida es proporcional al cuadrado del diámetro del tubo, por lo que un
tubo angosto succionará el líquido más arriba que un tubo ancho. Así, un tubo de vidrio de 0,1 mm
de diámetro levantará una columna de agua de 30 cm. Cuanto más pequeño es el diámetro del
tubo capilar mayor será la presión capilar y la altura alcanzada. En capilares de 1 µm (micrómetro)
de radio con una presión de succión 1,5*103 hPa (hectopascal = hPa = 1,5 atm), corresponde a
una altura de columna de agua de 14 a 15 m.
Dos placas de vidrio que están separadas por una película de agua de 1 µm (micrómetro) de
espesor, se mantienen unidas por una presión de succión de 1,5 atm. Por ello se rompen los
portaobjetos humedecidos al intentar separarlos.
Entre algunos materiales, como el mercurio y el vidrio, las fuerzas intermoleculares del líquido
exceden a las existentes entre el líquido y el sólido, por lo que se forma un menisco convexo y la
capilaridad trabaja en sentido inverso. Las plantas, por capilaridad, succionar agua del terreno,
aunque las plantas más grandes requieren de la transpiración para desplazar la cantidad
necesaria de agua hasta las hojas, o allí donde se precise.
La ley de Jurin define la altura que se alcanza cuando se equilibra el peso de la columna de
líquido y la fuerza de ascensión por capilaridad.
La altura h en metros de una columna líquida está dada por:
h
2T cos 
gr
donde:
T = tensión superficial interfacial (N/m)
θ = ángulo de contacto
ρ = densidad del líquido (kg/m³)
g = aceleración debido a la gravedad (m/s²)
r = radio del tubo (m)
Para un tubo de vidrio en el aire a nivel del mar y lleno de agua,
T = 0,0728 N/m a 20 °C
θ = 20°
ρ = 1000 kg/m³
g = 9,80665 m/s²
entonces la altura de la columna está dada por:
h
1.4 x10 5 m 2
r
1.1.3. Peso específico y densidad
Peso específico
Es el peso por unidad de volumen de una sustancia, sus dimensiones en el sistema internacional
son gf/cm3
Densidad
Aunque toda la materia posee masa y volumen, la misma masa de sustancias diferentes tienen
ocupan distintos volúmenes, así notamos que el hierro o el hormigón son pesados, mientras que
9
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
la misma cantidad de goma de borrar o plástico son ligeras. La propiedad que nos permite medir
la ligereza o pesadez de una sustancia recibe el nombre de densidad. Cuanto mayor sea la
densidad de un cuerpo, más pesado nos parecerá.
La densidad se define como el cociente entre la masa de un cuerpo y el volumen que ocupa. Así,
como en el S.I. la masa se mide en kilogramos (kg) y el volumen en metros cúbicos (m3) la
densidad se medirá en kilogramos por metro cúbico (kg/m3). Esta unidad de medida, sin
embargo, es muy poco usada, ya que es demasiado pequeña. Para el agua, por ejemplo, como un
kilogramo ocupa un volumen de un litro, es decir, de 0,001 m3, la densidad será de:
La mayoría de las sustancias tienen densidades similares a las del agua por lo que, de usar esta
unidad, se estarían usando siempre números muy grandes. Para evitarlo, se suele emplear otra
unidad de medida el gramo por centímetro cúbico (g/cm3.), de esta forma la densidad del agua
será:
Las medidas de la densidad quedan, en su mayor parte, ahora mucho más pequeñas y fáciles de
usar. Además, para pasar de una unidad a otra basta con multiplicar o dividir por mil.
Densidad de líquidos a 4°C
La densidad
de un cuerpo está relacionada con su flotabilidad, una sustancia flotará sobre otra si su densidad
es menor. Por eso la madera flota sobre el agua y el plomo se hunde en ella, porque el plomo
posee mayor densidad que el agua mientras que la densidad de la madera es menor, pero ambas
sustancias se hundirán en la gasolina, de densidad más baja.
La densidad es una característica de cada sustancia. Nos vamos a referir a líquidos y sólidos
homogéneos. Su densidad, prácticamente, no cambia con la presión y la temperatura.
Matemáticamente se pueden hacer proyecciones en los cálculos de la densidad de líquidos se
puede calcular a partir de la siguiente ecuación en función de la temperatura, donde α,  y , son
constantes para cada líquido;
ds = ds + 10-3 α t + 10-6 t2 + 10-9  t3
Ejemplo1. Densidad del Acetona a 22 °C;
ds = 0.81248 + (10-3)(-1.1)(22 °C) + (10-6)(-0.858)(22 °C)2 + (10-9)(0)(22 °C)3
ds = 0.78786 g/ml
Ejemplo 2. Densidad del Benceno a 22 °C
ds = 0. 90005+ (10-3)(-1.0636)(22 °C) + (10-6)(-0.0376)(22 °C)2 +(10-9)(-2.213)(22 °C)3
ds = 0.87663 g/ml
Ejemplo2. Densidad del alcohol Etílico a 22 °C
10
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
ds = 0.8014 + (10-3)(-0.809)(22 °C) + (10-6)(-0.27)(22 °C)2 + (10-9)(0)(22 °C)3
ds = 0.78347 g/ml
1.1.4. Presión
El cociente entre la intensidad F de la fuerza aplicada perpendicularmente sobre una superficie
dada y el área S de dicha superficie se denomina presión:
La presión representa la intensidad de la fuerza que se ejerce sobre cada unidad de área de la
superficie considerada. Cuanto mayor sea la fuerza que actúa sobre una superficie dada, mayor
será la presión, y cuanto menor sea la superficie para una fuerza dada, mayor será entonces la
presión resultante.
El concepto de presión es muy general y por ello puede emplearse siempre que exista una fuerza
actuando sobre una superficie. Sin embargo, su empleo resulta especialmente útil cuando el
cuerpo o sistema sobre el que se ejercen las fuerzas es deformable. Los fluidos no tienen forma
propia y constituyen el principal ejemplo de aquellos casos en los que es más adecuado utilizar el
concepto de presión que el de fuerza.
Cuando un fluido está contenido en un recipiente, ejerce una fuerza sobre sus paredes y, por
tanto, puede hablarse también de presión. Si el fluido está en equilibrio las fuerzas sobre las
paredes son perpendiculares a cada porción de superficie del recipiente, ya que de no serlo
existirían componentes paralelas que provocarían el desplazamiento de la masa de fluido en
contra de la hipótesis de equilibrio. La orientación de la superficie determina la dirección de la
fuerza de presión, por lo que el cociente de ambas, que es precisamente la presión, resulta
independiente de la dirección; se trata entonces de una magnitud escalar.
En el SI la unidad de presión es el pascal, se representa por Pa y se define como la presión
correspondiente a una fuerza de un newton de intensidad actuando perpendicularmente sobre una
superficie plana de un metro cuadrado. 1 Pa equivale, por tanto, a 1 N/m2.
La atmósfera (atm) se define como la presión que a 0 ºC ejercería el peso de una columna de
mercurio de 76 cm de altura y 1 cm2 de sección sobre su base.
Es posible calcular su equivalencia en N/m2 sabiendo que la densidad del mercurio es igual a 13,6
· 103 kg/m3 y recurriendo a las siguientes relaciones entre magnitudes:
Peso (N) = masa (kg) · 9,8 m/s2
Masa = volumen · densidad, como el volumen del cilindro que forma la columna es igual a la
superficie de la base por la altura, se tendrá:
es decir: 1 atm = 1,013 · 105 Pa.
Presión hidrostática
Dado un fluido en equilibrio, donde todos sus puntos tienen idénticos valores de temperatura y
otras propiedades, el valor de la presión que ejerce el peso del fluido sobre una superficie dada
es:
P  gh
siendo p la presión hidrostática, r la densidad del fluido, g la aceleración de la gravedad y h la
altura de la superficie del fluido. Es decir, la presión hidrostática es independiente del líquido, y
sólo es función de la altura que se considere.
Por tanto, la diferencia de presión entre dos puntos A y B cualesquiera del fluido viene dada por la
expresión:
11
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
PA  PB  g (hA  hB )  gh
La diferencia de presión hidrostática entre dos puntos de un fluido sólo depende de la diferencia
de altura que existe entre ellos.
Presión atmosférica
En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y
rebotando caóticamente. Nuestro planeta está envuelto por una capa de gases a la que llamamos
atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de
aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la
Tierra restringe su expansión. En los lugares más profundos de la atmósfera, es decir a nivel del
mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece
a unos 40 Km. de altura. La capa baja, la troposfera, presenta las condiciones necesarias para la
vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del
aire total de la atmósfera.
La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de
superficie pero, sin embargo, no lo notamos (motivo por el cual, por miles de años, los hombres
consideraron al aire sin peso). La presión que la columna de aire de casi 40 km de altura (la
atmósfera) ejerce sobre la superficie libre del mercurio es igual a la que ejerce la columna de 76
cm de mercurio (pa) , entonces:
Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa
Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También
se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb =
0,75 Torr). 1 atm = 760 mm Hg = 760 Torr.
La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele
tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y
una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama
barómetro.
Presión Absoluta
Es la presión de un fluido medido con referencia al vacío perfecto o cero absoluto. La presión
absoluta es cero únicamente cuando no existe choque entre las moléculas lo que indica que la
proporción de moléculas en estado gaseoso o la velocidad molecular es muy pequeña. Ester
termino se creo debido a que la presión atmosférica varia con la altitud y muchas veces los
diseños se hacen en otros países a diferentes altitudes sobre el nivel del mar por lo que un
termino absoluto unifica criterios.
La presión absoluta es:
Presión Absoluta = Presión Manométrica + Presión Atmosférica
Presión Manométrica
Son normalmente las presiones superiores a la atmosférica, que se mide por medio de un
elemento que se define la diferencia entre la presión que es desconocida y la presión atmosférica
que existe, si el valor absoluto de la presión es constante y la presión atmosférica aumenta, la
12
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
presión manométrica disminuye; esta diferencia generalmente es pequeña mientras que en las
mediciones de presiones superiores, dicha diferencia es insignificante, es evidente que el valor
absoluto de la presión puede abstenerse adicionando el valor real de la presión atmosférica a la
lectura del manómetro.
1.1.5. Principio de Pascal
En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y matemático
francés Blaise Pascal (1623-1662) que se resume en la frase: «el incremento de presión aplicado
a una superficie de un fluido incompresible (líquido), contenido en un recipiente indeformable, se
transmite con el mismo valor a cada una de las partes del mismo».
El principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en diferentes
lugares y provista de un émbolo. Al llenar la esfera con agua y ejercer presión sobre ella mediante
el embolo, se observa que el agua sale por todos los agujeros con la misma presión.
El principio de Pascal puede ser interpretado como una consecuencia de la ecuación fundamental
de la hidrostática y del carácter incompresible de los líquidos. En esta clase de fluidos la densidad
es constante, de modo que de acuerdo con la ecuación P  P0  gh si se aumenta la presión en
la superficie libre, por ejemplo, la presión en el fondo ha de aumentar en la misma medida, ya que
gh no varía al no hacerlo h.
La prensa hidráulica constituye la aplicación fundamental del principio de Pascal y también un
dispositivo que permite entender mejor su significado. Consiste, en esencia, en dos cilindros de
diferente sección comunicados entre sí, y cuyo interior está completamente lleno de un líquido que
puede ser agua o aceite. Dos émbolos de secciones diferentes se ajustan, respectivamente, en
cada uno de los dos cilindros, de modo que estén en contacto con el líquido. Cuando sobre el
émbolo de menor sección S1 se ejerce una fuerza F1 la presión p1 que se origina en el líquido en
contacto con él se transmite íntegramente y de forma instantánea a todo el resto del líquido; por
tanto, será igual a la presión p2 que ejerce el líquido sobre el émbolo de mayor sección S2, es
decir:
p1 = p2
y por tanto:
Si la sección S2 es veinte veces mayor que la S1, la fuerza F1 aplicada sobre el émbolo pequeño
se ve multiplicada por veinte en el émbolo grande.
1.1.6. Principio de Arquimedes
El principio de Arquímedes es un principio físico que afirma que un cuerpo total o parcialmente
sumergido en un fluido estático (e incompresible), será empujado con una fuerza igual al peso del
volumen de fluido desplazado por dicho objeto. De este modo cuando un cuerpo está sumergido
en el fluido se genera un empuje hidrostático resultante de las presiones sobre la superficie del
cuerpo que actúa siempre hacia arriba a través del centro de gravedad del cuerpo y de valor igual
al peso del fluido desplazado. Esta fuerza se mide en Newtons (en el SI) y su ecuación se
describe como:
Fy  E  mg  (  f   s )Vg
Donde ρf y ρs son respectivamente la densidad del fluido y del sólido sumergido; V el volumen del
cuerpo sumergido; y g la aceleración de la gravedad.
.
1.2.
Hidrodinámica
13
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
1.2.1. Concepto de hidrodinámica
La hidrodinámica es la parte de la física que estudia el movimiento de los fluidos. Este movimiento
está definido por un campo vectorial de velocidades correspondientes a las partículas del fluido y
de un campo escalar de presiones, correspondientes a los distintos puntos del mismo.
Existen diversos tipos de fluidos:
Flujo de fluidos a régimen permanente o intermitente: aquí se tiene en cuenta la velocidad de
las partículas del fluido, ya sea esta cte. o no con respecto al tiempo
Flujo de fluidos compresible o incompresible: se tiene en cuenta a la densidad, de forma que
los gases son fácilmente compresibles, al contrario que los líquidos cuya densidad es
prácticamente cte. en el tiempo.
Flujo de fluidos viscoso o no viscoso: el viscoso es aquel que no fluye con facilidad teniendo
una gran Viscosidad cero significa que el fluido fluye con total facilidad sin que haya disipación de
energía. Los fluidos no viscosos incompresibles se denominan fluidos ideales.
Flujo de fluidos rotaciones o irrotacional: es rotaciones cuando la partícula o parte del fluido
presenta movimientos de rotación y traslación. Irrotacional es cuando el fluido no cumple las
características anteriores.
Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja
velocidad a través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf
Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones
matemáticas se debió a Navier e, independientemente, a Sir George Gabriel Stokes, quien
perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las
conoce como ecuaciones de Navier-Stokes, y son tan complejas que sólo se pueden aplicar a
flujos sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta.
El teorema de Bernoulli no se puede aplicar aquí, porque parte de la energía mecánica total se
disipa como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo
de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta
caída de presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron
que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión
era más bien proporcional al cuadrado de la velocidad.
Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso
en tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo
laminar), y los resultados experimentales coinciden con las predicciones analíticas. A velocidades
más elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una
forma que ni siquiera en la actualidad se puede predecir completamente.
Reynolds también determinó que la transición del flujo laminar al turbulento era función de un
único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de
Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el
diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través
de la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El
concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones
calculadas, y su análisis depende de una combinación de datos experimentales y modelos
matemáticos; gran parte de la investigación moderna en mecánica de fluidos está dedicada a una
mejor formulación de la turbulencia. Puede observarse la transición del flujo laminar al turbulento y
la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo.
Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de
cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados.
Ecuación de Bernoulli para flujo real (con fricción)
14
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0
H0 = perdida de energía por rozamiento desde 1 hasta 2.
1.2.2. Gasto y ecuación de continuidad
Gasto es la cantidad de fluido que pasa por determinado elemento en la unidad de tiempo.
Normalmente se identifica con el flujo volumétrico o volumen que pasa por una área dada en la
unidad de tiempo. Menos frecuentemente, se identifica con el flujo másico o masa que pasa por
una área dada en la unidad de tiempo.
La medición del caudal o gasto de agua que pasa por la sección transversal de un conducto (río,
riachuelo, canal, tubería) de agua, se conoce como aforo o medición de caudales. Este caudal
depende directamente del área de la sección transversal a la corriente y de la velocidad media del
agua.
La fórmula que representa este concepto es la siguiente:
Q=AxV
Donde:
Q = Caudal o Gasto.
A = Área de la sección transversal.
V = Velocidad media del agua en el punto.
La ecuación de continuidad es una ecuación de conservación de la masa. Su forma diferencial
es:
donde ρ es la densidad, t el tiempo y
la velocidad del fluido.
1.2.3. Teorema de Bernoulli y sus aplicaciones
Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de
un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de
corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la
dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las
partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de
la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión
disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo.
1) Ley de conservación de la masa en la dinámica de los fluidos:
A1.v1 = A2.v2 = constante.
Recordar que p = F/A y F = p.A
Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción).
15
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
P1 
v1
v
 h1  P2  2  h2
2g
2g
P = Presión por unidad de masa.
g=Constate gravitacional
h = Altura.
v2
= Energía cinética.
2
2.1 Diferencia entre calor y temperatura.
2.1.1. Concepto de temperatura y su medición.
La temperatura es una magnitud escalar que es una propiedad de todos los sistemas
termodinámicos en equilibrio térmico (o sea que no presentan intercambio de calor entre sus
partes).1 En la escala microscópica, la temperatura se define como el promedio de la energía de
los movimientos de una partícula individual por grado de libertad. Se refiere a las nociones
comunes de calor o frío, por lo general un objeto más "caliente" tendrá una temperatura mayor.
En el caso de un sólido, los movimientos en cuestión resultan ser las vibraciones de las partículas
en sus sitios dentro del sólido. En el caso de un gas ideal monoatómico se trata de los
movimientos traslacionales de sus partículas (para los gases multiatómicos los movimientos
rotacional y vibracional deben tomarse en cuenta también).
Multitud de propiedades fisicoquímicas de los materiales o las sustancias varían en función de la
temperatura a la que se encuentren, como por ejemplo su estado (gaseoso, líquido, sólido,
plasma...), su volumen, la solubilidad, la presión de vapor o la conductividad eléctrica. Así mismo
es uno de los factores que influyen en la velocidad a la que tienen lugar las reacciones químicas.
La temperatura se mide con termómetros, los cuales pueden ser calibrados de acuerdo a una
multitud de escalas que dan lugar a las unidades de medición de la temperatura. En el Sistema
Internacional de Unidades, la unidad de temperatura es el kelvin. Sin embargo, fuera del ámbito
científico el uso de otras escalas de temperatura es común el uso de la escala Celsius (o
centígrada), y, en los países anglosajones, la escala Fahrenheit. También existe la escala Rankine
(°R) que establece su punto de referencia en el mismo punto de la escala Kelvin, es la escala
utilizada en el Sistema Inglés Absoluto. Una diferencia de temperatura de un kelvin equivale a una
diferencia de un grado centígrado.
Un termómetro debe alcanzar el equilibrio térmico antes de que su medición sea correcta.
La temperatura es una propiedad física que ser refiere a las nociones comunes de frío o calor, sin
embargo su significado formal en termodinámica es más complejo, a menudo el calor o el frío
percibido por las personas tiene más que ver con la sensación térmica (ver más abajo), que con la
temperatura real. Fundamentalmente, la temperatura es una propiedad que poseen los sistemas
físicos a nivel macroscópico, la cual tiene una causa a nivel microscópico, que es la energía
promedio por partícula.
Al contrario de otras cantidades termodinámicas como el calor o la entropía, cuyas definiciones
microscópicas son válidas muy lejos del equilibrio térmico, la temperatura sólo puede ser medida
en el equilibrio, precisamente porque se define como un promedio.
A medida que un sistema recibe calor, su temperatura se incrementa, e igualmente, a medida que
pierde calor, su temperatura disminuye. Cuando no existe diferencia de temperatura entre dos
sistemas, no habrá transferencia de calor entre ellos. Y cuando exista una diferencia de
temperaturas, el calor tenderá a moverse del sistema con mayor temperatura al sistema con
menor temperatura, hasta que se alcance el equilibrio térmico. Esta transferencia de calor puede
darse a través de la conducción, convección o de la radiación o a través de combinaciones de
ellas.
16
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La temperatura está relacionada con la energía interna y con la entalpía de un sistema: a mayor
temperatura mayores serán la energía interna y la entalpía del sistema.
La temperatura es una propiedad intensiva, es decir que no depende del tamaño del sistema, sino
que es una propiedad que le es inherente, ni en la cantidad de material de éste.
Ley cero de la Termodinámica
Antes de dar una definición formal de temperatura, es necesario entender el concepto de equilibrio
térmico. Si dos partes de un sistema entran en contacto térmico es probable que ocurran cambios
en las propiedades de ambas. Estos cambios se deben a la transferencia de calor entre las partes.
Para que un sistema esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio
de calor entre sus partes, además ninguna de las propiedades que dependen de la temperatura
debe variar.
Una definición de temperatura se puede obtener de la Ley cero de la termodinámica, que
establece que si dos sistemas A y B están en equilibrio térmico al mismo tiempo con un tercer
sistema C entonces los sistemas A y B estarán en equilibrio térmico. Este es un hecho empírico
más que un resultado teórico. Ya que tanto los sistemas A, B, y C están todos en equilibrio
térmico, es razonable decir que comparten un valor común de alguna propiedad física. Llamamos
a esta propiedad temperatura.
2.1.2. Concepto de calor y sus unidades de medida
Calor
En física, el calor es una forma de energía asociada al movimiento de los átomos, moléculas y
otras partículas que forman la materia. El calor puede ser generado por reacciones químicas
(como en la combustión), nucleares (como en la fusión nuclear de los átomos de hidrógeno que
tienen lugar en el interior del Sol), disipación electromagnética (como en los hornos de
microondas) o por disipación mecánica (fricción). Su concepto está ligado al Principio Cero de la
Termodinámica, según el cual dos cuerpos en contacto intercambian energía hasta que su
temperatura se equilibre. El calor puede ser transferido entre objetos por diferentes mecanismos,
entre los que cabe reseñar la radiación, la conducción y la convección, aunque en la mayoría de
los procesos reales todos los mecanismos anteriores se encuentran presentes en mayor o menor
grado.
El calor que puede intercambiar un cuerpo con su entorno depende del tipo de transformación que
se efectúe sobre ese cuerpo y por tanto depende del camino. Los cuerpos no tienen calor, sino
energía interna. El calor es la transferencia de parte de dicha energía interna (energía térmica) de
un sistema a otro, con la condición de que estén a diferente temperatura. El científico en 1905
escoces Lord Ewan D.Mcgregor descubrio la constante del calor especifico en la ecuación de Q =
m c (1cal/gºc) delta tº lo cual explica la utiliza con la escala Mcgregor descubierta en 1904 por su
esposa Lady Emily Mcgregor ( 0ºC son 451ºm y 100 ºc son 4.51 ºm)
Historia
Hasta el siglo XIX se explicaba el efecto del calor en la variación de la temperatura de un cuerpo
por medio de un fluido invisible llamado calórico. Este se producía cuando algo se quemaba y,
además, que podía pasar de un cuerpo a otro. La teoría del calórico afirmaba que una sustancia
con mayor temperatura que otra, necesariamente, poseía mayor cantidad de calórico.
Benjamin Thompson y James Prescott Joule establecieron que el trabajo podía convertirse en
calor o en un incremento de la energía térmica determinando que, simplemente, era otra forma de
la energía.
El calor es una energía de nivel bajo puesto que el trabajo se puede transformar íntegramente en
calor, pero no al contrario, (Segundo principio de la termodinámica).
17
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Flujo calorífico
El flujo calorífico se define como la cantidad de calor que se transfiere a través de una unidad de
área por unidad de tiempo. La ley de conducción del calor, determina que el tiempo que tarda un
flujo de calor a través de una superficie es también proporcional a la gradiente de temperatura.
El calor siempre se transfiere entre 2 cuerpos de diferentes temperaturas y el flujo de calor
siempre ocurre desde el cuerpo de mayor temperatura hacia el cuerpo de menor temperatura,
ocurriendo la transferencia de calor hasta que ambos cuerpos se encuentren en equilibrio térmico,
vale decir, a la misma temperatura.
Unidades de medida
Tradicionalmente, la cantidad de energía térmica intercambiada se mide en calorías, que es la
cantidad de energía que hay que suministrar a un gramo de agua para elevar su temperatura de
14.5 a 15.5 grados celsius. El múltiplo más utilizado es la kilocaloría (kcal):
De aquí se puede deducir el concepto calor específico de una sustancia, que se define como la
energía necesaria para elevar la temperatura de un gramo de dicha sustancia un grado celsius, o
bien el concepto capacidad calorífica, análogo al anterior pero para una masa de un mol de
sustancia (en este caso es necesario conocer la estructura química de la misma).
Joule, tras múltiples experimentaciones en las que el movimiento de unas palas, impulsadas.por
un juego de pesas, se movían en el interior de un recipiente con agua, estableció el equivalente
mecánico del calor, determinando el incremento de temperatura que se producía en el fluido como
consecuencia de los rozamientos producidos por la agitación de las palas:
El joule (J) es la unidad de energía en el Sistema Internacional de Unidades, (S.I.).
El BTU, (o unidad térmica británica) es una medida para el calor muy usada en Estados Unidos y
en muchos otros países de América. Se define como la cantidad de calor que se debe agregar a
una libra de agua para aumentar su temperatura en un grado Fahrenheit, y equivale a 252
calorías.
Calor específico de las sustancias.
Calor Específico
En la vida cotidiana se puede observar que, si se le entrega calor a dos cuerpos de la misma
masa y la misma temperatura inicial, la temperatura final será distinta. Este factor que es
característico de cada sistema, depende de la naturaleza del cuerpo, se llama calor específico,
denotado por c y se define como la cantidad de calor que se le debe entregar a 1 gramo de
sustancia para aumentar su temperatura en 1 grado Celsius. Matemáticamente, la definición de
calor específico se expresa como:
Las unidades de calor específico son:
[c] =
[c] =
18
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
De esta forma, y recordando la definición de caloría, se tiene que el calor específico del agua es
aproximadamente:
= 1,000
Calor Específico Molar
El calor específico de una sustancia es un índice importante de su constitución molecular interna,
y a menudo da información valiosa de los detalles de su ordenación molecular y de las fuerzas
intermoleculares. En este sentido, con frecuencia es muy útil hablar de calor específico molar
denotado por cm, y definido como la cantidad de energía necesaria para elevar la temperatura de
un mol de una sustancia en 1 grado es decir, está definida por:
donde n indica el la cantidad de moles en la sustancia presente.
Capacidad Calórica
La capacidad calórica de una sustancia es una magnitud que indica la mayor o menor dificultad
que presenta dicha sustancia para experimentar cambios de temperatura bajo el suministro de
calor. Se denota por C y se define como:
C=
Dado que:
C = mc
De igual forma se puede definir la capacidad calórica molar como:
Cn = nc
donde n indica el número de moles presente en la sustancia.
Cambios de Fase
En la naturaleza existen tres estados usuales de la materia: sólido, líquido y gaseoso. Al aplicarle
calor a una sustancia, ésta puede cambiar de un estado a otro. A estos procesos se les conoce
como Cambios de Fase. Los posibles cambios de fase son:

de estado sólido a líquido, llamado fusión,

de estado líquido a sólido, llamado solidificación,

de estado líquido a gaseoso, llamado evaporación o vaporización,

de estado gaseoso a líquido, llamado condensación,

de estado sólido a gaseoso, llamado sublimación progresiva, y

de estado gaseoso a sólido, llamado sublimación regresiva.
Calor Latente
Un cuerpo sólido puede estar en equilibrio térmico con un líquido o un gas a cualquier
temperatura, o que un líquido y un gas pueden estar en equilibrio térmico entre sí, en una amplia
gama de temperaturas, ya que se trata de sustancias diferentes. Pero lo que es menos evidente
19 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
es que dos fases o estados de agregación, distintas de una misma sustancia, puedan estar en
equilibrio térmico entre sí en circunstancias apropiadas.
Un sistema que consiste en formas sólida y líquida de determinada sustancia, a una presión
constante dada, puede estar en equilibrio térmico, pero únicamente a una temperatura llamada
punto de fusión simbolizado a veces como tf. A esta temperatura, se necesita cierta cantidad de
calor para poder fundir cierta cantidad del material sólido, pero sin que haya un cambio
significativo en su temperatura. A esta cantidad de energía se le llama calor de fusión, calor
latente de fusión o entalpía de fusión, y varía según las diferentes sustancias. Se denota por L f. El
calor de fusión representa la energía necesaria para deshacer la fase sólida que está
estrechamente unida y convertirla en líquido. Para convertir líquido en sólido se necesita la misma
cantidad de energía, por ellos el calor de fusión representa la energía necesaria para cambiar del
estado sólido a líquido, y también para pasar del estado líquido a sólido. El calor de fusión se mide
en:
[Lf] =
De manera similar, un líquido y un vapor de una misma sustancia pueden estar en equilibrio
térmico a una temperatura llamada punto de ebullición simbolizado por te. El calor necesario para
evaporar una sustancia en estado líquido ( o condensar una sustancia en estado de vapor ) se
llama calor de ebullición o calor latente de ebullición o entalpía de ebullición, y se mide en
las mismas unidades que el calor latente de fusión. Se denota por Le.
En la siguiente tabla se muestran algunos valores de los puntos de fusión y ebullición y entalpías
de algunas sustancias:
sustancias
tf [°C]
Lf [cal/g]
te [°C]
Le [cal/g]
H20
0,00
79,71
100,00
539,60
O2
-219,00
3,30
-182,90
50,90
Hg
-39,00
2,82
357,00
65,00
Cu
1083,00
42,00
2566,90
2.1.3. Mecanismos de transferencia de calor
Propagación del calor
El calor puede ser transmitido de distintas formas: por conducción, por convección o por radiación.
20

La conducción es el proceso que se produce por contacto térmico entre dos
cuerpos, debido al contacto directo entre las partículas individuales de los cuerpos
que están a diferentes temperaturas, lo que produce que las partículas lleguen al
equilibrio térmico.

La convección sólo se produce en fluidos, ya que implica movimiento de
volúmenes de fluido de regiones que están a una temperatura, a regiones que
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
están a otra temperatura. El transporte de calor está inseparablemente ligado al
movimiento del propio medio.

La radiación térmica es el proceso por el cual se transmite a través de ondas
electromagnéticas. Implica doble transformación de la energía para llegar al cuerpo
al que se va a propagar: primero de energía térmica a radiante y luego viceversa.
Observaciones:

La conducción pura se presenta sólo en materiales sólidos.

La convección siempre está acompañada de la conducción, debido al contacto
directo entre partículas de distinta temperatura en un líquido o gas en movimiento.

En el caso de la conducción, la temperatura de calentamiento depende del tipo de
material, de la sección del cuerpo y del largo del cuerpo. Esto explica porqué
algunos cuerpos se calientan más rápido que otros a pesar de tener exactamente la
misma forma, y que se les entregue la misma cantidad de calor. La conductividad
térmica de un cuerpo está dado por:
donde
Q es el calor entregado,
Δt es el intervalo de tiempo durante el cual se entrego calor,
A es la sección del cuerpo,
L es el largo, y
ΔT es el incremento en la temperatura.
Medida experimental del calor
Para determinar, de manera directa, el calor que se pone de manifiesto en un proceso de
laboratorio, se suele emplear un calorímetro. En esencia, se trata de un recipiente que contiene el
líquido en el que se va a estudiar la variación de energía por transferencia de calor y cuyas
paredes y tapa (supuestamente adiabáticas) deben aislarlo, al máximo, del exterior.
Un termo de paredes dobles de vidrio, cuyas superficies han sido previamente metalizadas por
deposición y que presenta un espacio vacío entre ellas es, en principio, un calorímetro aceptable
para una medida aproximada de la transferencia de calor que se manifiesta en una transformación
tan sencilla como esta. El termo se llama vaso Dewar y lleva el nombre del físico y químico
escocés James Dewar pionero en el estudio de las bajas temperaturas. En la tapa aislante suele
haber un par de orificios para introducir un termómetro, con el que se evaluaría el incremento (o
decremento) de la temperatura interior del líquido, y un agitador para tratar de alcanzar el
equilibrio térmico en su interior, lo más rápido posible, usando un sencillo mecanismo de
conveccón forzada.
No sólo el líquido contenido en el calorímetro absorbe calor, también lo absorbe las paredes del
calorímetro. Lo mismo sucede cuando pierde calor. Esta intervención del calorímetro en el
proceso se representa por su equivalente en agua. La presencia de esas paredes, no ideales,
equivale a añadir al líquido que contiene, los gramos de agua que asignamos a la influencia del
calorímetro y que llamamos "equivalente en agua". El "equivalente en agua" viene a ser "la
cantidad de agua que absorbe o desprende el mismo calor que el calorímetro".
Ley de Fourier
21
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Los mecanismos de transferencia de energía térmica son de tres tipos:

Conducción

Convección

Radiación
La transferencia de energía o calor entre dos cuerpos diferentes por conducción o convección
requieren el contacto directo de las moléculas de diferentes cuerpos, y se diferencian en que en la
primera no existe movimiento macroscópico de materia mientras que en la segunda sí hay
movimiento macroscópico. Para la materia ordinaria la conducción y la convección son los
mecanismos principales en la "materia fría", ya que la transferencia de energía térmica por
radiación sólo representa una parte minúscula de la energía transferida. La transferencia de
energía por radiación aumenta con la potencia cuarta de la temperatura (T4), siendo sólo una
parte importante a partir de temperaturas superiores a varios miles de Kelvin.
Ley de Fourier.
Es la forma de transmitir el calor en cuerpos sólidos; se calienta un cuerpo, las moléculas que
reciben directamente el calor aumentan su vibración y chocan con las que las rodean; estas a su
vez hacen lo mismo con sus vecinas hasta que todas las moléculas del cuerpo se agitan, por esta
razón, si el extremo de una varilla metálica se calienta con una flama, transcurre cierto tiempo
hasta que el calor llega al otro extremo. El calor no se transmite con la misma facilidad por todos
los cuerpos. Existen los denominados "buenos conductores del calor", que son aquellos
materiales que permiten el paso del calor a través de ellos. Los "malos conductores o aislantes"
son los que oponen mucha resistencia al paso del calor.
La conducción térmica está determinada por la ley de Fourier. Establece que la tasa de
transferencia de calor por conducción en una dirección dada, es proporcional al área normal a la
dirección del flujo de calor y al gradiente de temperatura en esa dirección.
donde Qx es la tasa de flujo de calor que atraviesa el área A en la dirección x, la constante de
proporcionalidad λ se llama conductividad térmica, T es la temperatura y t el tiempo.
Convección
La convección es una de las tres formas de transferencia de calor y se caracteriza porque se
produce por intermedio de un fluido (aire, agua) que transporta el calor entre zonas con diferentes
temperaturas. La convección se produce únicamente por medio de materiales fluidos. Éstos, al
calentarse, aumentan de volumen y, por lo tanto, disminuyen su densidad y ascienden
desplazando el fluido que se encuentra en la parte superior y que está a menor temperatura. Lo
que se llama convección en sí, es el transporte de calor por medio de las corrientes ascendente y
descendente del fluido.
22
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La transferencia de calor implica el transporte de calor en un volumen y la mezcla de elementos
macroscópicos de porciones calientes y frías de un gas o un líquido. Se incluye también el
intercambio de energía entre una superficie sólida y un fluido o por medio de una bomba, un
ventilador u otro dispositivo mecánico (convección mecánica o asistida).
En la transferencia de calor libre o natural en la cual un fluido es más caliente o más frío y en
contacto con una superficie sólida, causa una circulación debido a las diferencias de densidades
que resultan del gradiente de temperaturas en el fluido.
La transferencia de calor por convección se expresa con la Ley del Enfriamiento de Newton:
Donde h es el coeficiente de convección (ó coeficiente de película), As es el área del cuerpo en
contacto con el fluido, Ts es la temperatura en la superficie del cuerpo y
fluido lejos del cuerpo.
es la temperatura del
El ciclo hidrológico
También se denomina ciclo hidrológico al recorrido del agua en la Atmósfera por la capacidad que
tiene el agua de absorber calor y cederlo gracias a la capacidad que tiene de transformarse de un
estado físico a otro. A grandes rasgos, el ciclo hidrológico funciona de la siguiente manera: los
rayos solares calientan las aguas marinas y terrestres las cuales, al absorber ese calor, pasan del
estado líquido al gaseoso en forma de vapor de agua. El vapor asciende hasta cierta altura y al
hacerlo, pierde calor, se condensa y forma las nubes, que están constituidas por gotas de agua
muy pequeñas que se mantienen en suspensión a determinada altura. Cuando esta condensación
se acelera, por el propio ascenso de la masa de nubes (convección), se forman nubes de mayor
desarrollo vertical, con lo que las gotas aumentan de tamaño y forman las precipitaciones, que
pueden ser tanto sólidas (nieve, granizo) como acuosas (lluvia), dependiendo de la temperatura.
Estas precipitaciones pueden caer tanto en el mar como en las tierras emergidas. Por último, parte
del agua que se precipita en los continentes e islas pasa de nuevo a la atmósfera por evaporación
o produce corrientes fluviales que llevan de nuevo gran parte de las aguas terrestres a los mares y
océanos, con lo que se cierra el ciclo, el cual vuelve a repetirse.
Características de la convección
La convección en la atmósfera terrestre involucra la transferencia de enormes cantidades del calor
absorbido por el agua. Forma nubes de gran desarrollo vertical (por ejemplo, cúmulos congestus
y, sobre todo, cumulonimbos, que son los tipos de nubes que alcanzan mayor desarrollo vertical).
Estas nubes son las típicas portadoras de tormentas eléctricas y de grandes chaparrones. Al
alcanzar una altura muy grande (por ejemplo, unos 12 o 14 km y enfriarse violentamente, pueden
producir tormentas de granizo, ya que las gotas de lluvia se van congelando al ascender
violentamente y luego se precipitan al suelo ya en estado sólido. Pueden tener forma de un hongo
asimétrico de gran tamaño; y a veces suele formarse en este tipo de nubes, una estela que
semeja una especie de yunque (anvil's head, como se conoce en inglés).
Radiación térmica
Radiación térmica es la radiación emitida por un cuerpo como consecuencia de su temperatura y
depende además de una propiedad superficial denominada emitancia. Todo cuerpo emite
radiación hacia su entorno y absorbe radiación de éste.
La radiación infrarroja de un radiador hogareño común o de un calefactor eléctrico es un ejemplo
de radiación térmica, al igual que la luz emitida por una lámpara incandescente. La radiación
térmica se produce cuando el calor del movimiento de partículas cargadas dentro de los átomos
se convierte en radiación electromagnética.
La materia en un estado condensado (sólido o líquido) emite un espectro de radiación continuo. La
frecuencia de onda emitida por radiación térmica es una densidad de probabilidad que depende
solo de la temperatura.
23
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Todos los cuerpos negros a una temperatura determinada emiten radiación térmica con el mismo
espectro, independientemente de los detalles de su composición. Para el caso de un cuerpo
negro, la función de densidad de probabilidad de la frecuencia de onda emitida está dada por la
ley de radiación térmica de Planck, la ley de Wien da la frecuencia de radiación emitida más
probable y la ley de Stefan-Boltzmann da el total de energía emitida por unidad de tiempo y
superficie emisora. Esta energía depende de la cuarta potencia de la temperatura absoluta.
A temperatura ambiente, vemos los cuerpos por la luz que reflejan, dado que por sí mismos no
emiten luz. Si no se hace incidir luz sobre ellos, si no se los ilumina, no podemos verlos. A
temperaturas más altas, vemos los cuerpos porque por la luz que emiten, pues en este caso son
luminosos por sí mismos. Así, es posible determinar la temperatura de un cuerpo de acuerdo a su
color, pues un cuerpo que es capaz de emitir luz se encuentra a altas temperaturas.
La relación entre la temperatura de un cuerpo y el espectro de frecuencias de su radiación emitida
se utiliza en los pirómetros ópticos.
Ejemplos de radiación térmica

La aplicación de la Ley de Planck al Sol con una temperatura superficial de unos 6000 K
nos lleva a que el 99% de la radiación emitida está entre las longitudes de onda 0,15 μm
(micrómetros o micras) y 4 micras y su máximo, dado por la ley de Wien, ocurre a 0,475
micras. Como 1 Å = 10-10 m = 10-4 micras resulta que el Sol emite en un rango de 1500 Å
hasta 40000 Å y el máximo ocurre a 4750 Å. La luz visible se extiende desde 4000 Å a
7400 Å. La radiación ultravioleta u ondas cortas irían desde los 1500 Å a los 4000 Å y la
radiación infrarroja o radiación térmica u ondas largas desde las 0,74 micras a 4 micras.

La aplicación de la Ley de Planck a la Tierra con una temperatura superficial de unos 288
K (15ºC) nos lleva a que el 99% de la radiación emitida está entre las longitudes de onda 3
μm (micrómetros o micras) y 80 micras y su máximo ocurre a 10 micras. La estratosfera de
la Tierra con una temperatura entre 210 y 220 K radia entre 4 y 120 micras con un máximo
a las 14,5 micras. Por tanto la Tierra sólo emite radiación infrarroja o térmica.
2.1.4
Dilatación de los cuerpos, lineal, superficial y volumétrica.
Coeficiente de dilatación
Se denomina coeficiente de dilatación al cociente que mide el cambio relativo de longitud o
volumen que se produce cuando un cuerpo sólido o un fluido dentro de un recipiente experimenta
un cambio de temperatura experimentando una dilatación térmica.
De forma general, durante una transferencia de calor, la energía que está almacenada en los
enlaces intermoleculares entre 2 átomos cambia. Cuando la energía almacenada aumenta,
también lo hace la longitud de estos enlaces. Así, los sólidos normalmente* se expanden al
calentarse y se contraen al enfriarse; este comportamiento de respuesta ante la temperatura se
expresa mediante el coeficiente de dilatación térmica (unidades: ºC-1):

esto no ocurre para todos los sólidos: el ejemplo más típico que no lo cumple es el hielo.
Sólidos
Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado es el coeficiente de
dilatación lineal αL. Para una dimensión lineal cualquiera, se puede medir experimentalmente
comparando el valor de dicha magnitud antes y después de cierto cambio de temperatura, como:
24
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa
como la letra lambda .
Gases y líquidos
En gases y líquidos es más común usar el coeficiente de dilatación volumétrico αV, que viene dado
por la expresión:
Para sólidos, también puede medirse la dilatación térmica, aunque resulta menos importante en la
mayoría de aplicaciones técnicas. Para la mayoría de sólidos en las situaciones prácticas de
interés, el coeficiente de dilatación volumétrico resulta ser más o menos el triple del coeficiente de
dilatación lineal:
Aplicaciones
El conocimiento del coeficiente de dilatación (lineal) adquiere una gran importancia técnica en
muchas áreas del diseño industrial. Un buen ejemplo son los rieles del ferrocarril; estos van
soldados unos con otros, por lo que pueden llegar a tener una longitud de varios centenares de
metros. Si la temperatura aumenta mucho la vía férrea se desplazaría por efecto de la dilatación,
deformando completamente el trazado. Para evitar esto, se estira el carril artificialmente, tantos
centímetros como si fuese una dilatación natural y se corta el sobrante, para volver a soldarlo. A
este proceso se le conoce como neutralización de tensiones.
Para ello, cogeremos la temperatura media en la zona y le restaremos la que tengamos en ese
momento en el carril; el resultado lo multiplicaremos por el coeficiente de dilatación del acero y
por la longitud de la vía a neutralizar.
Valores del coeficiente de dilatación lineal
Algunos coeficientes de dilatación
Material
α ( ° C-1 )
Hormigón ~ 1.0 x 10-5
Hierro, acero 1.2 x 10-5
Plata
2.0 x 10-5
Oro
1.5 x 10-5
Invar
0.04 x 10-5
Plomo
3.0 x 10-5
Zinc
2.6 x 10-5
Aluminio
2.4 x 10-5
Latón
1.8 x 10-5
25
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Cobre
1.7 x 10-5
Vidrio ~
0.7 x 10-5
Cuarzo
0.04 x 10-5
Hielo
5.1 x 10-5
Escalas de temperatura
Lo que se necesita para construir un termómetro son puntos fijos, es decir, procesos en los cuales
la temperatura permanece constante. Ejemplos de procesos de este tipo son el proceso de
ebullición y el proceso de fusión.
Los puntos generalmente utilizados son el proceso de ebullición y de solidificación de alguna
sustancia, durante los cuales la temperatura permanece constante.
Existen varias escalas para medir temperaturas, las más importantes son la escala Celsius, la
escala Kelvin y la escala Fahrenheit.
Escala Celsius
Para esta escala, se toman como puntos fijos, los puntos de ebullición y de solidificación del agua,
a los cuales se les asignan los valores de 100 y 0 respectivamente. En esta escala, estos valores
se escriben como 100° y 0°. Esta unidad de medida se lee grado Celsius y se denota por [°C]. El
grado Celsius, representado como °C, es la unidad creada por Anders Celsius para su escala de
temperatura. Se tomó como base para el Kelvin y es la unidad de temperatura más utilizada
internacionalmente. A partir de su creación en 1750 fue denominado grado centígrado (se escribía
°c, en minúscula). Pero en 1948 se decidió el cambio en la denominación oficial para evitar
confusiones con la unidad de ángulo también denominada grado centígrado (grado geométrico),
aunque la denominación previa se sigue empleando extensamente en el uso coloquial. Hasta
1954 se definió asignando el valor 0 a la temperatura de congelación del agua, el valor 100 a la de
temperatura de ebullición —ambas medidas a una atmósfera de presión— y dividiendo la escala
resultante en 100 partes iguales, cada una de ellas definida como 1 grado.
Estos valores de referencia son muy aproximados pero no correctos por lo que, a partir de 1954,
se define asignando el valor 0,01 °C a la temperatura del punto triple del agua y definiendo 1 °C
como la fracción 1/273,16 de la diferencia con el cero absoluto. Conversión de unidades [editar] La
magnitud de un grado Celsius (1 °C) es equivalente a la magnitud de un Kelvin (1 K), puesto que
esta unidad se define como igual a la primera. Sin embargo, las escalas son diferentes porque la
escala Kelvin toma como valor 0 el cero absoluto. Dado que al cero absoluto corresponde un valor
de -273,15 °C, la temperatura expresada en °C y K difiere en 273,15 unidades: • La conversión de
grados Celsius a grados Fahrenheit se obtiene multiplicando la temperatura en Celsius por 1,8
(9/5) y sumando 32: • Para convertir Fahrenheit a Celsius: •
Escala Kelvin o absoluta
En este caso, la escala fue establecida en base a la escala Celsius, donde el valor de 0°
corresponde al cero absoluto, temperatura en la cual las moléculas y átomos de un sistema tienen
la mínima energía térmica posible. Ningún sistema macroscópico puede tener una temperatura
inferior. En escala Celsius esta temperatura corresponde a -273°C. Esta unidad de medida se lee
Kelvin y se denota por [K]. Esta unidad se llama también Escala Absoluta y es también la unidad
adoptada por el Sistema Internacional de Unidades.
Dado que 0[K] corresponden a -273[°C], se puede hallar una fórmula de conversión, entre la
escala Celsius y la escala Kelvin, de la siguiente forma:
T = tc + 273°
donde la letra T representa la temperatura en Kelvin y la letra t c representa la temperatura en
grados Celsius.
26
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Escala Fahrenheit
En esta escala también se utilizaron puntos fijos para construirla, pero en este caso fueron los
puntos de solidificación y de ebullición del cloruro amónico en agua. Estos puntos se marcaron
con los valores de 0 y 100 respectivamente. La unidad de esta escala se llama grado Fahrenheit y
se denota por [°F]. Dado que en escala Celsius, los valores de 0[°C] y 100[°C] corresponden
respectivamente a 32[°F] y 212[°F] respectivamente, la fórmula de conversión de grados Celsius a
Fahrenheit es:
tf =
tc + 32°
aquí el símbolo tf representa la temperatura en grados Fahrenheit y el símbolo t c representa la
temperatura en grados Celsius.
Sistema y ambiente
En el estudio de la Termodinámica la atención está dirigida al interior de un sistema, aunque se
adopte un punto de vista macroscópico, sólo se consideran aquellas magnitudes de este tipo que
tienen relación con el estado interno del sistema. Para poder entender las magnitudes
involucradas en este tema, se hace necesario definir los conceptos de sistema y estado de un
sistema.
Sistema
Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie,
que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que
se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía,
dependiendo del caso. En la naturaleza, encontrar un sistema extrictamente aislado es, por lo que
sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra
materia, recibe el nombre de abierto. Ponemos unos ejemplos:

Un sistema abierto: es por ejemplo, un coche. Le echamos combustible y él
desprende diferentes gases y calor.

Un sistema cerrado: un reloj de cuerda,no introducimos ni sacamos materia de él.
Solo precisa un aporte de energía que emplea para medir el tiempo.

Un sistema aislado:¿Cómo encontrarlo si no podemos interactuar con él?. Sin
embargo un termo lleno de comida caliente es una aproximación, ya que el envase
no permite el intercambio de materia e intenta impedir que la energía (calor)salga
de él.
Medio externo
Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede
influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un
mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está
formado por el mechero, el aire, etc.
2.1.7. Calor cedido y absorbido por los cuerpos.
Equilibrio térmico
Toda sustancia por encima de los 0º Kelvin (-273.15º Centígrados)emite calor. Si 2 sustancias en
contacto se encuentran a diferente temperatura, una de ellas emitirá más calor y calentará a la
más fría. El equilibrio térmico se alcanza cuando ambas emiten, y reciben la misma cantidad de
calor, lo que iguala su temperatura.

27
Nota: estrictamente sería la misma cantidad de calor por gramo, ya que una mayor
cantidad de sustancia emite más calor a la misma temperatura.
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Variables termodinámicas
Las variables que tienen relación con el estado interno de un sistema, se llaman variables
termodinámicas o coordenadas termodinámicas, y entre ellas las más importantes en el
estudio de la termodinámica son:

la masa

el volumen

la densidad

la presión

la temperatura
Estado de un sistema
Un sistema que puede describirse en función de coordenadas termodinámicas se llama sistema
termodinámico y la situación en la que se encuentra definido por dichas coordenadas se llama
estado del sistema.
Equilibrio térmico
Un estado en el cual dos coordenadas termodinámicas independientes X e Y permanecen
constantes mientras no se modifican las condiciones externas se dice que se encuentra en
equilibrio térmico. Si dos sistemas se encuentran en equilibrio térmico se dice que tienen la misma
temperatura. Entonces se puede definir la temperatura como una propiedad que permite
determinar si un sistema se encuentra o no en equilibrio térmico con otro sistema.
El equilibrio térmico se presenta cuando dos cuerpos con temperaturas diferentes se ponen en
contacto, y el que tiene mayor temperatura cede calor al que tiene mas baja, hasta que ambos
alcanzan la misma temperatura.
Algunas definiciones útiles en termodinámica son las siguientes.
Foco térmico
Un foco térmico es un sistema que puede entregar y/o recibir calor, pero sin cambiar su
temperatura.
Contacto térmico
Se dice que dos sistema están en contacto térmico cuando puede haber transferencia de calor de
un sistema a otro.
Procesos termodinámicos
Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica,
cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos más
importantes son:

Procesos isotérmicos: son procesos en los que la temperatura no cambia.

Procesos Isobáricos: son procesos en los cuales la presión no varía.

Procesos Isócoros: son procesos en los que el volumen permanece constante.

Procesos adiabáticos: son procesos en los que no hay transferencia de calor
alguna.
Por ejemplo, dentro de un termo donde se echan agua caliente y cubos de hielo, ocurre un
proceso adiabático, ya que el agua caliente se empezará a enfriar debido al hielo, y al mismo
tiempo el hielo se empezará a derretir hasta que ambos estén en equilibrio térmico, sin embargo
no hubo transferencia de calor del exterior del termo al interior por lo que se trata de un proceso
adiabático.
Rendimiento termodinámico o eficiencia
28
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Un concepto importante en la ingeniería térmica es el de rendimiento. El rendimiento de una
máquina térmica se define como:
donde, dependiendo del tipo de máquina térmica, estas energías serán el calor o el trabajo que se
transfieran en determinados subsistemas de la máquina.
Carnot demostró que el rendimiento de un tipo de máquina (a las que en la actualidad se denotan
con su nombre) que tuviese la máxima eficiencia posible y que operase entre dos termostatos
(focos con temperatura constante), dependería sólo de las temperaturas de dichos focos. Por
ejemplo, el rendimiento para un motor térmico de Carnot viene dado por:
donde Tc y Th son las temperaturas del termostato frío y del termostato caliente, respectivamente,
medidas en Kelvin.
Este rendimiento máximo es el correspondiente al de una máquina térmica reversible, la cual es
sólo una idealización, por lo que cualquier máquina térmica construida tendrá un rendimiento
menor que el de una máquina reversible operando entre los mismos focos. Lo cual constituye el
teorema de Carnot.
Dilatación térmica
La dilatación térmica corresponde al efecto de que las sustancias se "agrandan" al aumentar la
temperatura. En objetos sólidos, la dilatación térmica produce un cambio en las dimensiones
lineales de un cuerpo, mientras que en el caso de líquidos y gases, que no tienen forma
permanente, la dilatación térmica se manifiesta en un cambio en su volumen.
Dilatación lineal
Consideremos primero la dilatación térmica de un objeto sólido, cuyas dimensiones lineales se
pueden representar por l0 , y que se dilata en una cantidad ΔL. Experimentalmente se ha
encontrado que para casi todas las sustancias y dentro de los límites de variación normales de la
temperatura, la dilatación lineal ΔL es directamente proporcional al tamaño inicial l0 y al cambio en
la temperatura Δt, es decir:
=
donde
[°C]-1.
=
.
se llama coeficiente de dilatación lineal, cuya unidad es el recíproco del grado, es decir
Dilatación superficial
Es el mismo concepto que el de dilatación lineal salvo que se aplica a cuerpos a los que es
aceptable y preferible considerarl como regiones planas; por ejemplo, una plancha metálica. Al
serle transmitida cierta cantidad de calor la supeperficie del objeto sufrirá un incremento de área:
ΔA.
=
=
.
donde γ se llama coeficiente de dilatación superficial.
Dilatación volumétrica
La dilatación térmica de un líquido o un gas se observa como un cambio de volumen ΔV en una
cantidad de sustancia de volumen V0, relacionado con un cambio de temperatura Δt. En este
29
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
caso, la variación de volumen ΔV es directamente proporcional al volumen inicial V0 y al cambio
de temperatura Δt, para la mayor parte de las sustancias y dentro de los límites de variación
normalmente accesibles de la temperatura, es decir:
=
=
.
donde β se llama coeficiente de dilatación volumétrica, medida en la misma unidad que el
coeficiente de dilatación lineal.
Se puede demostrar fácilmente usando el álgebra que:
Análogamente se puede obtener el coeficiente de dilatación superficial γ dado por:
3.- Electricidad: electrostática y electrodinámica.
3.1.1. Antecedentes históricos de la electricidad y conceptos de electrostática y
electrodinámica.
Electricidad es un fenómeno: físico, químico, natural, que llena toda la estructura molecular de un
cuerpo y se manifiesta a través de un flujo de electrones. Cuando una carga se encuentra en
reposo produce fuerzas sobre otras situadas en su entorno. Si la carga se desplaza produce
también fuerzas magnéticas. Hay dos tipos de carga eléctrica, llamadas positiva y negativa.
La electricidad está presente en algunas partículas subatómicas. La partícula fundamental más
ligera que lleva carga eléctrica es el electrón, que transporta una unidad de carga. Los átomos, en
circunstancias normales, contienen electrones, y a menudo los que están más alejados del núcleo
se desprenden con mucha facilidad. En algunas sustancias, como los metales, proliferan los
electrones libres. De esta manera, un cuerpo queda cargado eléctricamente gracias a la
reordenación de los electrones.
Un átomo normal tiene cantidades iguales de carga eléctrica positiva y negativa; por lo tanto, es
eléctricamente neutro. La cantidad de carga eléctrica transportada por todos los electrones del
átomo, que por convención es negativa, está equilibrada por la carga positiva, localizada en el
núcleo. Si un cuerpo contiene un exceso de electrones quedará cargado negativamente. Por lo
contrario, con la ausencia de electrones, un cuerpo queda cargado positivamente, debido a que
hay más cargas eléctricas positivas en el núcleo.
Historia
Hacia el año 600 adC, el filósofo griego Tales de Mileto observó que, frotando una varilla de
ámbar con una piel o con lana, se podía crear pequeñas cargas, que atraían pequeños objetos.
También habían observado que si la frotaban mucho tiempo podían causar la aparición de una
chispa.
Cerca de Mileto, (en la actualidad Turquía), se encuentra un sitio arqueológico llamado Magnesia,
donde en la antigüedad se encontraron trozos de magnetita. Los antiguos griegos observaron que
los trozos de este material se atraían entre sí, y también con pequeños objetos de hierro. La
palabra magneto (en español, imán) proviene del lugar donde se descubrió.
Un objeto encontrado en Iraq en 1938, fechado alrededor de 250 adC, llamado la Batería de
Bagdad, se asemeja a una celda electroquímica. No se han encontrado documentos que
evidencien su utilización, aunque hay otras descripciones anacrónicas de dispositivos eléctricos
en muros egipcios y escritos antiguos.
En 1600, el científico inglés William Gilbert publicó su libro De Magnete, en donde utiliza la palabra
latina electricus, derivada del griego elektron, que significa ámbar, para describir los fenómenos
30
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
descubiertos por los griegos. También estableció las diferencias entre el magnetismo y la
electricidad. Estas investigaciones fueron continuadas en 1660 por Otto von Guericke, quien
inventó un generador electrostático. Robert Boyle afirmó en 1675 que la atracción y repulsión
pueden producirse en el vacío. Stephen Gray, en 1729, clasificó los materiales como conductores
y aislantes. C.F. Du Fay fue el primero en identificar los dos tipos de carga eléctrica, que más
tarde se llamarían positiva y negativa. Pieter van Musschenbroek inventó en 1745 la botella de
Leyden, un tipo de capacitor para almacenar cargas eléctricas en gran cantidad. William Watson
experimentó con la botella Leyden, descubriendo en 1747 que una descarga de electricidad
estática es equivalente a una corriente eléctrica.
Benjamin Franklin, en 1752, experimentó con la electricidad haciendo volar una cometa durante
una tormenta. Demostró que el relámpago es debido a la electricidad. Como consecuencia de
estas experimentaciones inventó el pararrayos y formuló una teoría sobre un fluido que explicara
la presencia de cargas positivas y negativas.
Charles-Augustin de Coulomb, en 1777, inventó una balanza de torsión para medir la fuerza de
repulsión y atracción eléctrica. Por este procedimiento formuló el principio de interacción de
cargas eléctricas (ley de Coulomb).
Hans Christian Oersted, en 1819, observó que una aguja imantada se orientaba colocándose
perpendicularmente a un conductor por el que se hacía pasar una corriente eléctrica. Siguiendo
estas investigaciones, Michael Faraday, en 1831, descubrió que se generaba una corriente
eléctrica en un conductor que se exponía a un campo magnético variable.
Luigi Galvani, en 1790, descubrió, accidentalmente, que se producen contracciones en los
músculos de una rana u otro animal cuando entran en contacto con metales cargados
eléctricamente. Alessandro Volta descubrió que las reacciones químicas podían generar cargas
positivas (cationes) y negativas (aniones). Cuando un conductor une estas cargas, la diferencia de
potencial eléctrico (también conocido como voltaje) impulsa una corriente eléctrica a través del
conductor. La diferencia de potencial entre dos puntos se mide en unidades de voltio, en
reconocimiento al trabajo de Volta. Humphry Davy, en 1807, trabajó con la electrólisis y aisló de
esta forma los metales alcalinos.
En 1821, el físico alemán Thomas Seebeck descubrió que se producía una corriente eléctrica por
la aplicación de calor a la unión de dos metales diferentes. Jean Peltier, en 1834, observó el
fenómeno opuesto: la absorción de calor mediante el paso de corriente en una unión de
materiales.
Georg Simon Ohm, en 1827, dio una relación (Ley de Ohm) que liga la tensión entre dos puntos
de un circuito y la intensidad de corriente que pasa por él, definiendo la resistencia eléctrica. El
físico alemán Gustav Kirchoff expuso dos reglas, llamadas Leyes de Kirchoff, con respecto a la
distribución de corriente eléctrica en un circuito eléctrico con derivaciones.
James Prescott Joule, en 1841, desarrolló una ley que establece la cantidad de calor que se
produce en un conductor por el paso de una corriente eléctrica. Wheatstone, en 1844, ideó su
puente para medir resistencias eléctricas.
En 1878, Thomas Alva Edison construyó la primera lámpara incandescente con filamentos de
bambú carbonizado. En 1901, Peter Hewitt inventa la lámpara de vapor de mercurio.
En 1873, el físico británico James Clerk Maxwell publicó su obra Tratado sobre electricidad y
magnetismo, en donde, por primera vez, reúne en cuatro ecuaciones la descripción de la
naturaleza de los campos electromagnéticos. Heinrich Hertz extendió esta teoría y demostró que
la electricidad puede transmitirse en forma de ondas electromagnéticas, como la luz. Estas
investigaciones posibilitaron la invención del telégrafo sin cables y la radio.
Nikola Tesla experimentó con alto voltaje y corriente alterna polifásica; de esa manera inventó el
alternador y el primer motor de inducción, en 1882.
Por medio de los trabajos de Johann Wilhelm Hittorf, Williams Crookes inventó en 1872 el tubo de
rayos catódicos. Utilizando un tubo de Crookes, el físico alemán Wilhelm Röntgen descubrió los
rayos X. Joseph John Thomson, investigando el flujo de rayos catódicos, descubrió el electrón. En
31
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
1906, el físico estadounidense Robert Andrews Millikan, mediante su experimento de «la gota de
aceite», determinó la carga del electrón.
Actualmente, la comprensión y control del fenómeno eléctrico ha posibilitado la implantación de la
electricidad en todos los tipos de aplicaciones industriales del ser humano, e incluso en medicina
(véase fisioterapia, electroterapia).
3.1.2. Carga eléctrica, unidad de medida en el Sistema Internacional, interacción entre
cargas y formas de electrizar a los cuerpos.
Carga eléctrica
La carga eléctrica es una propiedad intrínseca de algunas partículas sub-atómicas que se
manifiesta mediante atracciones y repulsiones que determinan las interacciones
electromagnéticas entre ellas. La materia cargada eléctricamente es influida por los campos
electromagnéticos siendo, a su vez, generadora de ellos. La interacción entre carga y campo
eléctrico es la fuente de una de las cuatro fuerzas fundamentales, la fuerza electromagnética.
La carga eléctrica es de naturaleza discreta, fenómeno demostrado experimentalmente por Robert
Millikan. Por definición, los electrones tienen carga -1, también notada -e. Los protones tienen la
carga opuesta, +1 o +e. Los quarks tienen carga fraccionaria ±1/3 o ±2/3, aunque no se han
observado aislados en la naturaleza.
En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio
(símbolo C). Se define como la cantidad de carga que pasa por una sección en 1 segundo cuando
la corriente eléctrica es de 1 amperio, y se corresponde con la carga de 6,25 × 1018 electrones
aproximadamente.
Medición de la carga eléctrica
El valor de la carga eléctrica de un cuerpo, representada como q o Q, se mide según el número de
electrones que posea en exceso o en defecto.
En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio
(símbolo C) y se define como la cantidad de carga que a la distancia de 1 metro ejerce sobre
otra cantidad de carga igual, la fuerza de 9x109 N.
Un culombio corresponde a 6,24 × 1018 electrones. En consecuencia, la carga del electrón es
=
Como el culombio puede no ser manejable en algunas aplicaciones, por ser demasiado grande, se
utilizan también sus submúltiplos:
1 miliculombio =
1 microculombio =
Cargas positivas y negativas
Si se toma una varilla de vidrio y se frota con seda colgándola de un hilo largo (también de seda),
se observa que al aproximar una segunda varilla (frotada con seda) se produce una repulsión
mutua. Sin embargo, si se aproxima una varilla de ebonita, previamente frotada con una piel, se
observa que atrae la varilla de vidrio colgada. También se verifica que dos varillas de ebonita
frotadas con piel se repelen entre sí. Estos hechos se explican diciendo que al frotar una varilla se
le comunica carga eléctrica y que las cargas en las dos varillas ejercen fuerzas entre sí.
Los efectos eléctricos no se limitan a vidrio frotado con seda o a ebonita frotada con piel.
Cualquier sustancia frotada con cualquier otra, en condiciones apropiadas, recibe carga en cierto
32
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
grado. Sea cual sea la sustancia a la que se le comunicó carga eléctrica se verá que, si repele al
vidrio, atraerá a la ebonita y viceversa.
No existen cuerpos electrificados que muestren comportamientos de otro tipo. Es decir, no se
observan cuerpos electrificados que atraigan o repelan a las barras de vidrio y de ebonita
simultáneamente: si el cuerpo sujeto a observación atrae al vidrio, repelerá a la barra de ebonita y
si atrae a la barra de ebonita, repelerá a la de vidrio.
La conclusión de tales experiencias es que sólo hay dos tipos de carga y que cargas similares se
repelen y cargas diferentes se atraen. Benjamín Franklin denominó positivas a las que
aparecen en el vidrio y negativas a las que aparecen en la ebonita.
Interacciones entre cargas de igual y distinto signo.
Origen de las cargas
Buscando una explicación que justificara este hecho, formuló la teoría de que estos fenómenos se
producen debido a la existencia de un "fluido eléctrico" que se transfiere de un cuerpo a otro. Un
cuerpo no electrizado tendría una "cantidad normal" de fluido. El frotamiento sería la causa de la
transferencia y el cuerpo que recibiera más fluido quedaría electrizado positivamente mientras que
el que lo perdiera quedaría electrizado negativamente. Así, conforme a estas ideas, no habría
creación ni destrucción de carga eléctrica, sino únicamente una transferencia de electricidad de un
cuerpo hacia otro.
En la actualidad se sabe que la teoría estaba parcialmente acertada. El proceso de electrización
consiste en transferencia de carga eléctrica, pero no debido al fluido imaginado por Franklin, sino
por el paso de electrones de un cuerpo hacia otro.
La teoría atómica moderna afirma que toda materia está constituida, básicamente, por partículas:
protones, electrones y neutrones. Los primeros poseen carga positiva (el tipo de carga con que se
electrifica el vidrio), los segundos, carga negativa (el tipo de carga con que se electrifica la
ebonita) y los neutrones carecen de carga eléctrica.
Un cuerpo no electrizado posee el mismo número de electrones que de protones. Cuando se
frotan dos cuerpos hay una transferencia de electrones de uno hacia otro y el cuerpo que presenta
exceso de electrones queda cargado negativamente, mientras que el que los perdió presenta un
exceso de protones provocando la existencia de carga eléctrica positiva.
O sea, se desplazan los electrones debido a la posición que ocupan en el átomo y por ende en la
molécula que forma el material. Así, los protones quedan fijos en los núcleos atómicos, mientras
que los electrones, más libres que los componentes nucleares, se desplazan de un lugar a otro.
33
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Obsérvese que los electrones y protones no poseen en su seno nada positivo ni negativo, esto
sólo es una denominación que se aplica a una propiedad intrínseca de la materia que se
manifiesta mediante repulsiones y atracciones.
Otro aspecto importante del modelo de la electricidad de Franklin es que la carga electrica
siempre se conserva. Es decir, cuando un cuerpo es frotado contra otro, no se crea carga en el
proceso, sino que existe una transferencia de cargas entre un cuerpo y el otro.
Formas para cambiar la carga eléctrica de los cuerpos
Se denomina electrización al efecto de ganar o perder cargas eléctricas, normalmente
electrones, producido por un cuerpo eléctricamente neutro.
Electrización por contacto
Se puede cargar un cuerpo neutro con sólo tocarlo con otro previamente cargado. En este caso,
ambos quedan con el mismo tipo de carga, es decir, si se toca un cuerpo neutro con otro con
carga positiva, el primero debe quedar con carga positiva.
Esto se debe a que habrá transferencia de electrones libres desde el cuerpo que los posea en
mayor cantidad hacia el que los contenga en menor proporción y manteniéndose este flujo hasta
que la magnitud de la carga sea la misma en ambos cuerpos.
Electrización por frotamiento
Al frotar dos cuerpos eléctricamente neutros (número de electrones = número de protones),
ambos se cargan, uno con carga positiva y el otro con carga negativa. Si se frota una barra de
vidrio con un paño de seda, hay un traspaso de electrones del vidrio a la seda. Si se frota un lápiz
de pasta con un paño de lana, hay un traspaso de electrones del paño.
Carga por inducción
La inducción es un proceso de carga de un objeto sin contacto directo.
Un cuerpo cargado eléctricamente puede atraer a otro cuerpo que está neutro. Cuando se acerca
un cuerpo electrizado a un cuerpo neutro, se establece una interacción eléctrica entre las cargas
del primero y las del cuerpo neutro.
Como resultado de esta interacción, la distribución inicial se altera: el cuerpo electrizado provoca
el desplazamiento de los electrones libres del cuerpo neutro.
En este proceso de redistribución de cargas, la carga neta inicial no ha variado en el cuerpo
neutro, pero en algunas zonas se carga positivamente y en otras negativamente.
Se dice que aparecen cargas eléctricas inducidas. Entonces el cuerpo electrizado, denominado
inductor, induce una carga con signo contrario en el cuerpo neutro y por lo tanto lo atrae.
El diagrama de abajo muestra el procedimiento para electrificar un cuerpo por inducción. Es
importante tener en cuenta que la carga obtenida por este método es de signo opuesto a la carga
del inductor.
34
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Carga por el Efecto Fotoeléctrico
Es un efecto de formación y liberación de partículas eléctricamente cargadas que se produce en la
materia cuando es irradiada con luz u otra radiación electromagnética. En el efecto fotoeléctrico
externo se liberan electrones en la superficie de un conductor metálico al absorber energía de la
luz que incide sobre dicha superficie. Este efecto se emplea en la célula fotoeléctrica, donde los
electrones liberados por un polo de la célula, el fotocátodo, se mueven hacia el otro polo, el
ánodo, bajo la influencia de un campo eléctrico.
Carga por Electrólisis
La mayoría de los compuestos inorgánicos y algunos de los orgánicos se ionizan al fundirse o
cuando se disuelven en agua u otros líquidos; es decir, sus moléculas se disocian en especies
químicas cargadas positiva y negativamente. Si se coloca un par de electrodos en una disolución
de un electrólito (compuesto ionizable) y se conecta una fuente de corriente continua entre ellos,
los iones positivos de la disolución se mueven hacia el electrodo negativo y los iones negativos
hacia el positivo. Al llegar a los electrodos, los iones pueden ganar o perder electrones y
transformarse en átomos neutros o moléculas; la naturaleza de las reacciones del electrodo
depende de la diferencia de potencial o voltaje aplicado.
Propiedades de la carga
Principio de conservación de la carga
En concordancia con los resultados experimentales, el principio de conservación de la carga
establece que no hay destrucción ni creación neta de carga eléctrica, y afirma que en todo
proceso electromagnético la carga total de un sistema aislado se conserva, tal como pensó
Franklin.
Hemos visto que cuando se frota una barra de vidrio con seda, aparece en la barra una carga
positiva. Las medidas muestran que aparece en la seda una carga negativa de igual magnitud.
Esto hace pensar que el frotamiento no crea la carga sino que simplemente la transporta de un
objeto al otro, alterando la neutralidad eléctrica de ambos. Así, en un proceso de electrización, el
número total de protones y electrones no se altera y sólo hay una separación de las cargas
35
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
eléctricas. Por tanto, no hay destrucción ni creación de carga eléctrica, es decir, la carga total se
conserva, tal como pensó Franklin.
Pueden aparecer cargas eléctricas donde antes no había, pero siempre lo harán de modo que la
carga total del sistema permanezca constante. Además esta conservación es local, ocurre en
cualquier región del espacio por pequeña que sea
3.1.3 Materiales conductores y aislantes, electroscopio y jaula de Faraday.
Aislantes y conductores
Una varilla metálica sostenida con la mano y frotada con una piel no resulta cargada. Sin
embargo, es posible cargarla si se la provee de un mango de vidrio o de ebonita y el metal no se
toca con las manos al frotarlo.
La explicación es que las cargas se pueden mover libremente en los metales y el cuerpo humano,
mientras que en el vidrio y la ebonita no pueden hacerlo.
Esto se debe a que en ciertos materiales, típicamente en los metales, los electrones más alejados
de los núcleos respectivos adquieren libertad de movimiento en el interior del sólido. Estas
partículas se denominan electrones libres y son el vehículo mediante el cual se transporta la carga
eléctrica. Estas sustancias se denominan conductores.
En contrapartida a los conductores eléctricos, existen materiales en los cuales los electrones
están firmemente unidos a sus respectivos átomos. En consecuencia, estas sustancias no poseen
electrones libres y no será posible el desplazamiento de carga a través de ellos. Estas sustancias
son denominadas aislantes o dieléctricos. El vidrio, la ebonita o el plástico son ejemplos típicos.
En consecuencia, esta diferencia de comportamiento de las sustancias respecto del
desplazamiento de las cargas en su seno depende de la naturaleza de los átomos que las
componen.
Entre los buenos conductores y los dieléctricos existen múltiples situaciones intermedias. Entre
ellas destacan los materiales semiconductores por su importancia en la fabricación de dispositivos
electrónicos que son la base de la actual revolución tecnológica. En condiciones ordinarias se
comportan como dieléctricos, pero sus propiedades conductoras pueden ser alteradas con cierta
facilidad mejorando su conductividad en forma prodigiosa ya sea mediante pequeños cambios en
su composición, sometiéndolos a temperaturas elevadas o a intensa iluminación.
A temperaturas cercanas al cero absoluto, ciertos metales adquieren una conductividad infinita, es
decir, la resistencia al flujo de cargas se hace cero. Se trata de los superconductores. Una vez que
se establece una corriente eléctrica en un superconductor, los electrones fluyen por tiempo
indefinido.
Es de relevancia tener en cuenta, y puede verificarse experimentalmente, que solamente la carga
negativa se puede mover. La carga positiva es inmóvil y únicamente los electrones libres son los
responsables del transporte de carga.
Electroscopio
36
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
El electroscopio es un instrumento que permite determinar la presion de cargas electricas y su
signo.
Un electroscopio sencillo consiste en una varilla metálica vertical que tiene una bolita en la parte
superior y en el extremo opuesto dos láminas de oro muy delgadas. La varilla está sostenida en la
parte superior de una caja de vidrio transparente con un armazón de metal en contacto con tierra.
Al acercar un objeto electrizado a la esfera, la varilla se electrifica y las laminillas cargadas con
igual signo que el objeto se repelen, siendo su divergencia una medida de la cantidad de carga
que han recibido. La fuerza de repulsión electrostática se equilibra con el peso de las hojas. Si se
aleja el objeto de la esfera, las láminas, al perder la polarización, vuelven a su posición normal.
Cuando un electroscopio se carga con un signo conocido, puede determinarse el tipo de carga
eléctrica de un objeto aproximándolo a la esfera. Si las laminillas se separan significa que el objeto
está cargado con el mismo tipo de carga que el electroscopio. De lo contrario, si se juntan, el
objeto y el electroscopio tienen signos opuestos.
Un electroscopio cargado pierde gradualmente su carga debido a la conductividad eléctrica del
aire producida por su contenido en iones. Por ello la velocidad con la que se carga un
electroscopio en presencia de un campo eléctrico o se descarga puede ser utilizada para medir la
densidad de iones en el aire ambiente. Por este motivo, el electroscopio se puede utilizar para
medir la radiación de fondo en presencia de materiales radiactivos.
El primer electroscopio fue creado por el médico inglés William Gilbert para realizar sus
experimentos con cargas electrostáticas. Actualmente este instrumento no es más que una
curiosidad de museo, dando paso a mejores instrumentos electrónicos. Un electroscopio es un
dispositivo que permite detectar la presencia de un objeto cargado aprovechando el fenómeno de
separación de cargas por inducción. Explicaremos su funcionamiento empezando por ver que
sucede con las cargas en los materiales conductores.
Si acercamos un cuerpo cargado con carga positiva, por ejemplo una lapicera que ha sido frotada
con un paño, las cargas negativas del conductor experimentan una fuerza atractiva hacia la
lapicera . Por esta razón se acumulan en la parte mas cercana a ésta. Por el contrario las cargas
positivas del conductor experimentan una fuerza de repulsión y por esto se acumulan en la parte
más lejana a la lapicera.
Lo que a ocurrido es que las cargas se han desplazado pero la suma de cargas positivas es igual
a la suma de cargas negativos. Por lo tanto la carga neta del conductor sigue siendo nula.
Consideremos ahora que pasa en el electroscopio. Recordemos que un electroscopio esta
formado esencialmente por un par de hojas metálicas unidas en un extremo. Por ejemplo una tira
larga de papel de aluminio doblada al medio. Si acercamos la lapicera cargada al electroscopio,
como se indica en la figura, la carga negativa será atraida hacia el extremo mas cercano a la
lapicera mientras que la carga positiva se acumulará en el otro extremo, es decir que se distribuirá
entre las dos hojas del electroscopio. La situación se muestra en la figura: los dos extremos libres
del electroscopio quedaron cargados positivamente y como las cargas de un mismo signo se
rechazan las hojas del electroscopio se separan.
Si ahora alejamos la lapicera, las cargas positivas y negativas del electroscopio vuelven a
redistribuirse, la fuerza de repulsión entre las hojas desaparece y se juntan nuevamente. ¿Qué
pasa si tocamos tocamos con un dedo el extremo del electroscopio mientras esta cerca de la
lapicera cargada? La carga negativa acumulada en ese extremo "pasará" a la mano y por lo tanto
el electroscopio queda cargado positivamente. Debido a esto las hojas no se juntan cuando
alejamos la lapicera.
Jaula de Faraday
El efecto jaula de Faraday provoca que el campo electromagnético en el interior de un conductor
en equilibrio sea nulo, anulando el efecto de los campos externos. Esto se debe a que, cuando el
conductor sujeto a un campo electromagnético externo, se polariza de manera que queda cargado
positivamente en la dirección en que va el campo electromagnético, y cargado negativamente en
el sentido contrario. Puesto que el conductor se ha polarizado, este genera un campo eléctrico
37
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
igual en magnitud pero opuesto en sentido al campo electromagnético, luego la suma de ambos
campos dentro del conductor será igual a 0.
Se pone de manifiesto en numerosas situaciones cotidianas, por ejemplo, el mal funcionamiento
de los teléfonos móviles en el interior de ascensores o edificios con estructura de rejilla de acero.
Una manera de comprobarlo es con una radio sintonizada en una emisora de Onda Media. Al
rodearla con un periódico, el sonido se escucha correctamente. Sin embargo, si se sustituye el
periódico con un papel de aluminio la radio deja de emitir sonidos: el aluminio es un conductor
eléctrico y provoca el efecto jaula de Faraday.
Este fenómeno, descubierto por Michael Faraday, tiene una aplicación importante en protección
de equipos electrónicos delicados, tales como repetidores de radio y televisión situados en
cumbres de montañas y expuestos a las perturbaciones electromagnéticas causadas por las
tormentas.
3.1.4. Ley de Coulomb, campo eléctrico y su intensidad.
La Ley de Coulomb lleva su nombre en honor a Charles-Augustin de Coulomb, uno de sus
descubridores y el primero en publicarlo. No obstante, Henry Cavendish obtuvo la expresión
correcta de la ley, con mayor precisión que Coulomb, si bien esto no se supo hasta después de su
muerte. La balanza de torsión consiste en una barra que cuelga de una fibra. Esta fibra es capaz
de torcerse, y si la barra gira la fibra tiende a regresarla a su posición original. Si se conoce la
fuerza de torsión que la fibra ejerce sobre la barra, se logra un método sensible para medir
fuerzas.
En la barra de la balanza, Coulomb, colocó una pequeña esfera cargada y, a continuación, a
diferentes distancias, posicionó otra esfera con carga de igual magnitud. Luego midió la fuerza
entre ellas observando el ángulo que giraba la barra.
Dichas mediciones permitieron determinar que:
1) La fuerza de interacción entre dos cargas y duplica su magnitud si alguna de las cargas
dobla su valor, la triplica si alguna de las cargas aumenta su valor en un factor de tres, y así
sucesivamente. Concluyó entonces que el valor de la fuerza era proporcional al producto de las
cargas:
y
en consecuencia:
2) Si la distancia entre las cargas es , al duplicarla, la fuerza de interacción disminuye en un
factor de 4 (2²); al triplicarla, disminuye en un factor de 9 (3²) y al cuadriplicar , la fuerza entre
cargas disminuye en un factor de 16 (4²). En consecuencia, la fuerza de interacción entre dos
cargas puntuales, es inversamente proporcional al cuadrado de la distancia:
Variación de la Fuerza de Coulomb en función de la distancia
38
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Asociando las relaciones obtenidas en 1) y 2):
Finalmente, se introduce una constante de proporcionalidad para transformar la relación anterior
en una igualdad:
El enunciado que describe la ley de Coulomb es la siguiente:
"La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas
puntuales es directamente proporcional al producto de las cargas e inversamente
proporcional al cuadrado de la distancia que las separa."
Esta ley es válida sólo en condiciones estacionarias, es decir, cuando no hay movimiento de las
cargas o, como aproximación, el movimiento se realiza a velocidades bajas y trayectorias
rectilíneas uniformes. Se le llama a esta Fuerza Electrostática. La parte Electro proviene de que se
trata de fuerzas eléctricas y estática debido a la ausencia de movimiento de las cargas.
En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas puntuales
y
ejerce sobre la otra separadas por una distancia se expresa como:
Dadas dos cargas puntuales y separadas una distancia
entre sí con una fuerza cuya magnitud esta dada por:
en el vacío, se atraen o repelen
La Ley de Coulomb se expresa mejor con magnitudes vectoriales:
donde
es un vector unitario que va en la dirección de la recta que une las cargas, siendo su
sentido desde la carga que produce la fuerza hacia la carga que la experimenta.
El exponente (de la distancia: d) de la Ley de Coulomb es, hasta donde se sabe hoy en día,
exactamente 2. Experimentalmente se sabe que, si el exponente fuera de la forma
entonces
,
.
Representación gráfica de la Ley de Coulomb para dos cargas del mismo signo.
Obsérvese que esto satisface la tercera de la ley de Newton debido a que implica que fuerzas de
igual magnitud actúan sobre y
. La ley de Coulomb es una ecuación vectorial e incluye el
hecho de que la fuerza actúa a lo largo de la línea de unión entre las cargas.
Constante de Coulomb
39
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La constante
es la Constante de Coulomb y su valor para unidades SI es
A su vez la constante
donde
Nm²/C².
es la permisividad relativa,
,
y
F/m es la permisividad del medio en el vacío.
Cuando el medio que rodea a las cargas no es el vacío hay que tener en cuenta la constante
dieléctrica y la permisividad del material.
Algunos valores son:
Material
(F/m)
(Nm²/C²)
Vacío
1
8,85·10-12
8,99·109
Parafina
2,1-2,2
1,90·10-11
4,16·109
Mica
6-7
5,76·10-11
1,38·109
Papel parafinado 2,2
1,95·10-11
4,09·109
Poliestireno
1,05
9,30·10-12
8,56·109
Baquelita
3,8-5
3,90·10-11
2,04·109
Cirbolito
3-5
3,54·10-11
2,25·109
Vidrio orgánico
3,2-3,6
3,01·10-11
2,64·109
Vidrio
5,5-10
6,86·10-11
1,16·109
Aire
1,0006
8,86·10-12
8,98·109
Mármol
7,5-10
7,75·10-11
1,03·109
Ebonita
2,5-3
2,43·10-11
3,27·109
Porcelana
5,5-6,5
5,31·10-11
1,50·109
Micalex
7-9
7,08·10-11
1,12·109
Micarta A y B
7-8
6,64·10-11
1,20·109
Batista barnizada 3,5-5
3,76·10-11
2,11·109
Goma en hojas
2,6-3,5
2,70·10-11
2,95·109
Poliestireno
2,7
2,39·10-11
3,33·109
La ecuación de la ley de Coulomb queda finalmente expresada de la siguiente manera:
40
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Principio de superposición y la Ley de Coulomb
Como ley básica adicional, no deducible de la ley de Coulomb, se encuentra el Principio de
Superposición:
"La fuerza total ejercida sobre una carga eléctrica q por un conjunto de cargas
será igual a la suma vectorial de cada una de las fuerzas ejercidas por cada carga
carga ."
sobre la
Representación gráfica del principio de superposición
Conjuntamente, la Ley de Coulomb y el Principio de Superposición constituyen los pilares de la
electrostática
Campo eléctrico
El campo eléctrico es una propiedad del espacio, debido a la cual una carga eléctrica puntual de
valor "q" sufrirá los efectos de una fuerza "F" que vendrá dada por la siguiente ecuación:
Donde "E" es el mencionado campo eléctrico, que es, por tanto una magnitud vectorial. Esta
definición indica que el campo no es directamente medible, sino a través de la medición de la
fuerza actuante sobre alguna carga. La idea de campo eléctrico fue propuesta por Michael
Faraday al demostrar el principio de inducción electromagnética en el año 1831.
Las cargas eléctricas no precisan de ningún medio material para influir entre ellas y por ello las
fuerzas eléctricas son consideradas fuerzas de acción a distancia. En virtud de ello se recurre al
concepto de campo electrostático para facilitar la descripción, en términos físicos, de la
influencia que una o más cargas ejercen sobre el espacio que les rodea.
El concepto de campo
El concepto de campo surge ante la necesidad de explicar la forma de interacción entre cuerpos
en ausencia de contacto físico y sin medios de sustentación para las posibles interacciones. La
acción a distancia se explica, entonces, mediante efectos provocados por la entidad causante de
la interacción, sobre el espacio mismo que la rodea, permitiendo asignar a dicho espacio
propiedades medibles. Así, será posible hacer corresponder a cada punto del espacio valores que
41
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
dependerán de la magnitud de la propiedad del cuerpo que provoca la interacción y de la
ubicación del punto que se considera.
El campo eléctrico representa, en cada punto del espacio afectado por la carga, una propiedad
local asociada al mismo. Una vez conocido el campo en un punto no es necesario saber qué lo
origina para calcular la fuerza sobre una carga u otra propiedad relacionada con él.
Así, si se coloca una carga de prueba en un punto cualquiera del espacio en donde está definido
un campo eléctrico, se observará la aparición de atracciones o de repulsiones sobre ella. Una
forma de describir las propiedades de este campo sería indicar la fuerza que se ejercería sobre
una carga determinada si se trasladara de un punto a otro del espacio. Al utilizar la misma carga
de prueba es posible comparar la intensidad de las atracciones o repulsiones en los distintos
puntos del campo. La carga de referencia más simple, a efectos de operaciones, es la carga
unidad positiva. La fuerza eléctrica que en un punto cualquiera del campo se ejerce sobre la carga
unidad positiva, tomada como elemento de comparación, recibe el nombre de intensidad del
campo eléctrico y se representa por la letra E. Por tratarse de una fuerza, la intensidad del campo
eléctrico es una magnitud vectorial que viene definida por su módulo E y por su dirección y
sentido.
Interacciones entre dos cargas Q y q
Interacciones entre Q y q.
Considérese una carga Q fija en una determinada posición (ver figura). Si se coloca otra carga q
en un punto P1, a cierta distancia de Q, aparecerá una fuerza eléctrica actuando sobre q.
Si la carga q se ubica en otros puntos cualesquiera, tales como P2, P3 etc., evidentemente, en
cada uno de ellos, también estaría actuando sobre q una fuerza eléctrica, producida por Q. Para
describir este hecho, se dice que en cualquier punto del espacio en torno a Q existe un campo
eléctrico originado por esta carga.
Obsérvese en la figura que el campo eléctrico es originado en los puntos P1, P2, P3 etc., por Q, la
cual, naturalmente, podrá ser tanto positiva (la de la figura) como negativa. La carga q que es
trasladada de un punto a otro, para verificar si en ellos existe, o no, un campo eléctrico, se
denomina carga de prueba.
El campo eléctrico puede representarse, en cada punto del espacio, por un vector, usualmente
simbolizado por
y que se denomina vector campo eléctrico.
El módulo del vector en un punto dado se denomina intensidad del campo eléctrico en ese punto.
Para definir este módulo, considérese la carga Q de la figura, generando un campo eléctrico en el
espacio que la rodea. Colocando una carga de prueba q en un punto P1, se verá que sobre ella
actúa una fuerza eléctrica. La intensidad del campo eléctrico en P1 estará dada, por definición, por
la expresión:
42
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La expresión anterior permite determinar la intensidad del campo eléctrico en cualquier otro punto,
tales como P2, P3, etc. El valor de E será diferente para cada uno de ellos.
De
obtemos
, lo cual significa que si se conoce la intensidad del campo
eléctrico en un punto, es posible calcular, usando la expresión anterior, el módulo de la fuerza que
actúa sobre una carga cualquiera ubicada en aquél punto.
Campo eléctrico creado por una carga puntual
El campo que crea una carga puntual Q se deduce a partir de la ley de Coulomb.
Consideremos una carga de prueba Q0, colocada a una distancia r de una carga punto Q. La
fuerza entre ambas cargas, medida por un observador en reposo respecto a la carga Q estará
dada por:
La intensidad del campo eléctrico en el sitio en que se coloca la carga de prueba está dada por:
y por lo tanto resulta:
=
donde
es un vector unitario en la dirección radial,
llamada permisividad del vacío y
=
es la
es la constante de Coulomb cuyo valor es
. Donde se tienen las equivalencias
unidad de intensidad de campo eléctrico es
Metro).
y
respectivamente. La
(Newton por Culombio) o
(Voltio por
Principio de superposición
La influencia del campo producido por una carga aislada se puede generalizar al caso de un
sistema formado por más de una carga y luego extenderse al estudio de un cuerpo cargado.
Experimentalmente se verifica que las influencias de las cargas aisladas que constituyen un
sistema son aditivas, o en otras palabras, se suman o superponen vectorialmente. Así, la
intensidad de campo E en un punto cualquiera del espacio que rodea a varias cargas será la suma
vectorial de las intensidades de los campos debidos a cada una de las cargas individualmente
consideradas. Matemáticamente se puede considerar la siguinte ecuación:
Donde K es la constante arbitraria; n es la cantidad de cargas tenidas en cuenta;
es la
magnitud del vector distancia entre el punto donde se quiere hallar el campo eléctrico total y la
carga i; y es el vector unitario formado de la misma manera. Más adelante se trabajará mejor
esta ecuación.
Representación gráfica del campo eléctrico
43
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Una forma muy útil de esquematizar gráficamente un campo es trazar líneas que vayan en la
misma dirección que dicho campo en varios puntos. Esto se realiza a través de las líneas de
fuerza, líneas imaginarias que describen, si los hubiere, los cambios en dirección de las fuerzas al
pasar de un punto a otro. En el caso del campo eléctrico, puesto que tiene magnitud y sentido se
trata de una cantidad vectorial, y será un vector tangente a la línea de fuerza en cualquier punto
considerado.
Según la primera ley de Newton, la fuerza que actúa sobre una partícula produce un cambio en su
velocidad; por lo tanto, el movimiento de una partícula cargada en una región dependerá de las
fuerzas que actúen sobre ella en cada punto de dicha región.
Ahora considérese una carga q, situada en un punto sobre la que actúa una fuerza que es
tangente a la línea de campo eléctrico en dicho punto. En vista de que las líneas del campo
eléctrico varían en su densidad (están más o menos juntas) y dirección, podemos concluir que la
fuerza que experimenta una carga tiende a apartarla de la línea de campo eléctrico sobre la que
se encuentra en cada instante.
En otras palabras, una carga bajo los efectos de un campo eléctrico no seguirá el camino de la
línea de fuerza sobre la que se encontraba originalmente.
La relación entre las líneas de fuerza (imaginarias) y el vector intensidad de campo, es la
siguiente:
1. La tangente a una línea de fuerza en un punto cualquiera da la dirección de E en ese
punto.
2. El número de líneas de fuerza por unidad de área de sección transversal es proporcional a
la magnitud de E. Cuanto más cercanas estén las líneas, mayor será la magnitud de E.
No es obvio que sea posible dibujar un conjunto continuo de líneas que cumplan estos requisitos.
De hecho, se encuentra que si la ley de Coulomb no fuera cierta, no sería posible hacerlo.
Si un elemento de superficie de área
es atravesado por
líneas y si la intensidad del
campo eléctrico en el centro del elemento de superficie es E, se tiene que:
EL subíndice n indica que
es normal a E. Para convertir esta proporcionalidad en ecuación
se elige ε0 como constante de proporcionalidad. Así, se espacian arbitrariamente las líneas de
fuerza de modo que, en cualquier punto, el número de líneas por unidad de superficie y la
intensidad del campo eléctrico esté ligado por la relación:
Considérense, ahora, las líneas de fuerza que salen de una carga puntual positiva q y una esfera
de radio r arbitrario rodeando la carga y de modo que ésta se encuentre en el centro. La
intensidad del campo eléctrico en todos los puntos de la superficie de esta esfera es:
En consecuencia, el número de líneas por unidad de superficie es el mismo en todos los puntos
de la superficie y está dado por:
44
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Las líneas de fuerza atraviesan la superficie perpendicularmente puesto que E tiene una dirección
radial. El área de la esfera es
superficie es:
,lo que implica que el número de líneas que atraviesan la
Esto demuestra que si el valor del exponente de r, en la ley de Coulomb, no fuera 2, el número de
líneas de fuerza no solo no estaría dado por el valor de q, también sería inversamente
proporcional a alguna potencia de r y por ello seria imposible dibujar un conjunto continuo de
líneas que cumplan los requisitos indicados más arriba.
Para la construcción de líneas de fuerza se debe tener en cuenta lo siguiente:

A.- Por convención, las líneas deben partir de cargas positivas y terminar en cargas
negativas y en ausencia de unas u otras deben partir o terminar en el infinito.
Representación de campos eléctricos creados por cargas puntuales negativa y positiva.
Una carga puntual positiva dará lugar a un mapa de líneas de fuerza radiales, pues las fuerzas
eléctricas actúan siempre en la dirección de la línea que une a las cargas interactuantes, y
dirigidas hacia fuera porque una carga de prueba positiva se desplazaría en ese sentido. En el
caso del campo debido a una carga puntual negativa el mapa de líneas de fuerza sería análogo,
pero dirigidas hacia ella ya que ése sería el sentido en que se desplazaría la carga positiva de
prueba. Como consecuencia de lo anterior, en el caso de los campos debidos a varias cargas, las
líneas de fuerza nacen siempre de las cargas positivas y por ello son denominadas manantiales y
mueren en las negativas por lo que se les llama sumideros.

B.- Las líneas de fuerza jamás pueden cruzarse.
Las líneas de fuerza o de campo salen de una carga positiva o entran a una negativa. De lo
anterior se desprende que de cada punto de la superficie de una esfera, suponiendo forma
esférica para una carga, puede salir o entrar solo una línea de fuerza, en consecuencia entre dos
cargas que interactúan solo puede relacionarse un punto de su superficie con solo un punto de la
otra superficie, y ello es a través de una línea, y esa línea es la línea de fuerza.
Si se admitiera que dos líneas de fuerza se interceptan, entonces se podría extender la superficie
de la otra carga hacia el lugar donde se interceptan las líneas que se mencionan y se podría
concluir que dos líneas entran o salen de una superficie de una carga eléctrica. Con esto se está
contradiciendo lo postulado inicialmente. En consecuencia, es imposible que dos líneas de fuerza
se intercepten.
45
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Por otra parte, si las líneas de fuerza se cortaran, significaría que en dicho punto E poseería dos
direcciones distintas, lo que contradice la definición de que a cada punto sólo le corresponde un
valor único de intensidad de campo.

C.- El número de líneas fuerza que parten de una carga positiva o llegan a una carga
negativa es proporcional a la cantidad de carga respectiva.

D.- La líneas de fuerza deben ser perpendiculares a las superficies de los objetos en los
lugares donde conectan con ellas.
Esto se debe a que en las superficies de cualquier objeto, sin importar la forma, nunca se
encuentran componentes de la fuerza eléctrica que sean paralelas a la superficie del mismo. Si
fuera de otra manera, cualquier exceso de carga residente en la superficie comenzaría a acelerar.
Esto conduciría a la aparición de un flujo de carga en el objeto, lo cual nunca se observa en la
electricidad estática.
Representación del campo eléctrico creado por dos cargas positivas de igual magnitud y por un
dipolo eléctrico.
Representación del campo eléctrico creado por dos cargas de diferente magnitud y signos
opuestos.
Las representaciones anteriores reflejan el principio de superposición. Ya sea que las cargas
ostenten el mismo signo o signo opuesto, las líneas de fuerza se verán distorsionadas respecto de
la forma radial que tendrían si las cargas estuvieran aisladas, de forma tal, que la distorsión es
máxima en la zona central, o sea, en la región más cercana a ambas. Si las cargas tienen la
misma magnitud, la representación resulta simétrica respecto de la línea media que las separa. En
46
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
el caso opuesto, predominará la influencia de una de ellas dando lugar a una distribución
asimétrica de líneas de fuerza.
3.1.5. Diferencia de potencial o voltaje, corriente eléctrica, resistencia y ley de Ohm.
Tensión
La tensión o diferencia de potencial (incorrectamente llamada «voltaje») es una magnitud física
que impulsa a los electrones a lo largo de un conductor en un circuito cerrado.
Nomenclatura
A pesar de que la unidad de la diferencia de potencial es el voltio, no es correcto denominarla
«voltaje», así como el peso (cuya unidad es el gramo) no se denomina «gramaje», ni la distancia
(cuya unidad es el metro) no se denomina «metraje».
Diferencia de potencial
La tensión entre dos puntos de un campo eléctrico es igual al trabajo que realiza dicha unidad de
carga positiva para transportarla desde el punto A al punto B. En el Sistema Internacional de
Unidades, la diferencia de potencial se mide en voltios (V), al igual que el potencial.
La tensión es independiente del camino recorrido por la carga, y depende exclusivamente del
potencial eléctrico de los puntos A y B en el campo.
Fórmula de tensión
La tensión se expresa por la fórmula:
donde:

VA - VB es la diferencia de tensión,

E es la intensidad de campo en newton/culombio,

r es la distancia en metros entre los puntos A y B.
Si dos puntos que tienen una diferencia de potencial se unen mediante un conductor, se producirá
un flujo de corriente eléctrica. Parte de la carga que crea el punto de mayor potencial se trasladará
a través del conductor al punto de menor potencial y, en ausencia de una fuente externa
(generador), esta corriente cesará cuando ambos puntos igualen su potencial eléctrico (Ley de
Henry). Este traslado de cargas es lo que se conoce como corriente eléctrica.
Polaridad
Figura 1: polaridad de una diferencia de potencial
Cuando por dos puntos de un circuito puede circular una corriente eléctrica, la polaridad de la
caída de tensión viene determinada por la dirección convencional de la misma; esto es, del punto
de mayor potencial al de menor. Por lo tanto, si por la resistencia R de la figura 1 circula una
corriente de intensidad I, desde el punto A hacia el B, se producirá una caída de tensión en la
misma con la polaridad indicada, y se dice que el punto A es más positivo que el B.
Otra de las formas de expresar la tensión entre dos puntos es en función de la intensidad de
corriente y la resistencia existentes entre ellos; así se obtiene uno de los enunciados de la ley de
Ohm, que dice:
47
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Intensidad de corriente eléctrica
Se denomina intensidad de corriente eléctrica a la carga eléctrica que pasa a través de una
sección del conductor en la unidad de tiempo. En el Sistema Internacional de Unidades se
expresa en C·s-1 (culombios partido por segundo), unidad que se denomina amperio.
Si la intensidad es constante en el tiempo se dice que la corriente es continua; en caso contrario,
se llama variable. Si no se produce almacenamiento ni disminución de carga en ningún punto del
conductor, la corriente es estacionaria.
Se mide con un galvanómetro que, calibrado en amperios, se llama amperímetro y en el circuito
se coloca en serie con el conductor cuya intensidad se desea medir.
El valor i de la intensidad instantánea será:
Si la intensidad permanece constante, en cuyo caso se denota I, utilizando incrementos finitos de
tiempo se puede definir como:
Si la intensidad es variable la fórmula anterior da el valor medio de la intensidad en el intervalo de
tiempo considerado.
Según la ley de Ohm, la intensidad de la corriente es igual al voltaje dividido por la resistencia que
oponen los cuerpos:
Haciendo referencia a la potencia, la intensidad equivale a la raíz cuadrada de la potencia dividida
por la resistencia. En un circuito que contenga varios generadores y receptores, la intensidad es
igual a:
donde Σε es el sumatorio de las fuerzas electromotrices del circuito, Σε' es la suma de todas la
fuerzas contraelectromotrices, ΣR es la resistencia equivalente del circuito, Σr es la suma de las
resistencias internas de los generadores y Σr' es el sumatorio de las resistencias internas de los
receptores.
Resistencia eléctrica
Se denomina resistencia eléctrica, R, de una sustancia, a la oposición que encuentra la corriente
eléctrica durante su recorrido. Su valor viene dado en ohmios, se designa con la letra griega
omega mayúscula (Ω), y se mide con el Óhmetro. También se define como la propiedad de un
objeto o sustancia de transformar energía eléctrica en otro tipo de energía de forma irreversible,
generalmente calor.
Esta definición es válida para la corriente continua y para la corriente alterna cuando se trate de
elementos resistivos puros, esto es, sin componente inductiva ni capacitiva. De existir estos
componentes reactivos, la oposición presentada a la circulación de corriente recibe el nombre de
impedancia.
Según sea la magnitud de esta oposición, las sustancias se clasifican en conductoras, aislantes y
semiconductoras. Existen además ciertos materiales en los que, en determinadas condiciones de
48
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
temperatura, aparece un fenómeno denominado superconductividad, en el que el valor de la
resistencia es prácticamente nulo.
Comportamientos ideal y real
Figura 2. Circuito con resistencia.
Una resistencia ideal es un elemento pasivo que disipa energía en forma de calor según la Ley de
Joule. También establece una relación de proporcionalidad entre la intensidad de corriente que la
atraviesa y la tensión medible entre sus extremos, relación conocida como Ley de Ohm:
donde i(t) es la Corriente eléctrica que atraviesa la resistencia de valor R y u(t) es la diferencia de
potencial que se origina. En general, una resistencia real podrá tener diferente comportamiento en
función del tipo de corriente que circule por ella.
Comportamiento en corriente continua
Una resistencia real en corriente continua (CC) se comporta prácticamente de la misma forma que
si fuera ideal, esto es, transformando la energía eléctrica en calor. Su ecuación pasa a ser:
que es la conocida ley de Ohm para CC.
donde

= Voltaje.

= Corriente.
Ley de Ohm
Circuito mostrando la Ley de Ohm: Una fuente eléctrica con una diferencia de potencial V, produce una corriente
eléctrica I cuando pasa a través de la resistencia R
La ley de Ohm, es una propiedad específica de ciertos materiales. La relación
49
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
es un enunciado de la ley de Ohm. Un conductor cumple con la ley de Ohm sólo si su curva V-I es
lineal; esto es si R es independiente de V y de I. La relación
sigue siendo la definición general de la resistencia de un conductor, independientemente de si
éste cumple o no con la ley de Ohm. La intensidad de la corriente eléctrica que circula por un
dispositivo es directamente proporcional a la diferencia de potencial aplicada e inversamente
proporcional a la resistencia del mismo, según expresa la fórmula siguiente:
En donde, empleando unidades del Sistema internacional:
I = Intensidad en amperios (A)
V = Diferencia de potencial en voltios (V)
R = Resistencia en ohmios (Ω).
3.1.6. Concepto de pila. Circuitos eléctricos con pilas y resistencias conectadas en serie y
paralelo.
Pila eléctrica
Se llama ordinariamente pila eléctrica a un dispositivo que genera energía eléctrica por un
proceso químico transitorio, tras de lo cual cesa su actividad y han de renovarse sus elementos
constituyentes, puesto que sus características resultan alteradas durante el mismo. Se trata de un
generador primario. Esta energía resulta accesible mediante dos terminales que tiene la pila,
llamados polos, electrodos o bornes. Uno de ellos es el polo positivo o ánodo y el otro es el polo
negativo o cátodo.
En castellano ha venido siendo costumbre llamarla así, mientras que al dispositivo recargable o
acumulador, se ha venido llamando batería. Tanto pila como batería son términos provenientes de
los primeros tiempos de la electricidad, en los que se juntaban varios elementos o celdas —en el
primer caso uno encima de otro, "apilados", y en el segundo adosados lateralmente, "en
batería"— como se sigue haciendo actualmente, para así aumentar la magnitud de los fenómenos
eléctricos y poder estudiarlos sistemáticamente. De esta explicación se desprende que cualquiera
de los dos nombres serviría para cualquier tipo, pero la costumbre ha fijado la distinción.
La estructura fundamental de una pila consiste en piezas de dos metales diferentes introducidas
en un líquido conductor de la electricidad o electrolito.
Principios de funcionamiento
Aunque la apariencia de cada una de estas celdas sea simple, la explicación de su funcionamiento
dista de serlo y motivó una gran actividad científica en los siglos XIX y XX, así como diversas
teorías, y la demanda creciente que tiene este producto en el mercado sigue haciendo de él objeto
de investigación intensa.
El agua que tenga sales disueltas, es decir, agua ordinaria o agua con sal añadida, es un ejemplo
de electrolito, pues el agua pura es prácticamente un aislante eléctrico. El electrolito es conductor
porque contiene iones libres, partículas dotadas de carga eléctrica que pueden desplazarse por su
interior. Si se sumergen en él dos electrodos y se hace pasar una corriente eléctrica por el circuito
así formado, se producen reacciones químicas entre las sustancias del conjunto. Este proceso es
el conocido fenómeno de la electrolisis. Las pilas son el proceso inverso de la electrólisis, es decir,
en ellas los elementos están dispuestos de tal modo que la reacción química que se produce entre
sus constituyentes cuando se cierra el circuito genere una diferencia de potencial en los
electrodos, de modo que se pueda suministrar corriente eléctrica a una carga externa.
El funcionamiento de una pila se basa en el potencial de contacto entre un metal y un electrolito,
esto es, el potencial que se produce al poner en contacto un metal con un líquido.
50
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Así, al introducir una placa de zinc (Zn) en agua, el zinc se disuelve algo en forma de iones Zn ++
que pasan al líquido; esta emisión de iones hace que la placa adquiera una carga negativa
respecto al líquido, pues tiene ahora un exceso de electrones, creándose entre ambos una
diferencia de potencial. Los iones que están en el líquido ejercen una presión que se opone a la
continuación de la disolución, la cual se detendrá cuando se alcance un valor determinado,
llamado tensión de disolución. Cuando se cierra el circuito externo, los electrones del zinc retornan
a través de él al polo opuesto, mientras que en el interior del electrolito se reanuda la corriente de
iones que circula en sentido contrario. La imagen precedente muestra el esquema electroquímico
de una celda Daniell, que se describe luego con más detalle —incidentalmente, obsérvese que las
denominaciones de ánodo y cátodo se utilizan sobre la base del flujo de electrones por el circuito
externo y no en el sentido habitual, según el cual la corriente va del polo positivo al negativo—.
Características, propiedades y forma de utilización de las pilas
Voltaje
El voltaje, tensión o diferencia de potencial que produce un elemento electroquímico viene
determinado completamente por la naturaleza de las sustancias de los electrodos y del electrolito,
así como por su concentración. Walther Nernst obtuvo el premio Nobel de química de 1920 por
haber formulado cuantitativamente y demostrado las leyes que rigen este fenómeno. La conexión
de elementos en serie permite multiplicar esta tensión básica cuanto se quiera.
Las propiedades puramente eléctricas de una pila se representan mediante el modelo adjunto. En
su forma más sencilla está formado por una fuente de tensión perfecta —es decir, con resistencia
interna nula— en serie con un resistor que representa la resistencia interna. El condensador de la
versión más compleja es enormemente grande y su carga simula la descarga de la pila. Además
de ello entre los terminales también aparece una capacitancia, que no suele tener importancia en
las aplicaciones de corriente continua.
51
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Símbolo de una pila (izquierda); modelo eléctrico simplificado (centro); modelo más elaborado
(derecha).
Una vez fijada la tensión, la ley de Ohm determina la corriente que circulará por la carga y
consecuentemente el trabajo que podrá realizarse, siempre naturalmente que esté dentro de las
posibilidades de la pila, que no son infinitas, viniendo limitadas fundamentalmente por el tamaño
de los electrodos —lo que determina el tamaño externo de la pila completa— y por su separación.
Estos condicionamientos físicos se representan en el modelo de generador como una resistencia
interna por la que pasaría la corriente de un generador ideal, es decir, de uno que pudiese
suministrar una corriente infinita al voltaje predeterminado.
Conforme la célula se va gastando, su resistencia interna va aumentando, lo que hace que la
tensión disponible sobre la carga vaya disminuyendo, hasta que resulte insuficiente para los fines
deseados, momento en el que es necesario reemplazarla. Para dar una idea, una pila nueva de
las ordinarias de 1,5 V tiene una resistencia interna de unos 0,35 Ω, mientras que una vez
agotada puede tener varios. Esta es la razón de que la mera medición de la tensión con un
voltímetro no sirva para indicar el estado de una pila; en circuito abierto incluso una pila gastada
puede indicar 1,4 V, dada la carga insignificante que representa la resistencia de entrada del
voltímetro, pero, si la medición se hace con la carga que habitualmente soporte, la lectura bajará a
1,0 V o menos, momento en que esa pila ha dejado de tener utilidad. Las actuales pilas alcalinas
tienen una curva de descarga más suave que las previas de carbón; su resistencia interna
aumenta proporcionalmente más despacio.
Cuando se necesita una corriente mayor que la que puede suministrar un elemento único, siendo
su tensión en cambio la adecuada, se pueden añadir otros elementos en la conexión llamada en
paralelo, es decir, uniendo los polos positivos de todos ellos, por un lado, y los negativos, por otro.
Este tipo de conexión tiene el inconveniente de que si un elemento falla antes que sus
compañeros, o se cortocircuita, arrastra irremisiblemente en su caída a todos los demás.
Capacidad total
La capacidad total de una pila se mide en amperios x hora (A·h); es el número máximo de
amperios que el elemento puede suministrar en una hora. Es un valor que no suele conocerse, ya
que no es muy esclarecedor dado que depende de la intensidad solicitada y la temperatura.
Cuando se extrae una gran corriente de manera continuada, la pila entrega menos potencia total
que si la carga es más suave. También en esto las pilas alcalinas son mejores. Una de tipo D
tiene una capacidad de entre 9 Ah —con una carga de 1 A— y 12 Ah —con una carga de 1 mA—,
mientras que los correspondientes valores para una de carbón-zinc son 1 y 7,5, respectivamente.
Circuito
Se denomina circuito eléctrico a una serie de elementos o componentes eléctricos, tales como
resistencias, inductancias, condensadores y fuentes, o electrónicos, conectados eléctricamente
entre sí con el propósito de generar, transportar o modificar señales electrónicas.
52
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Por el tipo de
señal
Por el tipo
régimen
De
corriente
continua
De
corriente
alterna
Mixtos
Periódico
Transitorio
Permanente
de
Por el tipo de componentes
Por
su
configuración
Eléctricos:
inductivos
capacitivos
y
Electrónicos:
analógicos y mixtos
Serie
Paralelo
Mixtos
Resistivos,
mixtos
digitales,
Partes de un circuito
A la hora de analizar un circuito es conveniente conocer la terminología de cada elemento que lo
forma. A continuación se indican los comúnmente más aceptados tomando como ejemplo el
circuito mostrado en la figura

Conector: hilo conductor de resistencia despreciable (idealmente cero) que une
eléctricamente dos o más elementos.

Generador o fuente: elemento que produce electricidad. En el circuito de la figura 1 hay
tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2.

Red: conjunto de elementos unidos mediante conectores.

Nudo o nodo: punto de un circuito donde concurren varios conductores distintos. En la
figura 1 se observan cuatro nudos: A, B, D y E. Obsérve que C no se ha tenido en cuenta
ya que es el mismo nudo A al no existir entre ellos diferencia de potencial (VA - VC = 0).

Rama: conjunto de todos los elementos de un circuito comprendidos entre dos nudos
consecutivos. En la figura 1 se hallan siete ramas: AB por la fuente, AB por R1, AD, AE,
BD, BE y DE. Obviamente, por una rama sólo puede circular una corriente.
Circuitos de corriente continua
53
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Figura 2: circuitos divisores de tensión, a), y de intensidad, b).
En este punto se describirán los principales circuitos en corriente continua así como su análisis,
esto es, el cálculo de las intensidades, tensiones o potencias.
Divisor de tensión
Dos o más resistencias conectadas en serie forman un divisor de tensión. De acuerdo con la
segunda ley de Kirchhoff o ley de las mallas, la tensión total es suma de las tensiones parciales en
cada resistencia, por lo que seleccionando valores adecuados de las mismas, se puede dividir una
tensión en los valores más pequeños que se deseen. La tensión Vi en bornes de la resistencia Ri,
en un divisor de tensión de n resistencias cuya tensión total es V, viene dada por:
En el caso particular de un divisor de dos resistencias (figura 2 a), es posible determinar las
tensiones en bornes de cada resistencia, VAB y VBC, en función de la tensión total, VAC, sin tener
que calcular previamente la intensidad. Para ello se utilizan las siguientes ecuaciones de fácil
deducción:
Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un voltímetro,
donde R1 sería la resistencia de la bobina voltimétrica y R2 la resistencia de ampliación de escala.
Divisor de intensidad
Dos o más resistencias conectadas en paralelo forman un divisor de intensidad. De acuerdo con la
primera ley de Kirchhoff o ley de los nudos, la corriente que entra en un nudo es igual a la suma
de las corrientes que salen. Seleccionando valores adecuados de resistencias se puede dividir
una corriente en los valores más pequeños que se deseen.
En el caso particular de un divisor de dos resistencias (figura 2 b), es posible determinar las
corrientes parciales que circulan por cada resistencia, I1 e I2, en función de la corriente total, I, sin
tener que calcular previamente la caída de tensión en la asociación. Para ello se utilizan las
siguientes ecuaciones de fácil deducción:
54
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un amperímetro,
donde R1 sería la resistencia de la bobina amperimétrica y R2 la resistencia shunt.
Red con fuente única
Figura 3: ejemplo de circuito resistivo de fuente única.
Se trata de una red de resistencias alimentadas con una sola fuente (figura 3). Para su análisis se
seguirán, en general, los siguientes pasos:
1. Se calcula la resistencia equivalente de la asociación.
2. Se calcula la intensidad, I, que suministra la fuente,
3. Se calculan las intensidades y tensiones parciales.
A modo de ejemplo de lo expuesto, se analizará el circuito de la figura 3 su poniendo los
siguientes valores:
Resolución
1. Sea RABC la resistencia equivalente de la rama superior del circuito
Y denominando Re a la resistencia equivalente:
2. A partir de la ley de Ohm se determina la intensidad, I, que proporciona la fuente:
3. A partir de la ley de Ohm:
55
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
R3 y R4 forman un divisor de intensidad para I1, por lo tanto
Red general
Figura 4: ejemplo de red general: circuito de dos mallas.
En el caso más general, el circuito podrá tener más de una fuente. El análisis clásico de este tipo
de redes se realiza obteniendo, a partir de las leyes de Kirchhoff, un sistema de ecuaciones donde
las incógitas serán las corrientes que circulan por cada rama. En general, el proceso a seguir será
el siguiente:
1. Se dibujan y nombran de modo arbitrario las corrientes que circulan por cada rama.
2. Se obtiene un sistema de tantas ecuaciones como intensidades haya. Las ecuaciones se
obtendrán a partir de las leyes de Kirchhoff de acuerdo con el siguiente criterio:
1. Se aplica la primera ley tantos nudos como haya menos uno.
2. Se aplica la segunda ley a todas las mallas.
Como ejemplo, se analizará el circuito de la figura 4 considerando los siguientes valores:
Resolución
1. Se consideran las intensidades dibujadas en el circuito.
2. En el nudo A se cumple:
56
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Y sumando las tensiones en ambas mallas (vea como determinar la polaridad de la caída de
tensión de una resistencia en d. d. p.):
Ordenando las ecuaciones se obtiene el siguiente sistema
Cuyas soluciones son:
donde el valor negativo de I3 indica que la corriente circula en dirección contraria a como se ha
dibujado en el circuito.
En análisis de circuitos se puede observar el método de las mallas que simplifica el análisis de
circuitos de este tipo.
Balance de potencias
Figura 5: Balance de potencias.
Por balance de potencias de un circuito eléctrico se entiende la comprobación de que la suma
algebraica de las potencias que generan o "absorben" las fuentes es igual a la suma de potencias
que disipan los elementos pasivos. Para ello es necesario analizar previamente el circuito, esto es,
determinar las corrientes que circulan por cada una de sus ramas así como las caídas de tensión
en bornes de las fuentes de intensidad si las hubiere. Como ejemplo, se realizará el balance de
potencias del circuito de la figura 5 considerando los siguientes valores:
Resolución
Aplicando la primera ley de Kirchhoff al nudo A y la segunda a la malla de la izquierda, se obtiene:
Operando se obtiene:
y la tensión en bornes de la fuente de intensidad
57
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Terminado el análisis, se realiza el balance de potencias:
Elementos activos
Elementos pasivos
3.1.7. Potencia eléctrica y el efecto Joule.
Efecto Joule
Si en un conductor circula corriente eléctrica, parte de la energía cinética de los electrones se
transforma en calor debido al choque que sufren con las moléculas del conductor por el que
circulan, elevando la temperatura del mismo. Este efecto es conocido como efecto Joule en
honor a su descubridor el físico británico James Prescott Joule, que lo estudió en la década de
1860.
Causas del fenómeno
Los sólidos tienen generalmente una estructura cristalina, ocupando los átomos o moléculas los
vértices de las celdas unitarias, y a veces también el centro de la celda o de sus caras. Cuando el
cristal es sometido a una diferencia de potencial, los electrones son impulsados por el campo
eléctrico a través del sólido debiendo en su recorrido atravesar la intrincada red de átomos que lo
forma. En su camino, los electrones chocan con estos átomos perdiendo parte de su energía
cinética, que es cedida en forma de calor.
Este efecto fue definido de la siguiente manera: "La cantidad de energía calorífica producida por
una corriente eléctrica, depende directamente del cuadrado de la intensidad de la corriente, del
tiempo que ésta circula por el conductor y de la resistencia que opone el mismo al paso de la
corriente". Matemáticamente se expresa como
donde:
Q = energía calorífica producida por la corriente
I = intensidad de la corriente que circula y se mide en amperios
R = resistencia eléctrica del conductor y se mide en ohms
t = tiempo el cual se mide en segundos
Así, la potencia disipada por efecto Joule será:
58
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
donde V es la diferencia de potencial entre los extremos del conductor.
Ejemplo de cálculo
Para determinar el valor de la resistencia eléctrica que debe tener un calentador eléctrico que,
conectado a un enchufe de 220 V, es capaz de elevar la temperatura de un litro de agua de 15 °C
a 80 °C en cinco minutos, se debe considerar que para elevar la temperatura del agua en 1 °C se
necesitan 4,2 J por cada gramo. La energía calorífica necesaria para elevar la temperatura del
agua de 15 °C a 80 °C será:
Q = 1000g.(80 °C - 15 °c).4,2 J/g °C = 273000.J
Un litro de agua corresponde a un kilogramo y 4,2 representa el calor en joules por gramo y grado
Celsius (calor específico). Dado que se dispone del valor de la tensión, pero no de la intensidad,
será necesario transformar la ley de Joule de modo que en la fórmula correspondiente aparezca
aquélla y no ésta. Recurriendo a la ley de Ohm (V = i.R) se tiene:
Q = (V/R) ².R.t = V ².t/R
Despejando R y sustituyendo los valores conocidos resulta:
R = V ².t/Q = (220 V) ².300 s/273000 J = 53,2.Ω
Por lo tanto, el valor de la resistencia eléctrica debe ser 53,2 Ω para que el calentador eléctrico
conectado a un enchufe de 220 V, sea capaz de elevar la temperatura de un litro de agua de 15
°C a 80 °C en cinco minutos.
Aplicaciones
En este efecto se basa el funcionamiento de diferentes electrodomésticos como los hornos, las
tostadoras y las calefacciones eléctricas, y algunos aparatos empleados industrialmente como
soldadoras, etc., en los que el efecto útil buscado es, precisamente, el calor que desprende el
conductor por el paso de la corriente.
Sin embargo, en la mayoría de las aplicaciones es un efecto indeseado y la razón por la que los
aparatos eléctricos y electrónicos necesitan un ventilador que disipe el calor generado y evite el
calentamiento excesivo de los diferentes dispositivos.
Potencia eléctrica
La potencia eléctrica se define como la cantidad de trabajo realizado por una corriente eléctrica.
Potencia en corriente continua
Cuando se trata de corriente continua (DC) la potencia eléctrica desarrollada en un cierto instante
por un dispositivo de dos terminales es el producto de la diferencia de potencial entre dichos
terminales y la intensidad de corriente que pasa a través del dispositivo. Esto es,
donde I es el valor instantáneo de la corriente y V es el valor instantáneo del voltaje. Si I se
expresa en amperios y V en voltios, P estará expresada en Watts.
Igual definición se aplica cuando se consideran valores promedio para I, V y P.
Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente
del dispositivo, la potencia también puede calcularse como
59
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Magnetismo.
3.2.1. Concepto de magnetismo.
Magnetismo
Líneas de fuerza magnéticas de un imán de barra, producidas por limaduras de hierro sobre
papel.
En física, el magnetismo es un fenómeno por el que los materiales ejercen fuerzas de atracción o
repulsión a otros materiales. Hay algunos materiales conocidos que han presentado propiedades
magnéticas detectables fácilmente como el níquel, hierro y sus aleaciones que comúnmente se
llaman (imanes). Sin embargo todos los materiales son influenciados, de mayor o menor forma,
por la presencia de un campo magnético.
También el magnetismo tiene otras manifestaciones en física, particularmente como uno de los
dos componentes de la onda electromagnética, como por ejemplo la luz.
Tipos de imanes.
Imán
Un imán (del francés aimant) es un cuerpo o dispositivo con un campo magnético significativo, de
forma que tiende a alinearse con otros imanes (por ejemplo, con el campo magnético terrestre).
Tipos de imanes
Los imanes pueden ser imanes naturales, como la magnetita, un óxido de hierro (Fe3O4) con
propiedades magnéticas.
Un imán artificial es un cuerpo de material ferromagnético al que se ha comunicado la propiedad
del magnetismo, bien mediante frotamiento con un imán natural, bien por la acción de corrientes
eléctricas aplicadas en forma conveniente (electroimanación).
Un imán permanente está fabricado en acero imanado (hierro con un alto contenido en carbono),
lo que hace que conserve su poder magnético. Sin embargo, una fuerte carga eléctrica o un
impacto de considerable magnitud puede causar que el imán pierda su fuerza actuante.
Los imanes también pueden ser imanes temporales, es decir, que pierden sus propiedades una
vez que cesa la causa que provoca el magnetismo, o permanentes. Dichos imanes están
fabricados en hierro dulce (con un contenido muy bajo en carbono).
Un electroimán es una bobina (en el caso mínimo, una espira) por la cual circula corriente
eléctrica. Esto genera un campo magnético isomórfico al de un imán de barra el imán se imanta.
Un electroimán es un caso particular de un imán temporal.
¿De dónde procede el magnetismo?
Fue Oersted quien evidenció en 1820 por primera vez que una corriente genera un campo
magnético a su alrededor. En el interior de la materia existen pequeñas corrientes cerradas al
movimiento de los electrones que contienen los átomos, cada una de ellas origina un microscópico
imán. Cuando estos pequeños imanes están orientados en todas direcciones sus efectos se
anulan mutuamente el material no presenta propiedades magnéticas; y en cambio si todos los
imanes se alinean actúan como un único imán en ese caso decimos que la sustancia se ha
magnetizado.
Polos magnéticos
Líneas de fuerza de un imán visualizadas mediante limaduras de hierro extendidas sobre una
cartulina.
Tanto si se trata de un tipo de imán como de otro la máxima fuerza de atracción se halla en sus
extremos, llamados polos. Un imán consta de dos polos, denominados polo norte y polo sur. Polos
iguales se repelen y polos distintos se atraen. No existen polos aislados (monopolo magnético), y
por lo tanto, si un imán se rompe en dos partes, se forman dos nuevos imanes, cada uno con su
polo norte y su polo sur, solamente que la fuerza de atracción del imán disminuye.
60
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Entre ambos polos se crean líneas de fuerza, siendo estas líneas cerradas, por lo que en el
interior del imán también van de un polo al otro. Como se muestra en la figura, pueden ser
visualizadas esparciendo limaduras de hierro sobre una cartulina situada encima de una barra
imantada; golpeando suavemente la cartulina, las limaduras se orientan en la dirección de las
líneas de fuerza.
Forma de magnetizar una sustancia
Colocando el material en un fuerte campo magnético producido por un magneto permanente o por
una corriente eléctrica, o cuando el material calentado que se puede volver magnético (ej. acero o
lava basáltica) se enfría en la presencia de algún campo magnético.
3.2.2. Magnetismo terrestre.
Campo magnético terrestre
Líneas del campo magnético terrestre. Salen del polo norte magnético hacia el polo sur
Una brújula apunta en la dirección Norte - Sur por tratarse de una aguja imantada inmersa en el
campo magnético terrestre: desde este punto de vista, la Tierra se comporta como un imán
gigantesco y tiene polos magnéticos, los cuales, en la actualidad, no coinciden con los polos
geográficos.
El Polo Norte Magnético se encuentra a 1800 kilómetros del Polo Sur Geográfico. En
consecuencia, una brújula no apunta exactamente hacia el Norte geográfico; la diferencia, medida
en grados, se denomina declinación magnética. La declinación magnética depende del lugar de
observación, por ejemplo actualmente en Madrid (España) es aproximadamente 3º oeste. El polo
sur magnético está desplazándose por la zona norte canadiense en dirección hacia el norte de
Alaska.
Origen del campo magnético terrestre
El origen del campo terrestre permanece aún sin una explicación definitiva, si bien la teoría
comúnmente aceptada es la generación del campo magnético por el Efecto Dinamo. Esta teoría
muestra como un fluido conductor en movimiento (como es el magma terrestre) puede generar y
mantener un campo magnético como el de la Tierra. Por ser de clase variable el campo magnético
tiende a ser de género adyacente esto quiere decir que por no pertenecer a un ángulo
trascendente obtuso la variación del campo no está perfectamente determinada por un patrón
común.
Variaciones del campo magnético terrestre
El campo magnético de la Tierra varía en el curso de las eras geológicas, es lo que se denomina
variación secular. Según se ha comprobado por análisis de los estratos al considerar que los
átomos de hierro contenidos tienden a alinearse con el campo magnético terrestre. La dirección
del campo magnético queda registrada en la orientación de los dominios magnéticos de las rocas
y el ligero magnetismo resultante se puede medir.
61
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Midiendo el magnetismo de rocas situadas en estratos formados en periodos geológicos distintos
se elaboraron mapas del campo magnético terrestre en diversas eras. Estos mapas muestran que
ha habido épocas en que el campo magnético terrestre se ha reducido a cero para luego
invertirse.
Durante los últimos cinco millones de años se han efectuado más de veinte inversiones, la más
reciente hace 700.000 años. Otras inversiones ocurrieron hace 870.000 y 950.000 años. El
estudio de los sedimentos del fondo del océano indica que el campo estuvo prácticamente inactivo
durante 10 o 20 mil años, hace poco más de un millón de años. Esta es la época en la que
surgieron los seres humanos.
No se puede predecir cuándo ocurrirá la siguiente inversión porque la secuencia no es regular.
Ciertas mediciones recientes muestran una reducción del 5% en la intensidad del campo
magnético en los últimos 100 años. Si se mantiene este ritmo el campo volverá a invertirse dentro
de unos 2.002 años.
Campo magnético
El campo magnético es una propiedad del espacio por la cual una carga eléctrica puntual de
valor q que se desplaza a una velocidad , sufre los efectos de una fuerza que es perpendicular y
proporcional tanto a la velocidad como a una propiedad del campo, llamada inducción magnética
(o según algunos autores, Densidad de flujo magnético). Así, dicha carga percibirá una fuerza
descrita como
(Nótese que tanto F como v y B son magnitudes vectoriales y el producto cruz es un producto
vectorial que tiene como resultante un vector perpendicular tanto a v como a B).
La existencia de un campo magnético se pone en evidencia por la propiedad localizada en el
espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar libremente). La
aguja de una brújula, que pone en evidencia la existencia del campo magnético terrestre, puede
ser considerada un magnetómetro.
3.3. Electromagnetismo
3.3.1. Concepto de electromagnetismo y su desarrollo histórico
Electromagnetismo
El Electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y
magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Faraday y formulados por
primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro
ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus
respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética),
conocidas como ecuaciones de Maxwell.
El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que
provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del
tiempo. El Electromagnetismo describe los fenómenos físicos macroscópicos en los cuales
intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y
magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría
macroscópica, es decir, aplicable sólo a un número muy grande de partículas y a distancias
grandes respecto de las dimensiones de éstas, el Electromagnetismo no describe los fenómenos
atómicos y moleculares, para los que es necesario usar la Mecánica Cuántica.
Historia
Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es hasta
inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a conclusiones
científicas de éstos fenómenos.[1] Durante éstos dos siglos, XVII y XVIII, grandes hombres de
ciencia como William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro
62
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Volta entre otros estuvieron investigando estos dos fenómenos de manera separada y llegando a
conclusiones coherentes con sus experimentos.
A principios del siglo XIX Hans Christian Ørsted planteó la hipótesis de que los fenómenos
magnéticos y eléctricos estuviesen relacionados. De ahí es que los trabajos de físicos como
André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en
ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que
describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[1]
Las ahora llamadas ecuaciones de Maxwell demostraba que los campos eléctricos y los campos
magnéticos eran un solo campo electromagnético. Además describía la naturaleza ondulatoria de
la luz, y su semejanza con la naturaleza de los campos magnéticos y eléctricos, como parte de
una onda electromagnética.[2] Con una sola teoría consistente que describía estos dos
fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e
inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente
alterna por Nikola Tesla.[3]
En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el
electromagnétismo tenía que mejorar su fomulación con el objetivo que sea coherente con la
nueva teoría. Ésto se logró en la década de 1940 cuando se completó una teoría cúantica
electromagnética o mejor conocida como electrodinámica cuántica.
3.3.2. Descripción cualitativa del campo magnético producido por una corriente eléctrica en
un conductor recto, una espira y un solenoide.
Cabe destacar que, a diferencia del campo eléctrico, en el campo magnético no existen
monopolos magnéticos, sólo dipolos magnéticos, lo que significa que las líneas de campo
magnético son cerradas, esto es, el número neto de líneas de campo que entran en una superficie
es igual al número de líneas de campo que salen de la misma superficie. Un claro ejemplo de esta
propiedad viene representado por las líneas de campo de un imán, donde se puede ver que el
mismo número de líneas de campo que salen del polo norte vuelve a entrar por el polo sur, desde
donde vuelven por el interior del imán hasta el norte.
Como se puede ver en el dibujo, independientemente de que la carga en movimiento sea positiva
o negativa, en el punto A nunca aparece campo magnético; sin embargo, en los puntos B y C el
campo magnético invierte su sentido dependiendo de si la carga es positiva o negativa. El sentido
del campo magnético viene dado por la regla de la mano derecha, siendo las pautas a seguir las
siguientes:
En primer lugar se imagina un vector qv, en la misma dirección de la trayectoria de la carga en
movimiento. El sentido de este vector depende del signo de la carga, esto es, si la carga es
positiva y se mueve hacia la derecha, el vector +qv estará orientado hacia la derecha. No
obstante, si la carga es negativa y se mueve hacia la derecha, el vector es -qv va hacia la
izquierda.
63
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
A continuación, vamos señalando con los cuatro dedos de la mano derecha (índice, medio, anular
y meñique), desde el primer vector qv hasta el segundo vector Ur, por el camino más corto o, lo
que es lo mismo, el camino que forme el ángulo menor entre los dos vectores. El pulgar extendido
indicará en ese punto el sentido del campo magnético.
Unidades
La unidad de B que se deduce de la ecuación
dado el nombre de tesla.
es
. A esta unidad se le ha
La unidad del campo magnético en el Sistema Internacional de Unidades es el tesla, pese a que a
menudo se emplea el gauss. Sin embargo, la conversión es directa:
1 Tesla equivale a 1 V·s·m-2, o lo que es lo mismo, 1 kg·s-2·A-1. (Véase unidad derivada del SI).
Solenoide
El solenoide es un alambre aislado enrollado en forma de hélice (bobina) en número de espiras
con un paso acorde a las necesidades, por el que circula una corriente eléctrica. Cuando esto
sucede, se genera un campo magnético dentro del solenoide. El solenoide con un núcleo
apropiado se convierte en un imán (en realidad electroimán).
Este tipo de bobinas o solenoides es utilizado para accionar un tipo de válvula, llamada válvula
solenoide, que responde a pulsos eléctricos respecto de su apertura y cierre. Eventualmente
controlable por programa, su aplicación más recurrente en la actualidad, tiene relación con
sistemas de regulación hidráulica y neumática.
Un inductor o bobina es un componente pasivo de un circuito eléctrico que, debido al fenómeno de
la autoinducción, almacena energía en forma de campo magnético.
Construcción
Un inductor está constituido usualmente por una bobina de material conductor, típicamente
alambre o hilo de cobre esmaltado. Existen inductores con núcleo de aire o con núcleo de un
material
ferroso,
para
incrementar
su
inductancia.
Los inductores pueden también estar construidos en circuitos integrados, usando el mismo
proceso utilizado para realizar microprocesadores. En estos casos se usa, comúnmente, el
aluminio como material conductor. Sin embargo, es raro que se construyan inductores dentro de
los circuitos integrados; es mucho más práctico usar un circuito llamado "girador" que, mediante
un amplificador operacional, hace que un condensador se comporte como si fuese un inductor. El
inductor consta de las siguientes partes:
Pieza polar: Es la parte del circuito magnético situada entre la culata y el entrehierro, incluyendo
el núcleo y la expansión polar.
Núcleo: Es la parte del circuito magnético rodeada por el devanado inductor.
Devanado inductor: Es el conjunto de espiras destinado a producir el flujo magnético, al ser
recorrido por la corriente eléctrica.
Expansión polar: Es la parte de la pieza polar próxima al inducido y que bordea al entrehierro.
64
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Polo auxiliar o de conmutación: Es un polo magnético suplementario, provisto o no, de
devanados y destinado a mejorar la conmutación. Suelen emplearse en las máquinas de mediana
y gran potencia.
Culata: Es una pieza de sustancia ferromagnética, no rodeada por devanados, y destinada a unir
los polos de la máquina.
3.3.3. Inducción electromagnética y su relevancia en la electrificación.
La inducción electromagnética es el fenómeno que origina la producción de una fuerza
electromotriz (f.e.m. o voltaje) en un medio o cuerpo expuesto a un campo magnético variable, o
bien en un medio móvil respecto a un campo magnético estático. Es así que, cuando dicho cuerpo
es un conductor, se produce una corriente inducida. Este fenómeno fue descubierto por Michael
Faraday quién lo expresó indicando que la magnitud del voltaje inducido es proporcional a la
variación del flujo magnético (Ley de Faraday).
Por otra parte, Heinrich Lenz comprobó que la corriente debida a la f.e.m. inducida se opone al
cambio de flujo magnético, de forma tal que la corriente tiende a mantener el flujo. Esto es válido
tanto para el caso en que la intensidad del flujo varíe, o que el cuerpo conductor se mueva
respecto de él.
3.3.4. Características de la corriente directa y alterna.
Corriente continua
Representación de la tensión en corriente continua.
La corriente continua (CC en español, en inglés DC, de Direct Current) es el flujo continuo de
electrones a través de un conductor entre dos puntos de distinto potencial. A diferencia de la
corriente alterna (CA en español, AC en inglés), en la corriente continua las cargas eléctricas
circulan siempre en la misma dirección desde el punto de mayor potencial al de menor. Aunque
comúnmente se identifica la corriente continua con la corriente constante (por ejemplo la
suministrada por una batería), es continua toda corriente que mantenga siempre la misma
polaridad.
Corriente alterna
Figura 1: Onda sinoidal.
65
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Se denomina corriente alterna (abreviada CA en español y AC en inglés) a la corriente eléctrica en
la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más
comúnmente utilizada es la de una onda sinoidal (figura 1), puesto que se consigue una
transmisión más eficiente de la energía. Sin embargo, en ciertas aplicaciones se utilizan otras
formas de onda periódicas, tales como la triangular o la cuadrada.
Utilizada genéricamente, la CA se refiere a la forma en la cual la electricidad llega a los hogares y
a las empresas. Sin embargo, las señales de audio y de radio transmitidas por los cables
eléctricos, son también ejemplos de corriente alterna. En estos usos, el fin más importante suele
ser la transmisión y recuperación de la información codificada (o modulada) sobre la señal de la
CA.
-Funcionamiento del transformador, generador y motor eléctrico.
Transformador
Se denomina transformador a una máquina electromagnética que permite aumentar o disminuir el
voltaje o tensión en un circuito eléctrico de corriente alterna, manteniendo la frecuencia. La
potencia que ingresa al equipo, en el caso de un transformador ideal, esto es, sin pérdidas, es
igual a la que se obtiene a la salida. Las máquinas reales presentan un pequeño porcentaje de
pérdidas, dependiendo de su diseño, tamaño, etc.
Si suponemos un equipo ideal y consideramos, simplificando, la potencia como el producto del
voltaje o tensión por la intensidad, ésta debe permanecer constante (ya que la potencia a la
entrada tiene que ser igual a la potencia a la salida).
Los transformadores son dispositivos basados en el fenómeno de la inducción electromagnética y
están constituidos, en su forma más simple, por dos bobinas devanadas sobre un núcleo cerrado
de hierro dulce o hierro silicio. Las bobinas o devanados se denominan primario y secundario
según correspondan a la entrada o salida del sistema en cuestión, respectivamente. También
existen transformadores con más devanados, en este caso puede existir un devanado "terciario",
de menor tensión que el secundario.
Funcionamiento
Representación esquemática del transformador.
Si se aplica una fuerza electromotriz alterna en el devanado primario, las variaciones de
intensidad y sentido de la corriente alterna crearán un campo magnético variable dependiendo de
la frecuencia de la corriente. Este campo magnético variable originará, por inducción, la aparición
de una fuerza electromotriz en los extremos del devanado secundario.
La relación entre la fuerza electromotriz conductora (Ep), la aplicada al devanado primario y la
fuerza electromotriz inducida (Es), la obtenida en el secundario, es directamente proporcional al
número de espiras de los devanados primario (Np) y secundario (Ns) .
66
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Esta particularidad tiene su utilidad para el transporte de energía eléctrica a larga distancia, al
poder efectuarse el transporte a altas tensiones y pequeñas intensidades y por tanto pequeñas
pérdidas.
Así, si el número de espiras (vueltas) del secundario es 100 veces mayor que el del primario, si
aplicamos una tensión alterna de 230 Voltios en el primario, obtendremos 23000 Voltios en el
secundario (una relación 100 veces superior, como lo es la relación de espiras). A la relación entre
el número de vueltas o espiras del primario y las del secundario se le llama relación de vueltas del
transformador o relación de transformación.
Ahora bien, como la potencia aplicada en el primario, en caso de un transformador ideal, debe ser
igual a la obtenida en el secundario, el producto de la fuerza electromotriz por la intensidad
(potencia) debe ser constante, con lo que en el caso del ejemplo, si la intensidad circulante por el
primario es de 10 Amperios, la del secundario será de solo 0,1 amperios (una centésima parte).
Generador eléctrico
Un generador eléctrico es todo dispositivo capaz de mantener una diferencia de potencial eléctrico
entre dos de sus puntos, llamados polos, terminales o bornes. Los generadores eléctricos son
máquinas destinadas a transformar la energía mecánica en eléctrica. Esta transformación se
consigue por la acción de un campo magnético sobre los conductores eléctricos dispuestos sobre
una armadura (denominada también estator). Si mecánicamente se produce un movimiento
relativo entre los conductores y el campo, se generara una fuerza electromotriz (F.E.M.).
Se clasifican en dos tipos fundamentales: primarios y secundarios. Son generadores primarios los
que convierten en energía eléctrica la energía de otra naturaleza que reciben o de la que disponen
inicialmente, mientras que los secundarios entregan una parte de la energía eléctrica que han
recibido previamente . Se agruparán los dispositivos concretos conforme al proceso físico que les
sirve de fundamento.
Motor eléctrico
Un motor eléctrico es un dispositivo rotativo que transforma energía eléctrica en energía
mecánica, y viceversa, convierte la Energía mecánica en energía electrica funcionando como
generador o dynamo. Los motores electricos de tracción usados en locomotoras realizan a
menudo ambas tareas, si se los equipa con frenos dynamo.
Por estos motivos son ampliamente utilizados en instalaciones industriales y demás aplicaciones
que no requieran autonomía respecto de la fuente de energía, dado que la energía eléctrica es
difícil de almacenar. La energía de una batería de varios kg equivale a la que contienen 80 g de
gasolina. Así, en automóviles se están empezando a utilizar en vehículos híbridos para
aprovechar las ventajas de ambos.
Ventajas
En diversas circunstancias presenta muchas ventajas respecto a los motores de combustión:
A igual potencia, su tamaño y peso son más reducidos.
67
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Se pueden construir de cualquier tamaño.
Tiene un par de giro elevado y, según el tipo de motor, prácticamente constante.
Su rendimiento es muy elevado (típicamente en torno al 80%, aumentando el mismo a medida que
se incrementa la potencia de la máquina).
4. Óptica
La Óptica es la rama de la física que estudia el comportamiento de la luz, y los fenómenos que
produce, así como sus características y sus manifestaciones. Abarca el estudio de la reflexión, la
refracción, las interferencias, la difracción, la formación de imágenes y la interacción de la luz con
la materia.
4.1 Desarrollo histórico
Reflexión y refracción
En la Edad Antigua se conocía la propagación rectilínea de la luz y la reflexión y refracción. Dos
filósofos y matemáticos griegos escribieron tratados sobre óptica, Empédocles y Euclides.
Ya en la Edad Moderna René Descartes consideraba la luz como una onda de presión transmitida
a través de un medio elástico perfecto (el éter) que llenaba el espacio. Atribuyó los diferentes
colores a movimientos rotatorios de diferentes velocidades de las partículas en el medio.
La ley de la refracción fue descubierta experimentalmente en 1621 por Willebrord Snell. En 1657
Pierre de Fermat enunció el principio del tiempo mínimo y a partir de él dedujo la ley de la
refracción.
Interferencia y difracción
Robert Boyle y Robert Hooke descubrieron de forma independiente el fenómeno de la
interferencia conocido como anillos de Newton. Hooke también observó la presencia de luz en la
sombra geométrica, debido a la difracción, fenómeno que ya había sido descubierto por
Francesco Maria Grimaldi. Hooke pensaba que la luz consistía en vibraciones propagadas
instantáneamente a gran velocidad y creía que en un medio homogéneo cada vibración generaba
una esfera que crece de forma regular. Con estas ideas, Hooke intentó explicar el fenómeno de la
refracción e interpretar los colores. Sin embargo, los estudios que aclararon las propiedades de
los colores fueron desarrollados por Newton que descubrió en 1666 que la luz blanca puede
dividirse en sus colores componentes mediante un prisma y encontró que cada color puro se
caracteriza por una refractabilidad específica. Las dificultades que la teoría ondulatoria se
encontraba para explicar la propagación rectilínea de la luz y la polarización (descubierta por
Huygens) llevaron a Newton a inclinarse por la teoría corpuscular, que supone que la luz se
propaga desde los cuerpos luminosos en forma de partículas.
Dispersión de la luz en dos prismas de distinto material.
En la época en que Newton publicó su teoría del color, no se
conocía si la luz se propagaba instantáneamente o no. El
descubrimiento de la velocidad finita de la luz lo realizó en 1675 Olaf
Römer a partir de observaciones de los eclipses de Júpiter.
Primeras teorías y otros fenómenos
Por su parte, Hooke fue de los primeros defensores de la teoría
ondulatoria que fue extendida y mejorada por Christian Huygens que
enunció el principio que lleva su nombre, según el cual cada punto
perturbado por una onda puede considerarse como el centro de una
nueva onda secundaria, la envolvente de estas ondas secundarias
define el frente de onda en un tiempo posterior. Con la ayuda de
este principio, consiguió deducir las leyes de la reflexión y refracción.
68
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
También pudo interpretar la doble refracción del espato de Islandia, fenómeno descubierto en
1669 por Erasmus Bartholinus, gracias a la suposición de la transmisión de una onda secundaria
elipsoidal, además de la principal de forma esférica. Durante esta investigación Huygens
descubrió la polarización. Cada uno de los dos rayos emergentes de la refracción del espato de
Islandia puede extinguirse haciéndolo pasar por un segundo cristal del mismo material, rotado
alrededor de un eje con la misma dirección que el rayo luminoso. Fue sin embargo Newton el que
consiguió interpretar este fenómeno, suponiendo que los rayos tenían ―lados‖, propiedad que le
pareció una objeción insuperable para la teoría ondulatoria de la luz, ya que en aquella época los
científicos sólo estaban familiarizados con las ondas longitudinales.
El prestigio de Newton, indujo el rechazo por parte de la comunidad científica de la teoría
ondulatoria, durante casi un siglo, con algunas excepciones, como la de Leonhard Euler. No fue
hasta el comienzo del Siglo XIX en que nuevos progresos llevaron a la aceptación generalizada de
la teoría ondulatoria. El primero de ellos fue la enunciación por Thomas Young en 1801, del
principio de interferencia y la explicación de los colores de películas delgadas. Sin embargo, como
fueron expresadas en términos cualitativos no consiguieron reconocimiento generalizado. En esta
misma época Étienne-Louis Malus describió la polarización por reflexión, en 1808 observó la
reflexión del Sol desde una ventana a través de un cristal de espato de Islandia y encontró que las
dos imágenes birrefringentes variaban sus intensidades relativas al rotar el cristal, aunque Malus
no intentó interpretar el fenómeno.
Aportes de Fresnel
Augustin-Jean Fresnel ganó un premio instituido en 1818 por la academia de París por la
explicación de la difracción, basándose en la teoría ondulatoria, que fue la primera de una serie de
investigaciones que, en el curso de algunos años, terminaron por desacreditar completamente la
teoría corpuscular. Los principios básicos utilizados fueron: el principio de Huygens y el de
interferencia de Young, los cuales, según demostró Fresnel, son suficientes para explicar, no sólo
la propagación rectilínea, sino las desviaciones de dicho comportamiento (como la difracción).
Fresnel calculó la difracción causada por rendijas, pequeñas aperturas y pantallas. Una
confirmación experimental de su teoría de la difracción fue la verificación realizada por François
Jean Dominique Arago de una predicción de Poisson a partir de las teorías de Fresnel, que es la
existencia de una mancha brillante en el centro de la sombra de un disco circular pequeño.
En el mismo año (1818) Fresnel también investigó el problema de la influencia del movimiento
terrestre en la propagación de la luz. Básicamente el problema consistía en determinar si existe
alguna diferencia entre la luz de las estrellas y la de fuentes terrestres. Arago encontró
experimentalmente que (aparte de la aberración) no había diferencia. Sobre la base de este
descubrimiento Fresnel desarrolló su teoría de la convección parcial del éter por interacción con la
materia, sus resultados fueron confirmados experimentalmente en 1851 por Armand Hypolite
Louis Fizeau. Junto con Arago, Fresnel investigó la interferencia de rayos polarizados y encontró
en 1816 que dos rayos polarizados perpendicularmente uno al otro, nunca interferían. Este hecho
no pudo ser reconciliado con la hipótesis de ondas longitudinales, que hasta entonces se había
dado por segura. Young explicó en 1817 el fenómeno con la suposición de ondas transversales.
Fresnel intentó explicar la propagación de la luz como ondas en un material (éter) y dado que en
un fluido sólo son posibles las oscilaciones elásticas longitudinales, concluyó que el éter debía
comportarse como un sólido, pero como en aquella época la teoría de ondas elásticas en sólidos
no estaba desarrollada, Fresnel intentó deducir las propiedades del éter de la observación
experimental. Su punto de partida fueron las leyes de propagación en cristales. En 1832, William
Rowan Hamilton predijo a partir de las teorías de Fresnel la denominada refracción cónica,
confirmada posteriormente de forma experimental por Humprey Lloyd.
Fue también Fresnel el que en 1821 dio la primera indicación de las causas de la dispersión al
considerar la estructura molecular de la materia, idea desarrollada posteriormente por Cauchy.
Los modelos dinámicos de los mecanismos de las vibraciones del éter, llevaron a Fresnel a
deducir las leyes que ahora llevan su nombre y que gobiernan la intensidad y polarización de los
rayos luminosos producidos por la reflexión y refracción.
69
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La teoría del éter
En 1850 Foucault, Fizeau y Breguet realizaron un experimento crucial para decidir entre las
teorías ondulatoria y corpuscular. El experimento fue propuesto inicialmente por Arago y consiste
en medir la velocidad de la luz en aire y agua. La teoría corpuscular explica la refracción en
términos de la atracción de los corpúsculos luminosos hacia el medio más denso, lo que implica
una velocidad mayor en el medio más denso. Por otra parte, la teoría ondulatoria implica, de
acuerdo con el principio de Huygens que en el medio más denso la velocidad es menor.
En las décadas que siguieron, se desarrolló la teoría del éter. El primer paso fue la formulación de
una teoría de la elasticidad de los cuerpos sólidos desarrollada por Claude Louis Marie Henri
Navier que consideró que la materia consiste de un conjunto de partículas ejerciendo entre ellas
fuerzas a lo largo de las líneas que los unen. Diferentes desarrollos aplicables a la Óptica fueron
realizados por Siméon Denis Poisson, George Green, James MacCullagh y Franz Neuman. Todas
ellas encontraban dificultades por intentar explicar el fenómeno óptico en términos mecánicos. Por
ejemplo, al incidir sobre un medio una onda transversal, se deberían producir ondas, tanto
longitudinales como transversales, pero, según los experimentos de Arago y Fresnel, solo se
producen del segundo tipo. Otra objeción a la hipótesis del éter es la ausencia de resistencia al
movimiento de los planetas.
Un primer paso para abandonar el concepto de éter elástico lo realizó MacCullagh, que postuló un
medio con propiedades diferentes a la de los cuerpos ordinarios. Las leyes de propagación de
ondas en este tipo de éter son similares a las ecuaciones electromagnéticas de Maxwell.
Las ondas luminosas como ondas electromagnéticas
Mientras tanto, las investigaciones en electricidad y magnetismo se desarrollaban culminando en
los descubrimientos de Michael Faraday. James Clerk Maxwell consiguió resumir todo el
conocimiento previo en este campo en un sistema de ecuaciones que establecían la posibilidad de
ondas electromagnéticas con una velocidad que podía calcularse a partir de los resultados de
medidas eléctricas y magnéticas. Cuando Rudolph Kohlrausch y Wilhelm Weber realizaron estas
medidas, la velocidad obtenida resultó coincidir con la velocidad de la luz. Esto llevó a Maxwell a
especular que las ondas luminosas eran electromagnéticas, lo que se verificó experimentalmente
en 1888 por Heinrich Hertz.
La teoría cuántica
Pero, incluso la teoría electromagnética de la luz es incapaz de explicar el proceso de emisión y
absorción. Las leyes que rigen estos últimos procesos comenzaron a dilucidarse con Joseph von
Fraunhofer que descubrió entre 1814-1817 líneas oscuras en el espectro solar. La interpretación
como líneas de absorción de las mismas se dio por primera vez en 1861 sobre la base de los
experimentos de Robert Wilhelm Bunsen y Gustav Kirchhoff. La luz de espectro continuo del Sol,
al pasar por los gases de la atmósfera solar, pierde por absorción, justamente aquellas
frecuencias que los gases que la componen emiten. Este descubrimiento marca el inicio del
análisis espectral que se base en que cada elemento químico tiene un espectro de líneas
característico. El estudio de estos espectros no pertenece exclusivamente al campo de la Óptica
ya que involucra la mecánica de los propios átomos y las leyes de las líneas espectrales revelan
información, no tanto sobre la naturaleza de la luz como la estructura de las partículas emisoras.
Finalmente la comunidad científica acabó aceptando que la mecánica clásica es inadecuada para
una descripción correcta de los sucesos que ocurren en el interior de los átomos y debe ser
reemplazada por la teoría cuántica. La aplicación de la misma permitió a Niels Bohr explicar las
leyes de las líneas espectrales de los gases. Así pues, la mecánica cuántica ha influido
decisivamente sobre el concepto científico de la naturaleza de la luz. Fue Albert Einstein el que,
basándose en los cuantos de Planck retomó la teoría corpuscular de la luz en una nueva forma,
asignándole realidad física de dichos cuantos (fotones). De este modo pudo explicar algunos
fenómenos que se habían descubierto, relativos a la transformación de la luz en energía
corpuscular que eran inexplicables con la teoría ondulatoria. Así, en el efecto fotoeléctrico la
energía impartida a las partículas secundarias es independiente de la intensidad y es proporcional
a la frecuencia de la luz.
70
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La teoría detallada de la interacción entre campo y materia requiere de los métodos de la
mecánica cuántica (cuantización del campo). En el caso de la radiación electromagnética, Dirac
fue el primero en realizarlo, fundando las bases de la óptica cuántica.
La óptica a su vez ha influido decisivamente en otros frentes de la física, en particular la rama de
la óptica de cuerpos en movimiento participó en el desarrollo de la teoría de la relatividad. El
primer fenómeno observado en este campo fue la aberración de las estrellas fijas, estudiado por
James Bradley en 1728. El fenómeno aparece con la observación de las estrellas en diferentes
posiciones angulares, dependiendo del movimiento de la Tierra respecto a la dirección del haz de
luz. Bradley interpretó el fenómeno como causado por la velocidad finita de la luz y pudo
determinar su velocidad de este modo. Otro fenómeno de la óptica de cuerpos en movimiento es
la convección de la luz por los cuerpos en movimiento, que Fresnel mostró se podía entenderse
como la participación de éter en el movimiento con sólo una fracción de la velocidad del cuerpo en
movimiento.
Fizeau demostró después esta convección experimentalmente con la ayuda de flujos de agua. El
efecto del movimiento de la fuente luminosa fue estudiado por Christian Doppler, que formuló el
principio de su mismo nombre. Hertz fue el primero en intentar generalizar las leyes de Maxwell a
objetos en movimiento. Su formulación, sin embargo, entraba en conflicto con algunos
experimentos. Otro investigador en este campo fue Hendrik Antoon Lorentz que supuso el éter en
estado de reposo absoluto como portador del campo electromagnético y dedujo las propiedades
de los cuerpos materiales a partir de la interacción de partículas eléctricas elementales (los
electrones). Pudo deducir el coeficiente de convección de Fresnel a partir de su teoría, así como el
resto de fenómenos conocidos en 1895. Sin embargo con la mejora de la precisión en la
determinación de caminos ópticos, obtenida gracias al interferómetro de Albert Abraham
Michelson con el que se descubrió una anomalía: resultó imposible demostrar la existencia de un
corrimiento del éter requerida por la teoría del éter estacionario. Esta anomalía fue resuelta por
Albert Einstein en 1905 con su teoría especial de la relatividad.
Teorías científicas
Desde el punto de vista físico, la luz es una onda electromagnética. Según el modelo utilizado
para la luz, se distingue entre las siguientes ramas, por orden creciente de precisión (cada rama
utiliza un modelo simplificado del empleado por la siguiente):

La óptica geométrica u óptica física: Trata a la luz como un conjunto de rayos que
cumplen el principio de Fermat. Se utiliza en el estudio de la transmisión de la luz por
medios homogéneos (lentes, espejos), la reflexión y la refracción.

La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en cuenta su
frecuencia y longitud de onda. Se utiliza para el estudio de difracción e interferencia.

La óptica electromagnética: Considera a la luz como una onda electromagnética,
explicando así la reflectancia y transmitancia, y los fenómenos de polarización y
anisotropía.

La óptica cuántica: Estudio cuántico de la interacción entre las ondas electromagnéticas y
la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial.
Espectro electromagnético
Si bien la Óptica se inició como una rama de la física distinta del electromagnetismo en la
actualizada se sabe que la luz visible parte del espectro electromagnético, que no es más que el
conjunto de todas las frecuencias de vibración de la las ondas electromagnéticas. Los colores
visibles al ojo humano se agrupan en la parte del espectro denominado visible.
71
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Luz
La luz (del latín lux, lucis) es una onda electromagnética, compuesta por partículas energizadas
llamadas fotones, capaz de ser percibida por el ojo humano y cuya frecuencia o energía determina
su color. La ciencia que estudia las principales formas de producir luz, así como su control y
aplicaciones se denomina óptica.
El espectro electromagnético
En términos generales, el espectro electromagnético abarca, según un orden creciente de
frecuencias (o decreciente de longitudes de onda):

las de radio

las microondas

los rayos infrarrojos

la luz visible

la radiación ultravioleta

los rayos X

los rayos gamma.
El espectro visible
Espectro visible
La luz visible (al ojo humano) forma parte de una estrecha franja que va desde longitudes de onda
de 380 nm (violeta) hasta los 780 nm (rojo). Los colores del espectro se ordenan como en el arco
iris, formando el llamado espectro visible.
Frecuencia y longitud de onda se relacionan por la expresión:
donde c es la velocidad de la luz en el vacío, frecuencia f ó ν, y longitud de onda λ.
Objetos visibles
Hay dos tipos de objetos visibles: aquellos que por sí mismos emiten luz y los que la reflejan. El
color de estos depende del espectro de la luz que incide y de la absorción del objeto, la cual
determina qué ondas son reflejadas.
72
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
La luz blanca se produce cuando todas las longitudes de onda del espectro visible están
presentes en proporciones e intensidades iguales. Esto se verifica en un disco que gira
velozmente y que contiene todos los colores distribuidos uniformemente.
El ojo humano es sensible a este pequeño rango del espectro radioeléctrico. Las ondas que tienen
menor frecuencia que la luz (por ejemplo la radiofrecuencia), tienen mayor longitud de onda, y
rodean los objetos sin interaccionar con ellos. Esto permite tener cobertura en el teléfono móvil
aún dentro de una casa. Las ondas de mayor frecuencia que la luz tienen una longitud de onda
tan pequeña que atraviesan la materia, por ejemplo los rayos X atraviesan algunos materiales
como la carne, aunque no los huesos. Es sólo en la franja del espectro que va desde el violeta
hasta el rojo donde las ondas electromagnéticas interaccionan (se reflejan o absorben) con la
materia y permiten ver los objetos, sus formas, su posición, etc. Dentro de esta franja del espectro
se puede determinar qué frecuencia o conjunto de frecuencias refleja o emite cada objeto, es
decir, el color que tiene.
Naturaleza de la luz
La luz se compone de partículas energizadas denominadas fotones, cuyo grado de energía y
frecuencia determina la longitud de onda y el color. Según estudios científicos, la luz sería una
corriente de paquetes fotónicos que se mueven en el campo en forma ondulatoria por un lado y en
forma corpuscular por otro.
Teoría corpuscular
Newton descubre en 1666 que la luz natural, al pasar a través de un prisma es separada en una
gama de colores que van desde el rojo al azul; concluye que la luz blanca o natural está
compuesta por todos lo colores del arcoiris.
Isaac Newton propuso una teoría corpuscular para la luz, en contraposición a un modelo
ondulatorio propuesto por Huygens. Supone que la luz está compuesta por una granizada de
corpúsculos o partículas luminosas, los cuales se propagan en línea recta, que pueden atravesar
medios transparentes y ser reflejados por materias opacas. Esta teoría explica la propagación
rectilínea de la luz, la refracción y la reflexión; pero no explica los anillos de Newton (irisaciones en
las láminas delgadas de los vidrios), que sí lo hace la teoría de Huygens, y tampoco los
fenómenos de interferencia y difracción.
Newton, experimentalmente demostró que la luz blanca, al traspasar un prisma, se dispersa en
rayos de colores y que éstos, a su vez, al pasar por un segundo prisma no se descomponen, sino
que son homogéneos. De esta descomposición de la luz deduce y demuestra que al dejar caer los
rayos monocromáticos sobre un prisma, éstos se recombinan para transformarse en luz blanca.
Se desprende así que ésta resulta de una combinación varia de rayos coloreados que poseen
diferentes grados de refrangibilidad; desde el violeta –el más refrangible- hasta el rojo –que tiene
el menor índice de refracción -. La banda de los colores prismáticos forma el espectro, cuya
investigación y estudio conduciría, en la segunda mitad del siglo XIX, a varios hallazgos
ribeteados con el asombro.
Tal como enunciado, Newton consideró a la luz semejante a un flujo de proyectiles que son
emitidos por un cuerpo que genera luminosidad. Supuso que la visión era la consecuencia de la
colisión de granizadas de proyectiles que impactaban en los ojos. Con su hipótesis corpuscular,
intentó explicar el hermoso fenómeno de los anillos de colores engendrados por láminas delgadas
(los famosos anillos de Newton) e interpretó igualmente la refracción de la luz dentro de la
hipótesis corpuscular, aceptando que las partículas luminosas, al pasar de un ambiente poco
denso (aire) a otro más denso (cristales), aumentan su velocidad debido a una atracción más
fuerte. Esta conclusión, en nada es coincidente con la teoría ondulatoria de la luz, la que propugna
una propagación más lenta de la luz en el paso a través de materiales más densos.
La teoría sobre una naturaleza corpuscular de la luz, sustentada por el enorme prestigio de
Newton, prevaleció durante el siglo XVIII, pero debió ceder hacia mediados del siglo XIX frente a
la teoría ondulatoria que fue contrastada con éxito con la experiencia. En la física actual, el
descubrimiento de nuevos fenómenos ha llevado –sin arrinconar la teoría ondulatoria- a una
conciliación de ambas ponencias teóricas.
73
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Teoría ondulatoria
Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera
como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al
que se produce con el sonido. Ahora, como los físicos de la época consideraban que todas las
ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se
postula como medio a una materia insustancial e invisible a la cual se le llamó éter (cuestión que
es tratada con mayores detalles en la separata 4.03 de este mismo capítulo).
Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En
ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los
sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta
la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya
que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera
resistencia al libre tránsito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a
través de medios sólidos.)
En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente por el
prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría
Ondulatoria de la luz. Los experimentos del médico inglés Thomas Young sobre los fenómenos de
interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron
decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la
propuesta realizada en el siglo XVII por Huygens.
Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de
que la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. En
una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla
al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes
y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo
iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la
alternancia de las franjas por la imagen de las ondas acuáticas. Si las ondas suman sus crestas
hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la
cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción
simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una
materia insustancial e invisible, el éter, al cual se le resucita.
Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz
estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la
explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento
ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las
vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa,
en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las
adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta
doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas
transversales, debido a que éstas sólo se propagan en medios sólidos.
En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada.
Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si
están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo
invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la
propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La
conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo
propusiera, sino perpendiculares a la dirección de propagación, transversales.
Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la
época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de
mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la
luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau
(1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Al hacer pasar la luz
reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la
74
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000
km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de
propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio
entre la teoría corpuscular y la ondulatoria. La primera, como señalamos, requería que la
velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus
experimentos, Foucault logró comprobar, en 1851, que la velocidad de la luz cuando transcurre
por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria
adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis
realizada por Maxwell.
Naturaleza cuántica de la luz
Sin embargo, la teoría electromagnética clásica no podía explicar la emisión de electrones por un
conductor cuando incide luz sobre su superficie, fenómeno conocido como efecto fotoeléctrico.
Este efecto consiste en la emisión espontánea de electrones (o la generación de una diferencia de
potencial eléctrico) en algunos sólidos (metálicos o semiconductores) irradiados por luz. Fue
descubierto y descrito experimentalmente por Heinrich Hertz en 1887 y suponía un importante
desafío a la teoría electromagnética de la luz. En 1905, el joven físico Albert Einstein presentó una
explicación del efecto fotoeléctrico basándose en una idea propuesta anteriormente por Planck
para la emisión espontánea de radiación lumínica por cuerpos cálidos y postuló que la energía de
un haz luminoso se hallaba concentrada en pequeños paquetes, que denominó cuantos de
energía y que en el caso de la luz se denominan fotones. El mecanismo del efecto fotoeléctrico
consistiría en la transferencia de energía de un fotón a un electrón. Cada fotón tiene una energía
proporcional a la frecuencia de vibración del campo electromagnético que lo conforma.
Posteriormente, los experimentos de Millikan demostraron que la energía cinética de los
fotoelectrones coincidía exactamente con la dada por la fórmula de Einstein.
El punto de vista actual es aceptar el hecho de que la luz posee una doble naturaleza que explica
de forma diferente los fenómenos de la propagación de la luz (naturaleza ondulatoria) y de la
interacción de la luz y la materia (naturaleza corpuscular). Esta dualidad onda/partícula, postulada
inicialmente para la luz, se aplica en la actualidad de manera generalizada para todas las
partículas materiales y constituye uno de los principios básicos de la mecánica cuántica.
Velocidad de la luz
La velocidad de la luz en el vacío, según la Teoría de la Relatividad de Einstein, es una constante
para todos los observadores y se representa mediante la letra c (del latín celeritas). En el Sistema
Internacional de Unidades se toma el valor:
c = 299.792.458 m/s o c = 299.792,458 km/s
Medición de la velocidad de la luz
Galileo Galilei (1564-1642), físico y astrónomo italiano, fue el primero en intentar medir la
velocidad de la luz, pero el primero en encontrar un método efectivo a tal fin fue el astrónomo
danés Ole Roemer (1644-1710) quien calculó en 1676 y a partir de "demoras" en los eclipses de
las lunas de Júpiter, que la velocidad de la luz era de aproximadamente 225.302 km/s.
Velocidad de las señales
Ninguna señal que contenga información puede transmitirse a velocidades superiores a la
velocidad de la luz en el vacío. Este hecho es explicado en el marco de la teoría de la relatividad
especial de Einstein y es una consecuencia del Principio de causalidad.
Velocidad de la luz en distintos medios
La velocidad de la luz varía según el medio en el cual se propaga, siendo más lenta en el vidrio
que en el vacío o el aire. Por esto se denomina IOR (Índice de refracción) de un medio al cociente
de la velocidad de la luz en el vacío y la velocidad de la luz en el medio que se desea calcular.
Ejemplos: IOR del Vacio = 1,00000
75
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
(En Condiciones normales de presión y temperatura) IOR del Aire = 1,00029 IOR del Agua =
1,333 IOR del Diamante = 2,417
Refracción de la luz
Una refracción es la desviación de un haz de luz provocado por el cambio de medio a otro con
distinto IOR (Índice de refracción). Este fenómeno puede ser observado cuando uno introduce un
lápiz en un vaso con agua o cuando una lupa concentra los rayos de luz en un sólo punto.
Velocidad de la luz en medios dieléctricos
La luz se propaga a velocidades menores en medios dieléctricos. Cuando en un medio material
una partícula supera la velocidad de la luz correspondiente a dicho medio, se produce una emisión
secundaria de luz denominada radiación de Cherenkov. Este efecto se observa en reactores
nucleares que utilizan el agua para apantallar emisiones de neutrones y en los grandes detectores
de neutrinos de agua pesada, como el Kamiokande, cuando un neutrino atraviesa el hielo produce
la luz denominada "luz de Cherenkov". También se produce un tipo de radiación de Cherenkov en
la alta atmósfera terrestre, causado por el impacto de rayos cósmicos y otras partículas de muy
alta energía.
Cambios en la velocidad de la luz
Algunas teorías cosmológicas apuntan la posibilidad de que el valor de la velocidad de la luz en el
vacío podría haber variado a lo largo de la historia del Universo aunque no hay datos
observacionales que permitan demostrar esta hipótesis.
Según las últimas investigaciones, entre ellas las de un astrónomo australiano, y un físico teórico
portugués, este dato se está corroborando.
¿Se puede superar la velocidad de la luz?
En numerosas ocasiones se han planteado experimentos o hechos observados en los que se
afirma haber superado la velocidad de la luz. En el marco actual de la física es difícil concebir tal
hecho porque esta barrera forma parte intrínseca de la estructura del espaciotiempo. Los físicos
actuales sostienen que no es posible superar la velocidad de la luz en el vacío, algo difícilmente
comprensible por los no entendidos en relatividad y que es considerado, frecuentemente, como
una visión fundamentalista.
4.2 Óptica geométrica
La óptica geométrica parte de las leyes fenomenológicas de Snell de la reflexión y la refracción.
A partir de ellas, basta hacer geometría con los rayos luminosos para la obtención de las fórmulas
que corresponden a los espejos, dioptrio y lentes (o sus combinaciones), obteniendo así las leyes
que gobiernan los instrumentos ópticos a que estamos acostumbrados.
La óptica geométrica usa la noción de rayo luminoso; es una aproximación del comportamiento
que corresponde a las ondas electromagnéticas (la luz) cuando los objetos involucrados son de
tamaño mucho mayor que la longitud de onda usada; ello permite despreciar los efectos derivados
de la difracción, comportamiento ligado a la naturaleza ondulatoria de la luz. Óptica geométrica
Este campo de la óptica se ocupa de la aplicación de las leyes de reflexión y refracción de la luz al
diseño de lentes y otros componentes de instrumentos ópticos.
Reflexión y refracción
Refracción de la luz en diamantes El brillo de los diamantes se debe a su elevado índice de
refracción, aproximadamente 2,4. El índice de refracción de un material transparente indica cuánto
desvía los rayos de luz. La habilidad del joyero reside en tallar las facetas de modo que cada rayo
de luz se refleje muchas veces antes de salir de la piedra. El índice de refracción es ligeramente
distinto para cada color de la luz, por lo que la luz blanca se divide en sus componentes dando
lugar a los fuegos multicolores de los diamantes.
Si un rayo de luz que se propaga a través de un medio homogéneo incide sobre la superficie de
un segundo medio homogéneo, parte de la luz es reflejada y parte entra como rayo refractado en
76
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
el segundo medio, donde puede o no ser absorbido. La cantidad de luz reflejada depende de la
relación entre los índices de refracción de ambos medios. El plano de incidencia se define como el
plano formado por el rayo incidente y la normal (es decir, la línea perpendicular a la superficie del
medio) en el punto de incidencia (véase figura 1). El ángulo de incidencia es el ángulo entre el
rayo incidente y la normal. Los ángulos de reflexión y refracción se definen de modo análogo.
Las leyes de la reflexión afirman que el ángulo de incidencia es igual al ángulo de reflexión, y que
el rayo incidente, el rayo reflejado y la normal en el punto de incidencia se encuentran en un
mismo plano. Si la superficie del segundo medio es lisa, puede actuar como un espejo y producir
una imagen reflejada (figura 2). En la figura 2, la fuente de luz es el objeto A; un punto de A emite
rayos en todas las direcciones. Los dos rayos que inciden sobre el espejo en B y C, por ejemplo,
se reflejan como rayos BD y CE. Para un observador situado delante del espejo, esos rayos
parecen venir del punto F que está detrás del espejo. De las leyes de reflexión se deduce que CF
y BF forman el mismo ángulo con la superficie del espejo que AC y AB. En este caso, en el que el
espejo es plano, la imagen del objeto parece situada detrás del espejo y separada de él por la
misma distancia que hay entre éste y el objeto que está delante.
Si la superficie del segundo medio es rugosa, las normales a los distintos puntos de la superficie
se encuentran en direcciones aleatorias. En ese caso, los rayos que se encuentren en el mismo
plano al salir de una fuente puntual de luz tendrán un plano de incidencia, y por tanto de reflexión,
aleatorio. Esto hace que se dispersen y no puedan formar una imagen.
Ley de Snell
Esta importante ley, llamada así en honor del matemático holandés Willebrord van Roijen Snell,
afirma que el producto del índice de refracción del primer medio y el seno del ángulo de incidencia
de un rayo es igual al producto del índice de refracción del segundo medio y el seno del ángulo de
refracción. El rayo incidente, el rayo refractado y la normal a la superficie de separación de los
medios en el punto de incidencia están en un mismo plano. En general, el índice de refracción de
una sustancia transparente más densa es mayor que el de un material menos denso, es decir, la
velocidad de la luz es menor en la sustancia de mayor densidad. Por tanto, si un rayo incide de
forma oblicua sobre un medio con un índice de refracción mayor, se desviará hacia la normal,
mientras que si incide sobre un medio con un índice de refracción menor, se desviará alejándose
de ella. Los rayos que inciden en la dirección de la normal son reflejados y refractados en esa
misma dirección.
Ley de Snell:
n1seni = n2senr
Para un observador situado en un medio menos denso, como el aire, un objeto situado en un
medio más denso parece estar más cerca de la superficie de separación de lo que está en
realidad. Un ejemplo habitual es el de un objeto sumergido, observado desde encima del agua,
como se muestra en la figura 3 (sólo se representan rayos oblicuos para ilustrar el fenómeno con
más claridad). El rayo DB procedente del punto D del objeto se desvía alejándose de la normal,
hacia el punto A. Por ello, el objeto parece situado en C, donde la línea ABC intersecta una línea
perpendicular a la superficie del agua y que pasa por D.
En la figura 4 se muestra la trayectoria de un rayo de luz que atraviesa varios medios con
superficies de separación paralelas. El índice de refracción del agua es más bajo que el del vidrio.
Como el índice de refracción del primer y el último medio es el mismo, el rayo emerge en dirección
paralela al rayo incidente AB, pero resulta desplazado.
4.3 Prismas
Cuando la luz atraviesa un prisma —un objeto transparente con superficies planas y pulidas no
paralelas—, el rayo de salida ya no es paralelo al rayo incidente. Como el índice de refracción de
una sustancia varía según la longitud de onda, un prisma puede separar las diferentes longitudes
de onda contenidas en un haz incidente y formar un espectro. En la figura 5, el ángulo CBD entre
la trayectoria del rayo incidente y la trayectoria del rayo emergente es el ángulo de desviación.
Puede demostrarse que cuando el ángulo de incidencia es igual al ángulo formado por el rayo
77
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
emergente, la desviación es mínima. El índice de refracción de un prisma puede calcularse
midiendo el ángulo de desviación mínima y el ángulo que forman las caras del prisma.
Leyes
Ángulo crítico
Puesto que los rayos se alejan de la normal cuando entran en un medio menos denso, y la
desviación de la normal aumenta a medida que aumenta el ángulo de incidencia, hay un
determinado ángulo de incidencia, denominado ángulo crítico, para el que el rayo refractado forma
un ángulo de 90°. Con la normal, por lo que avanza justo a lo largo de la superficie de separación
entre ambos medios. Si el ángulo de incidencia se hace mayor que el ángulo crítico, los rayos de
luz serán totalmente reflejados. La reflexión total no puede producirse cuando la luz pasa de un
medio menos denso a otro más denso. Las tres ilustraciones de la figura 6 muestran la refracción
ordinaria, la refracción en el ángulo crítico y la reflexión total.
La fibra óptica es una nueva aplicación práctica de la reflexión total. Cuando la luz entra por un
extremo de un tubo macizo de vidrio o plástico, puede verse reflejada totalmente en la superficie
exterior del tubo y, después de una serie de reflexiones totales sucesivas, salir por el otro extremo.
Es posible fabricar fibras de vidrio de diámetro muy pequeño, recubrirlas con un material de índice
de refracción menor y juntarlas en haces flexibles o placas rígidas que se utilizan para transmitir
imágenes. Los haces flexibles, que pueden emplearse para iluminar además de para transmitir
imágenes, son muy útiles para la exploración médica, ya que pueden introducirse en cavidades
estrechas e incluso en vasos sanguíneos.
Superficies esféricas y asféricas
La mayor parte de la terminología tradicional de la óptica geométrica se desarrolló en relación con
superficies esféricas de reflexión y refracción. Sin embargo, a veces se consideran superficies no
esféricas o asféricas. El eje óptico es una línea de referencia que constituye un eje de simetría, y
pasa por el centro de una lente o espejo esféricos y por su centro de curvatura. Si un haz de rayos
estrecho que se propaga en la dirección del eje óptico incide sobre la superficie esférica de un
espejo o una lente delgada, los rayos se reflejan o refractan de forma que se cortan, o parecen
cortarse, en un punto situado sobre el eje óptico. La distancia entre ese punto (llamado foco) y el
espejo o lente se denomina distancia focal. Cuando una lente es gruesa, los cálculos se realizan
refiriéndolos a unos planos denominados planos principales, y no a la superficie real de la lente. Si
las dos superficies de una lente no son iguales, ésta puede tener dos distancias focales, según
cuál sea la superficie sobre la que incide la luz. Cuando un objeto está situado en el foco, los
rayos que salen de él serán paralelos al eje óptico después de ser reflejados o refractados. Si una
lente o espejo hace converger los rayos de forma que se corten delante de dicha lente o espejo, la
imagen será real e invertida. Si los rayos divergen después de la reflexión o refracción de modo
que parecen venir de un punto por el que no han pasado realmente, la imagen no está invertida y
se denomina imagen virtual. La relación entre la altura de la imagen y la altura del objeto se
denomina aumento lateral.
Si se consideran positivas las distancias del eje x medidas desde una lente o espejo en el sentido
contrario a la luz incidente contado a partir del vértice. Eje +y hacia arriba, entonces, siendo u la
distancia del objeto, v la distancia de la imagen y f la distancia focal de un espejo o una lente
delgada, los espejos esféricos cumplen la ecuación
1/u + 1/v = 1/f
y las lentes esféricas la ecuación
1/u - 1/v = 1/f
Si llamamos y al tamaño del objeto e y' al de la imágen, entonces para el agrandamiento la
expresión será la siguiente:
A = y'/y
Si una lente simple tiene superficies de radios r 1 y r 2 y la relación entre su índice de refracción y
el del medio que la rodea es n, se cumple que
78
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
1 = n - n0 [ 1 - 1 ]
f n0 r2 r1
La distancia focal de un espejo esférico es igual a la mitad de su radio de curvatura. Como se
indica en la figura 7, los rayos que se desplazan en un haz estrecho en la dirección del eje óptico
e inciden sobre un espejo cóncavo cuyo centro de curvatura está situado en C, se reflejan de
modo que se cortan en B, a media distancia entre A y C. Si la distancia del objeto es mayor que la
distancia AC, la imagen es real, reducida e invertida. Si el objeto se encuentra entre el centro de
curvatura y el foco, la imagen es real, aumentada e invertida. Si el objeto está situado entre la
superficie del espejo y su foco, la imagen es virtual, aumentada y no invertida. Un espejo convexo
sólo forma imágenes virtuales, reducidas y no invertidas, a no ser que se utilice junto con otros
componentes ópticos.
4.4 Lentes
Una lente es un medio u objeto que concentra o dispersa rayos de luz.
Las lentes más comunes se basan en el distinto grado de refracción que experimentan los rayos
de luz al incidir en puntos diferentes de la lente. Entre ellas están las utilizadas para corregir los
problemas de visión en gafas, anteojos o lentillas. También se usan lentes, o combinaciones de
lentes y espejos, en telescopios y microscopios. El primer telescopio astronómico fue construido
por Galileo Galilei usando dos lentes convergentes.
Existen también instrumentos capaces de hacer converger o divergir otros tipos de ondas
electromagnéticas y a los que se les denomina también lentes. Por ejemplo, en los microscopios
electrónicos las lentes son de carácter magnético.
En astrofísica es posible observar fenómenos de lentes gravitatorias cuando la luz procedente de
objetos muy lejanos pasa cerca de objetos masivos, curvándose en su trayectoria.
Origen de la palabra Lente
La palabra lente proviene del latín "lentis" que significa "lenteja" con lo que a las lentes ópticas se
las denomina así por similitud de forma con la legumbre. En el siglo XIV empezaron a fabricarse
pequeños discos de vidrio que podían montarse sobre un marco. Fueron las primeras gafas de
lectura.
Tipos principales de lentes.
Lente convexa. Una lente convexa es más gruesa en el centro que en los extremos. La luz que
atraviesa una lente convexa se desvía hacia dentro (converge). Esto hace que se forme una
imagen del objeto en una pantalla situada al otro lado de la lente. La imagen está enfocada si la
pantalla se coloca a una distancia determinada, que depende de la distancia del objeto y del foco
de la lente. La lente del ojo humano es convexa, y además puede cambiar de forma para enfocar
objetos a distintas distancias. La lente se hace más gruesa al mirar objetos cercanos y más
delgada al mirar objetos lejanos. A veces, los músculos del ojo no pueden enfocar la luz sobre la
retina, la pantalla del globo ocular. Si la imagen de los objetos cercanos se forma detrás de la
retina, se dice que existe hipermetropía.
Lente cóncava. Las lentes cóncavas están curvadas hacia dentro. La luz que atraviesa una lente
cóncava se desvía hacia fuera (diverge). A diferencia de las lentes convexas, que producen
imágenes reales, las cóncavas sólo producen imágenes virtuales, es decir, imágenes de las que
parecen proceder los rayos de luz. En este caso es una imagen más pequeña situada delante del
79
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
objeto (el trébol). En las gafas o anteojos para miopes, las lentes cóncavas hacen que los ojos
formen una imagen nítida en la retina y no delante de ella.
Lupa. Una lupa es una lente convexa grande empleada para examinar objetos pequeños. La lente
desvía la luz incidente de modo que se forma una imagen virtual ampliada del objeto (en este caso
un hongo) por detrás del mismo. La imagen se llama virtual porque los rayos que parecen venir de
ella no pasan realmente por ella. Una imagen virtual no se puede proyectar en una pantalla.
Las lentes con superficies de radios de curvatura pequeños tienen distancias focales cortas. Una
lente con dos superficies convexas siempre refractará los rayos paralelos al eje óptico de forma
que converjan en un foco situado en el lado de la lente opuesto al objeto. Una superficie de lente
cóncava desvía los rayos incidentes paralelos al eje de forma divergente; a no ser que la segunda
superficie sea convexa y tenga una curvatura mayor que la primera, los rayos divergen al salir de
la lente, y parecen provenir de un punto situado en el mismo lado de la lente que el objeto. Estas
lentes sólo forman imágenes virtuales, reducidas y no invertidas.
Si la distancia del objeto es mayor que la distancia focal, una lente convergente forma una imagen
real e invertida. Si el objeto está lo bastante alejado, la imagen será más pequeña que el objeto. Si
la distancia del objeto es menor que la distancia focal de la lente, la imagen será virtual, mayor
que el objeto y no invertida. En ese caso, el observador estará utilizando la lente como una lupa o
microscopio simple. El ángulo que forma en el ojo esta imagen virtual aumentada (es decir, su
dimensión angular aparente) es mayor que el ángulo que formaría el objeto si se encontrara a la
distancia normal de visión. La relación de estos dos ángulos es la potencia de aumento de la
lente. Una lente con una distancia focal más corta crearía una imagen virtual que formaría un
ángulo mayor, por lo que su potencia de aumento sería mayor. La potencia de aumento de un
sistema óptico indica cuánto parece acercar el objeto al ojo,y es diferente del aumento lateral de
una cámara o telescopio, por ejemplo, donde la relación entre las dimensiones reales de la
imagen real y las del objeto aumenta según aumenta la distancia focal.
La cantidad de luz que puede admitir una lente aumenta con su diámetro. Como la superficie que
ocupa una imagen es proporcional al cuadrado de la distancia focal de la lente, la intensidad
luminosa de la superficie de la imagen es directamente proporcional al diámetro de la lente e
inversamente proporcional al cuadrado de la distancia focal. Por ejemplo, la imagen producida por
una lente de 3 cm de diámetro y una distancia focal de 20 cm sería cuatro veces menos luminosa
que la formada por una lente del mismo diámetro con una distancia focal de 10 cm. La relación
entre la distancia focal y el diámetro efectivo de una lente es su relación focal, llamada también
número f. Su inversa se conoce como abertura relativa. Dos lentes con la misma abertura relativa
tienen la misma luminosidad, independientemente de sus diámetros y distancias focales.
Aberración
La óptica geométrica predice que la imagen de un punto formada por elementos ópticos esféricos
no es un punto perfecto, sino una pequeña mancha. Las partes exteriores de una superficie
esférica tienen una distancia focal distinta a la de la zona central, y este defecto hace que la
imagen de un punto sea un pequeño círculo. La diferencia en distancia focal entre las distintas
partes de la sección esférica se denomina aberración esférica. Si la superficie de una lente o
espejo, en lugar de ser una parte de una esfera es una sección de un paraboloide de revolución,
los rayos paralelos que inciden en cualquier zona de la superficie se concentran en un único
punto, sin aberración esférica. Mediante combinaciones de lentes convexas y cóncavas puede
corregirse la aberración esférica, pero este defecto no puede eliminarse con una única lente
esférica para un objeto e imagen reales.
El fenómeno que consiste en un aumento lateral distinto para los puntos del objeto no situados en
el eje óptico se denomina coma. Cuando hay coma, la luz procedente de un punto forma una
familia de círculos situados dentro de un cono, y en un plano perpendicular al eje óptico la imagen
adquiere forma de gota. Escogiendo adecuadamente las superficies puede eliminarse la coma
para un determinado par de puntos objeto-imagen, pero no para todos los puntos. Los puntos del
objeto y la imagen correspondientes entre sí (o conjugados) para los que no existe aberración
esférica ni coma se denominan puntos aplanáticos, y una lente para la que existe dicho par de
puntos se denomina lente aplanática.
80
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
El astigmatismo es un defecto por el que la luz procedente de un punto del objeto situado fuera del
eje se esparce en la dirección del eje óptico. Si el objeto es una línea vertical, la sección
transversal del haz refractado es una elipse; a medida que se aleja uno de la lente, la elipse se
transforma primero en una línea horizontal, luego vuelve a expandirse y posteriormente pasa a ser
una línea vertical. Si en un objeto plano, la superficie de mejor enfoque está curvada, se habla de
‗curvatura de imagen‘. La ‗distorsión‘ se debe a una variación del aumento con la distancia axial, y
no a una falta de nitidez de la imagen.
Como el índice de refracción varía con la longitud de onda, la distancia focal de una lente también
varía, y produce una ‗aberración cromática‘ axial o longitudinal. Cada longitud de onda forma una
imagen de tamaño ligeramente diferente; esto produce lo que se conoce por aberración cromática
lateral. Mediante combinaciones (denominadas acromáticas) de lentes convergentes y divergentes
fabricadas con vidrios de distinta dispersión es posible minimizar la aberración cromática. Los
espejos están libres de este defecto. En general, en las lentes acromáticas se corrige la
aberración cromática para dos o tres colores determinados.
Las lentes son medios transparentes limitados por dos superficies, siendo curva al menos una de
ellas.
Tipos de lentes convergentes
Las lentes convergentes son más gruesas por el centro que por el borde, y concentran (hacen
converger) en un punto los rayos de luz que las atraviesan. A este punto se le llama foco (F) y la
separación entre él y la lente se conoce como distancia focal (f).
Observa que la lente 2 tiene menor distancia focal que la 1.
Decimos, entonces, que la lente 2 tiene mayor potencia que la 1.
La potencia de una lente es la inversa de su distancia focal y se
mide en dioptrías si la distancia focal la medimos en metros.
Las lentes convergentes se utilizan en muchos instrumentos ópticos y también para la corrección
de la hipermetropía. Las personas hipermétropes no ven bien de cerca y tienen que alejarse los
objetos. Una posible causa de la hipermetropía es el achatamiento anteroposterior del ojo que
supone que las imágenes se formarían con nitidez por detrás de la retina.
81
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Si las lentes son más gruesas por los bordes que por el centro, hacen diverger (separan) los
rayos de luz que pasan por ellas, por lo que se conocen como lentes divergentes.
Tipos de lentes divergentes
Si miramos por una lente divergente da la sensación de que los
rayos proceden del punto F. A éste punto se le llama foco virtual.
En las lentes divergentes la distancia focal se considera negativa.
La miopía puede deberse a una deformación del ojo consistente en un alargamiento
anteroposterior que hace que las imágenes se formen con nitidez antes de alcanzar la retina. Los
miopes no ven bien de lejos y tienden a acercarse demasiado a los objetos. Las lentes
divergentes sirven para corregir este defecto.
Formación de imágenes:
Si tomas una lente convergente (seguro que las tienes en el laboratorio de tu Centro) y la mueves
acercándola y alejándola de un folio blanco que sostienes con la otra mano, comprobarás que
para una cierta distancia se forma una imagen invertida y más pequeña de los objetos que se
encuentran alejados de la lente. Cuando es posible proyectar la imagen formada decimos que se
trata de una imagen real, y si no la podemos proyectar la denominamos imagen virtual.
82
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
Las lentes convergentes, para objetos alejados,
forman imágenes reales, invertidas y de menor
tamaño que los objetos
En cambio, si miras un objeto cercano a través de la lente, observarás que se forma una imagen
derecha y de mayor tamaño que el objeto.
Para objetos próximos forman imágenes virtuales,
derechas y de mayor tamaño.
Intenta hacer lo mismo con una lente divergente y observarás que no es posible obtener una
imagen proyectada sobre el papel y que al mirar a su través se ve una imagen derecha y de
menor tamaño que los objetos.
Las imágenes producidas por las lentes divergentes
son virtuales, derechas y menores que los objetos
Espejos
Un espejo es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la
reflexión.
El ejemplo más simple es el espejo plano. En él, un haz de rayos de luz paralelos puede cambiar
de dirección completamente como conjunto y continuar siendo un haz de rayos paralelos,
podiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real.
Sin embargo, la imagen resulta derecha, pero invertida en el eje vertical.
Existen también espejos cóncavos y espejos convexos. Cuando un espejo es cóncavo y la curva
es una parábola, si un rayo incide paralelo al eje del espejo, se refleja pasando por el foco (que es
la mitad del centro óptico de la esfera a la que pertenece el espejo), y si incide pasando por el
foco, se refleja paralelo al eje principal.
Historia
Los espejos como utensilios de tocador y objeto manual fueron muy usados en las civilizaciones
egipcia, griega, etrusca y romana. Se fabricaban siempre con metal bruñido, generalmente cobre,
plata o bronce, a este proceso se le conoce como plateo. Tenían forma de placa redonda u oval,
decorada ordinariamente con grabados o relieves mitológicos en el reverso (los romanos carecen
de grabados, pero no de relieves) y con mango tallado para asirlos cómodamente; de ellos, se
conservan todavía muchos ejemplares en algunos museos arqueológicos. Durante la alta Edad
Media, apenas se hizo uso del espejo, hasta que en el siglo XIII se inventó la fabricación de los de
83
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
vidrio y de cristal de roca sobre lámina metálica (o con amalgama de plomo o estaño que son los
espejos azogados), sin dejar por esto de construirse los de sólo metal hasta el siglo XVIII.
El espejo, como mueble de habitación, empieza con el siglo XVI, pues aunque durante los dos
siglos anteriores se citan algunos ejemplares históricos apenas era conocido y su uso era poco
corriente. En dicho siglo, se presenta con marco elegante y pie artístico y ocupa lugar distinguido
en el salón como objeto movible y de dimensiones reducidas. Hacia fines del siglo XVII las
fábricas venecianas logran construir espejos de gran tamaño y desde entonces sirven como
objetos singularmente decorativos en los salones, en los que ocupan un lugar destacado.
Los espejos modernos consisten de una delgada capa de mercurio o aluminio depositado sobre
una plancha de vidrio, la cual protege el metal y hace al espejo más duradero.
Fórmulas Físicas
Para una imagen formada por un espejo esférico se cumple que:
en la que f es la distancia del foco al espejo, s la distancia del objeto al espejo y s' la distancia de
la imágen formada al espejo, se lee: "La inversa de la distancia focal es igual a la suma de la
inversa de la distancia del objeto al espejo con la inversa de la suma de la imágen formada al
espejo
y
Espejos planos:
Los espejos planos los utilizamos con mucha frecuencia. Si eres buen observador te habrás fijado
en que la imagen producida por un espejo plano es virtual, ya que no la podemos proyectar sobre
una pantalla, tiene el mismo tamaño que el objeto y se encuentra a la misma distancia del espejo
que el objeto reflejado.
Habrás observado también que la parte derecha de la imagen corresponde a la parte izquierda del
objeto y viceversa. Esto se llama inversión lateral.
Espejos esféricos:
Los espejos retrovisores de los automóviles, los que se encuentran en las esquinas de las calles
con poca visibilidad, los que se utilizan para la vigilancia en los centros comerciales, los que
usamos en el cuarto de baño para vernos "aumentados", etc son ejemplos de espejos esféricos.
Hay dos clases de espejos esféricos, los cóncavos y los convexos.
El interior del casquete esférico es la parte La parte reflectante está en el exterior del
reflectante.
casquete esférico.
84
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis
El centro de curvatura (O) es el centro de la esfera a la que pertenece el casquete. Cualquier
rayo que pase por este punto se reflejará sin cambiar de dirección.El centro del casquete esférico
(C) se denomina centro de figura. La línea azul, que pasa por los dos puntos anteriones se
denomina eje óptico.
El foco (F) es el punto en el que se concentran los rayos reflejados, para el caso de los espejos
cóncavos, o sus prolongaciones si se trata de espejos convexos. Llamamos distancia focal de un
espejo a la distancia entre los puntos F y C. Formación de imágenes
En los espejos convexos siempre se forma una imagen virtual y derecha con respecto al objeto:
En los espejos cóncavos, si el objeto se encuentra a una distancia superior a la distancia focal se
forma una imagen real e invertida que puede ser mayor o menor que el objeto :
Si el objeto se encuentra a una distancia inferior a la distancia focal, se forma una imagen virtual y
derecha con respecto al objeto:
85
Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis

Documentos relacionados

Literatura..

Literatura.. 4 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis

Más detalles