De Demócrito a la Máquina de Dios

Transcripción

De Demócrito a la Máquina de Dios
DE DEMÓCRITO
A LA
MÁQUINA DE DIOS
Análisis sobre el cambio de teorías en
las Ciencias Naturales
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
2
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“Desde el origen de la civilización, el hombre no se ha contentado con
ver los acontecimientos como desconectados e inexplicables.
Ha buscado incesantemente un conocimiento del orden subyacente del
mundo. Hoy en día, aún seguimos anhelando saber por qué estamos
aquí y de dónde venimos.
El profundo deseo de conocimiento de la humanidad es justificación
suficiente para continuar nuestra búsqueda. “
Stephen Hawkins
3
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ÍNDICE GENERAL
v Teoría Atómica
Modelos Atómicos de Dalton y Thomson
♦ Cronología histórica…………………………Pág. 10
♦ Análisis………………………………………..Pág. 22
♦ Bibliografía……………………………………Pág. 27
Modelos Atómicos de Rutherford y Bohr
♦ Cronología histórica………………………….Pág. 30
♦ Análisis ………………………………………..Pág. 45
♦ Bibliografía…………………………………….Pág. 52
v Teoría del Flogisto
♦ Cronología Histórica………………………….Pág.54
♦ Análisis…………………………………….......Pág.60
♦ Bibliografía…………………………………….Pág.81
v Teorías del Calor
♦ Cronología histórica…………………………..Pág.84
♦ Análisis…………………………………………Pág.88
♦ Bibliografía……………………………………..Pág.97
v Teoría del Éter
♦ Cronología Histórica………………………….Pág.100
♦ Análisis………………………………………...Pág.106
♦ Bibliografía…………………………………….Pág.114
v Teoría del Enlace Químico
♦ Cronología Histórica………………………….Pág.116
♦ Análisis………………………………………...Pág.123
♦ Bibliografía…………………………………….Pág.125
4
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Introducción
Hace unos días recibí una encuesta del INFOD, donde debía responder a
una serie de preguntas relacionadas a la forma en la que los docentes de los
profesorados ponemos en práctica los saberes disciplinares, didácticos y
pedagógicos.
Si bien los cuestionarios no eran muy extensos, confieso que el tiempo que
me demandó la conclusión de los mismos, fue excesivo. Esto se debió a que
durante algunas de las respuestas, me detuve a reflexionar sobre la
importancia
que tiene el poder contextualizar los contenidos que los
docentes seleccionamos para la confección de nuestras clases.
Probablemente no haya consenso absoluto sobre lo que cada docente
considera más importante para la enseñanza de las Ciencias, aunque estoy
plenamente convencido que existe una visión común sobre lo que es
necesario para comprenderlas. Allí es justamente donde entra a tallar la
interacción entre la producción del mundo científico, la historia de las
ciencias y las discusiones epistemológicas.
En ocasiones, los docentes omitimos involuntariamente mencionar eventos
que probablemente no contribuyeron al desarrollo de una teoría, aunque
esos mismos hechos pudieron ser fundamentales para el desvanecimiento
de una teoría rival. Desde nuestra postura “wight”, transmitimos a nuestros
alumnos la idea sobre un desarrollo lineal de las ciencias e instauramos en
ellos, el concepto de que una teoría refutada se traduce en el descrédito del
científico que la postuló.
Otras veces, se enseña la importancia del método; pero no como un proceso
ordenado que guía una investigación o que
permite dar validez a los
descubrimientos y con ello contribuir al desarrollo de las ciencias, sino como
el procedimiento que permite descubrir. Creemos que desde que las ciencias
pasaron a ser cuantitativas y experimentales, toda teoría es subsumida por
el método. Cómo si el simple hecho de contar con el mismo, llevase
indefectiblemente al objetivo deseado; aunque muchas veces el fenómeno
siga frente a nuestros ojos esperando ser descubierto.
5
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Creo que es fundamental que los alumnos conozcan los acontecimientos
históricos que hicieron posible que sean postuladas las principales teorías de
las disciplinas que enseñamos.
La obra que aquí se presenta es una compilación de trabajos de estudiantes
de 4° año del profesorado de Química del ISFD 35. (Metodología de la
Investigación Educativa en Química)
En principio trabajamos con los alumnos sobre los distintos tipos de
razonamiento, el método inductivo, explicaciones científicas, carga teórica de
la observación e incursionamos en la lectura de las principales corrientes
epistemológicas que buscan describir como se produce el desarrollo de las
ciencias.
Posteriormente se llevó a cabo un proyecto donde cada grupo eligió una
teoría, efectuó un trabajo de investigación acerca de su evolución histórica y
realizó un análisis de la misma a la luz de los contenidos abordados.
Para la producción del mismo elegí teorías que consideré fundamentales
dentro de la Química y que buscan dar respuesta a algunos de los
fenómenos más corrientes de la naturaleza.
El objetivo de este trabajo fue que los alumnos pudiesen conocer cuáles
fueron las experiencias que hicieron posible la formulación de muchas de las
teorías con las que contamos hoy en día.
Profesor: Lic. Marcelo Alejandro Diez.
6
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“TEORÍA ATÓMICA”
7
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
8
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Modelos Atómicos de DALTON Y THOMPSON
Ábalo, Beatriz.
Sánchez, Nancy
9
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRONOLOGÍA HISTÓRICA
En 1808 Dalton publicó su teoría atómica, que retomaba las antiguas ideas
de Leucipo y de Demócrito.
El postulaba que los átomos de un mismo elemento eran iguales entre sí en
masa, tamaño y resto de propiedades físicas o químicas. Difería de los
imaginados por los filósofos griegos, los cuales los creían formados por la
misma materia primordial difiriendo en forma y tamaño.
La hipótesis atómica de los antiguos, era una doctrina filosófica aceptada en
sus especulaciones científicas por hombres como Galileo, Boyle y Newton
entre otros.
Dalton constituye la verdadera teoría científica mediante la cual podían
explicarse y coordinarse cuantitativamente los fenómenos observados y las
leyes de las combinaciones químicas.
La teoría atómica constituyó tan solo inicialmente una hipótesis de trabajo,
muy fecunda en el desarrollo posterior de la química, pues no fue hasta final
del siglo XlX en que fue universalmente aceptada al conocerse pruebas
físicas concluyentes de la existencia real de los átomos. Pero fue entonces
cuando llegó a la conclusión de que los átomos eran entidades complejas
formadas por partículas más sencillas y que los átomos de un mismo
elemento tenían en muchísimos casos masas distintas.
Estas modificaciones sorprendentes de las ideas de Dalton acerca de la
naturaleza de los átomos, no invalidan en el campo de la química los
resultados brillantes de la teoría atómica.
Las suposiciones de Dalton permiten explicar fácilmente las leyes
ponderales de las combinaciones químicas ya que la composición en peso
de un determinado compuesto viene determinada por el número y peso de
los átomos elementales que integran el átomo compuesto.
Para Dalton, las partículas gaseosas como H2, O2, CL2, y otros, eran
necesariamente simples y estaban constituidas por un solo átomo, y que los
compuestos como el H2O o cloruro de hidrógeno eran naturalmente
compuestos pero formadas por solo dos átomos diferentes.
10
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Sin embargo, con estas fórmulas no se podían explicar las relaciones
volumétricas de Gay-Lussac de que un volumen de cloro se une con un
volumen de hidrógeno para dar lugar a dos volúmenes de cloruro de
hidrógeno llevó a Dalton a suponer que en los volúmenes iguales de cloro y
de hidrógeno debían existir igual número de átomos.
Al imaginar que estos elementos se unen átomo a átomo, formarán un
mismo número de átomos (hoy moléculas) de cloruro de hidrógeno, al ser
estos átomos indivisibles, debían ocupar, en cambio un
volumen doble
según los resultados de Gay-Lussac.
La hipótesis de que a volúmenes iguales de gas debían existir igual número
de átomos, tuvo Dalton que descartarla llegando a la conclusión de que los
resultados de Gay-Lussac eran inciertos.
Si la ley de Gay-Lussac era
cierta estaba en contradicción con los
postulados de Dalton y la teoría atómica.
Uno de los principios que le sirvió de fundamento a Dalton para demostrar la
existencia de los átomos fue la ley de las proporciones múltiples.
Su significado es el siguiente:
•
Los cuerpos compuestos están hechos de moléculas y cada molécula
contienen un número definido de átomos para cada cuerpo
compuesto determinado.
•
Si los átomos no existiesen, los elementos no podrían combinarse.
•
Es por lo tanto necesaria la existencia del átomo.
Este fue el gran argumento de Dalton.
Esta ley tuvo una gran repercusión, puesto que con su ayuda se esperaba
establecer las magnitudes concretas de los pesos atómicos. Berzelius, que
gozaba en aquella época de gran autoridad entre los químicos y
posteriormente un gran número de hombres de ciencia aceptaron la
suposición mas sencilla, o sea, que en iguales volúmenes de gases
11
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
elementales (es decir, constituidos por una sustancia simple), se halla
contenido un número igual de átomos.
De ahí se podía deducir que los pesos atómicos de los elementos están
relacionados entre sí como los pesos de volúmenes iguales de los mismos
en estado gaseoso.
Tratando de eliminar estas incongruencias, en el año 1817, Avogadro
anticipo la hipótesis de que iguales volúmenes de gases, en condiciones
anteriores iguales, contienen el mismo número de moléculas. Esta hipótesis
introduce en la ciencia el concepto de molécula, considerado como la
partícula
más
pequeña
de
toda
sustancia,
capas
de
existir
independientemente.
Avogadro partió de la suposición de que las moléculas de los gases
elementales son biatómicas, es decir, que constan de dos átomos.
Desde este punto de vista, la reacción entre el nitrógeno y el oxígeno para la
formación de óxido nítrico, se debía expresar mediante la fórmula
N2 + O2 = 2NO
O
sea, que a partir de dos volúmenes, se debían obtener también dos
volúmenes.
Así mismo, a la luz de esta hipótesis, obtenían una explicación satisfactoria
otros experimentos de Gay-Lussac. La hipótesis de Avogadro tuvo una
acogida muy fría entre los contemporáneos.
El motivo se debió a los conceptos desarrollado por Berzelius, sobre las
interacciones químicas.
Berzelius consideraba que muchos fenómenos químicos estaban basados
en fenómenos eléctricos.
Los fenómenos eléctricos son una manifestación de sus cargas eléctricas,
esta atracción entre dos átomos era por las cargas opuestas.
Los átomos de los metales según Berzelius, tenían excesos de cargas
positivas y los de los no metales exceso de cargas negativas.
Aceptando esta concepción no se podía admitir la existencia de moléculas
constituidas por dos átomos iguales.
12
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Por eso la hipótesis de Avogadro no puedo ser aceptada antes del
descubrimiento de la teoría electroquímica de Berzelius.
Los nuevos descubrimientos, echaron por tierra la teoría de Berzelius, pero
la
hipótesis
de
Avogadro había
sido
olvidada,
resurge
en
1860
transformándose en ley, donde la molécula fue reconocida como la partícula
mas pequeña de la sustancia, eléctricamente neutra que forma parte en sus
reacciones químicas.
Los fenómenos eléctricos son una manifestación de sus cargas eléctricas.
La unidad de carga eléctrica es el culombio.
Hay dos tipos de cargas eléctricas: positivas y negativa. Dos cuerpos que
hayan adquirido una carga del mismo tipo se repelen, mientras que si
poseen cargas distintas se atraen.
13
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
La materia es eléctricamente neutra, es decir, tiene la misma cantidad de
cada tipo de cargas. Cuando adquiere carga, tanto positivas como negativas,
es porque tiene más cantidad de un tipo que de otro.
A finales del siglo XlX y principios del XX, una serie de experimentos
permitieron identificar las partículas responsables de la carga negativa (el
electrón) y de la carga positiva (el protón). Estos experimentos
proporcionaron los datos siguientes sobre la estructura de la materia:
§
El átomo contiene partículas materiales subatómicas.
§
Los electrones tienen carga eléctrica negativa y masa. Cada electrón
posee una carga eléctrica elemental
§
Los protones tienen carga eléctrica positiva y mayor masa.
§
Como el átomo es eléctricamente neutro, hay que suponer que el
número de cargas eléctricas negativas (electrones)
es igual al
número de cargas positivas (protones).
14
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
MODELO ATÓMICO DE THOMSON:
Por ser tan pequeña la masa del electrón, el físico J. Thomson, supuso,
en 1904, que la mayor parte de la masa del átomo correspondía a la
carga positiva, que por tanto, debía ocupar la mayor parte del volumen
atómico. Thomson imaginó el átomo como una especie de esfera positiva
continua en la que se encuentran incrustados los electrones (como las
pasas de uvas en un budín).
Este modelo permitía explicar varios fenómenos experimentales como la
electrización y la formación de iones.
La electrización: es el exceso o la deficiencia de electrones que tiene un
cuerpo y es la responsable de su carga eléctrica negativa o positiva.
La formación de iones: un ión es un átomo que ha ganado o ha perdido
electrones. Si gana electrones tiene carga neta negativa y se llama anión
y si pierde electrones tiene carga neta positiva y se llama catión.
Thomson investigó la naturaleza de los rayos catódicos y demostró que
los campos eléctricos podían provocar la desviación
de estos y
experimento su desviación, bajo el efecto combinado de campos
eléctricos y magnéticos, buscando la relación existente entre las cargas y
la masa de la partícula, proporcionalidad que se mantenía constante aun
cuando se alteraba el material del cátodo.
En 1897 descubrió una nueva partícula y demostró que esta era
aproximadamente mil veces más ligera que el hidrógeno. Esta partícula
fue bautizada por Stoney con el nombre de electrón. Thomson fue, por
tanto, el primero que identificó partículas subatómicas y dio importantes
conclusiones sobre esas partículas cargas negativamente. Con el
15
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
aparato que construyó obtuvo la relación entre la carga eléctrica y la
masa del electrón.
Thomson examinó además los rayos positivos, estudiados anteriormente
por E. Goldstein, y en 1912 descubrió el modo de utilizarlos en la
separación de átomos de diferentes masas. El objetivo se consiguió
enviando los rayos positivos en campos eléctricos y magnéticos, método
que en la actualidad se llama espectrometría de masas. Con esta técnica
descubrió que el neón posee dos isótopos, el neón-20 y el neón-22.
DETERMINACION DE LA VELOCIDAD DE LOS ELECTRONES:
En su experimento J. Thomson ajusto campos eléctricos (E) y
magnéticos (B) mutuamente
perpendiculares, de forma que las
partículas cargadas no se desviaran.
Esto le permitió determinar la velocidad de dichas partículas, igualando
los valores de las fuerzas eléctricas y magnéticas.
Si una carga eléctrica atraviesa un condensador plano, paralelamente a
sus placas, entre las que existe una
Diferencia de potencial V, el campo eléctrico existente ejerce una fuerza
sobre la carga F= q. E. Si además, establecemos un campo magnético
en la región del condensador, la carga estará sometida a una fuerza
adicional F=q.V* B, donde v es la velocidad de la partícula cargada.
Si se dispone el campo eléctrico o magnético de modo que las fuerzas
sean de signo contrario, la partícula continuará su movimiento rectilíneo y
uniforme si ambas fuerzas son iguales en módulo. El rayo se desvía
16
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
hacia el polo positivo, por tanto, se deduce que la carga del electrón es
negativa.
EXPERIENCIAS DE THOMSON:
Es conveniente empezar el estudio del los experimentos de Thomson con
la presentación del fenómeno de la descarga eléctrica en gases a baja
presión.
La experiencia debe contextualizarse en los intentos por conocer la
naturaleza de la electricidad.
§
. La incandescencia que se produce en el gas.
§
. La naturaleza de la electricidad que produce la incandescencia.
Experimento del molinillo
Una propuesta para determinar si la descarga eléctrica está formada por
ondas o partículas consiste en estudiar si es capaz de mover un objeto.
El ejemplo típico es hacer girar un molinillo.
La hipótesis que se hace, es que si se observa que el molinillo gira, las
descargas eléctricas deben estar constituidas por partículas.
Al realizar el experimento se comprueba que efectivamente la descarga
eléctrica produce el giro del molinillo.
17
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Las ondas electromagnéticas, según la teoría de Maxwell, también son
capaces de mover los objetos, ya que no solo transportan energía sino
que también transportan cantidad de movimiento. Si el experimento
apoya la idea de una concepción corpuscular de la electricidad es por el
orden de magnitud de la cantidad de movimiento implicada.
Otra posibilidad para determinar la naturaleza de los rayos catódicos, es
analizar el efecto que sobre ellos produce un campo magnético o un
campo eléctrico. La hipótesis ahora es que si los rayos están formados
por partículas cargadas deben desviarse cuando son sometidos a la
acción de un campo eléctrico o de un campo magnético. El experimento
es difícil de realizar en un campo eléctrico y sencillo en un campo
magnético. El efecto del campo magnético utilizando un tubo de descarga
con una pantalla interpuesta que permite visualizar el punto de incidencia
del rayo.
En la primera experiencia utilizamos el electrodo de la izquierda como
negativo y aplicamos un campo magnético perpendicular a la dirección
18
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
del rayo y dirigido hacia el lado desde el que observamos. El rayo
catódico se desvía hacia abajo, como corresponde a un haz de partículas
negativas.
En la segunda experiencia con el mismo tubo, empleamos el electrodo de
la derecha como negativo. Entonces la pantalla proyecta una sombra
sobre la cara izquierda del tubo. Un campo magnético aplicado en la
misma dirección que antes, desvía el límite superior de esta sombra
hacia arriba.
Todas estas observaciones indicaban que la radiación de los rayos catódicos
estaba compuesta de partículas cargadas negativamente, a las cuales le
pusieron el nombre de electrones.
19
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Thomson propuso:
-la corriente de partículas cargadas pueden desviarse por medio de una
carga o un campo magnético.
-se puede emplear un campo eléctrico para compensar por la desviación
producida por campo magnético, dando como resultado que el haz de
electrones se comporten como si no tuviera carga.
-la corriente requerida para neutralizar al
campo magnético aplicado
indica la carga del haz.
-la perdida de masa del cátodo indica la masa de la corriente de los
electrones.
Thomson determino el cociente entre la carga y la masa para el electrón,
pero no pudo determinar la masa del electrón.
Sin embargo, de sus datos se puede obtener la carga de un electrón,
siempre y cuando se conozca la masa de un solo electrón.
20
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Robert Millikan en 1909 pudo medir la carga de un electrón en el experimento
de la gota de aceite, obteniendo un valor de 1060 x 10-19 coulombs.
21
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA ATÓMICA, SEGÚN LA LECTURA SOBRE EL
DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN
Para Kuhn los periodos de ciencia normal son aquellos en los que se acepta
como válida una teoría y durante el cual el científico trabaja de acuerdo a
esa teoría. (Ver nota 1)
A los problemas que los científicos tratan de resolver durante ese periodo
los llamo “enigmas”. Kuhn sostiene que los científicos confían en que estos
enigmas se pueden resolver con la teoría vigente.
Sin embargo algunos enigmas se muestran difíciles de resolver, en este
caso ya no diremos que el problema es un enigma resuelto o por resolver
sino que es una anomalía.
Los periodos de ciencia normal se pueden asociar con la resolución de
enigmas.
El periodo de ciencia normal se caracteriza porque los científicos no ponen a
prueba la teoría sino que la dan por válida para utilizarla en la resolución de
enigmas. (Ver nota 2)
Pero cuando se acumulan una cierta cantidad de anomalías, cuando los
científicos no están seguros de que la teoría que están usando es correcta,
es un periodo que Kuhn llamó ”crisis” (ver nota 3)
La etapa de crisis
(ver nota 4)
da lugar a una revolución científica en donde se
revisan todos los supuestos que tenían en la etapa de ciencia normal
anterior, tanto los referentes a la teoría como a las demás hipótesis
utilizadas.
La etapa de revolución científica se cuestiona el paradigma sostenido hasta
ese momento (ver nota 5)
Nota 1: En 1808 Dalton publicó su teoría atómica, que retomaba las antiguas ideas de
Leucipo y de Demócrito.
El postula que los átomos de un mismo elemento son iguales entre sí en masa, tamaño y
resto de propiedades físicas o químicas. Difiere de los imaginados por los filósofos griegos
los cuales los creían formados por la misma materia primordial difiriendo en forma y tamaño.
22
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Nota 2: Estas modificaciones sorprendentes de las ideas de Dalton acerca de la naturaleza
de los átomos, no invalidan en el campo de la química los resultados brillantes de la teoría
atómica.
Las suposiciones de Dalton permiten explicar fácilmente las leyes ponderales de las
combinaciones químicas ya que la composición en peso de un determinado compuesto
viene determinada por el número y peso de los átomos elementales que integran el átomo
compuesto.
Para Dalton, las partículas gaseosas como H2, O2, CL2, y otros, eran necesariamente
simples y estaban constituidas por un solo átomo, y que los compuestos como el H2O o
cloruro de hidrogeno eran naturalmente compuestos pero formadas por solo dos átomos
diferentes.
Nota 3: Sin embargo, con estas formulas no se podían explicar las relaciones volumétricas
de Gay-Lussac de que un volumen de cloro se une con un volumen de hidrógeno para dar
lugar a dos volúmenes de cloruro de hidrógeno llevó a Dalton a suponer que en los
volúmenes iguales de cloro y de hidrogeno debían existir igual número de átomos.
Nota 4 :Al imaginar que estos elementos se unen átomo a átomo, formaran un mismo
número de átomos (hoy moléculas) de cloruro de hidrógeno, al ser estos átomos
indivisibles, debían ocupar, en cambio un volumen doble según los resultados de GayLussac.
La hipótesis de que a volúmenes iguales de gas debían existir igual número de átomos, tuvo
Dalton que descartarla llegando a la conclusión de que los resultados de Gay-Lussac eran
inciertos.
Si la ley de Gay-Lussac era cierta estaba en contradicción con los postulados de Dalton y la
teoría atómica.
Nota 5: El átomo contiene partículas materiales subatómicas.
Los electrones tienen carga eléctrica negativa y masa. Cada electrón posee una carga
eléctrica elemental
Los protones tienen carga eléctrica positiva y mayor masa.
Como el átomo es eléctricamente neutro, hay que suponer que el número de cargas
eléctricas negativas (electrones) es igual al número de cargas positivas (protones).
23
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Cuando la comunidad de científicos se inclina a favor de un nuevo
paradigma y comienza a trabajar de acuerdo a los nuevos supuestos, la
revolución científica ha terminado y comienza un nuevo periodo de ciencia
normal. (Ver nota 6)
Tipo de adquisición del conocimiento científico
Hay maneras de obtener conocimiento mediante la observación pasiva: en
este periodo se observa solamente lo que la naturaleza muestra. No se
forzaban situaciones que la naturaleza todavía no nos había mostrado. En
síntesis se confeccionaban experimentos sobre situaciones posibles pero
nuevas.
(Ver nota 7)
Esto destaca la diferencia entre observación pasiva y observación
experimental. (Ver nota 8)
Nota 6: Por ser tan pequeña la masa del electrón, el físico J. Thomson, supuso, en 1904,
que la mayor
parte de la masa del átomo correspondía a la carga positiva, que por tanto,
debía ocupar la mayor parte del
volumen atómico. Thomson imaginó el átomo como
una especie de esfera positiva continua en la que se
encuentran incrustados los
electrones (como las pasas de uvas en un budín).
Nota 7: Dalton postula una teoría científica mediante la cual podían explicarse y coordinarse
cuantitativamente los fenómenos observados y las leyes de las combinaciones químicas
Nota 8: Los fenómenos eléctricos son una manifestación de sus cargas eléctricas. La
unidad de carga eléctrica es el culombio.
Hay dos tipos de cargas eléctricas: positivas y negativa. Dos cuerpos que hayan adquirido
una carga del
mismo tipo se repelen, mientras que si poseen cargas distintas se atraen.
En su experimento J. Thomson ajusto campos eléctricos (E) y magnéticos (B) mutuamente
perpendiculares, de forma que las partículas cargadas no se desviaran.
Esto le permitió determinar la velocidad de dichas partículas, igualando los valores de las
fuerzas eléctricas y magnéticas.
Es conveniente empezar el estudio del los experimentos de Thomson con la presentación
del fenómeno de la descarga eléctrica en gases a baja presión.
§
La experiencia debe contextualizarse en los intentos por conocer la naturaleza de la
electricidad.
§
. La incandescencia que se produce en el gas.
§
. La naturaleza de la electricidad que produce la incandescencia.
24
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA ATÓMICA, SEGÚN LA LECTURA SOBRE EL
DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS
( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA)
Programa de investigación: Indivisibilidad del átomo.
Núcleo central: el átomo es la partícula más pequeña que existe.
Para que el programa de investigación siga funcionando, los científicos
buscan proteger el núcleo central; ya ningún partidario del programa esta
dispuesto a tocar su núcleo.
Por lo tanto buscan modificar un conjunto de enunciados llamado ”cinturón
protector del programa”.
(Ver nota 1)
Cuando se presenta una falsación sobre la teoría central
(Ver nota 2),
buscan
reemplazar la hipótesis del cinturón protector que haya sido afectada, para
que el mismo siga funcionando.
Pero si el programa incorpora cada vez más cantidad de hipótesis para
evitar falsaciones, el mismo no resulta fructífero. Cuando esto ocurre, se dice
que el programa se ha tornado degenerativo.
Por el contrario si el programa permite explicar nuevos fenómenos ha
medida que se reemplazan hipótesis, entonces diremos que el programa es
progresivo,
Un programa de investigación es abandonado cuando aparece un programa
alternativo que puede explicar los fenómenos que el anterior no podía.
(Ver
nota 3)
Nota 1: Los cuerpos compuestos están hechos de moléculas y cada molécula contiene un
número definido de átomos, para cada cuerpo compuesto.
Si los átomos no existiesen, los elementos no podrían combinarse.
Por lo tanto es necesaria la existencia del átomo
Nota 2: Los átomos de los metales según Berzelius, tenían excesos de cargas positivas y
los de los no metales exceso de cargas negativas.
Aceptando esta concepción no se podía admitir la existencia de moléculas constituidas por
dos átomos iguales.
25
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Nota 3: El átomo contiene partículas materiales subatómicas.
Los electrones tienen carga eléctrica negativa y masa. Cada electrón posee una carga
eléctrica elemental
Los protones tienen carga eléctrica positiva y mayor masa.
Como el átomo es eléctricamente neutro, hay que suponer que el número de cargas
eléctricas negativas (electrones) es igual al número de cargas positivas (protones).
26
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Bibliografía
Angelini M. Bulwik (1998) Temas de química general , Eudeba, 2da edición
Chang Raymond (2002) Química Mc GRAW-HILL7ma edición
Paginas de Internet:
Http.encina.pntic.mec.es_ jsaf000 2p32.hot mail
Http:www..sothis 2005.orgatomicdocsTubos Descficha.doc
27
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
28
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Modelos Atómicos de RHUTERFORD y BOHR.
Moschettoni, Soledad
Ghirst, Susana
29
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
MODELO ATÓMICO DE ERNEST RUTHERFORD
Método experimental
Por sus trabajos en el campo de la Física atómica está considerado como
uno de los padres de esta disciplina. Tras el descubrimiento de la
radiactividad en 1896 por Henri Becquerel, estudió las emisiones
radioactivas e identificó sus tres componentes principales a los que
denominó rayos alfa, beta y gamma. Demostró (1908) que las partículas alfa
son núcleos de helio. Quizás su contribución mas importante a la física
fueron sus estudios sobre la dispersión de los rayos alfa producida al
bombardear con ellos láminas delgadas de metales. Esta investigación le
condujo en 1911, a un nuevo modelo atómico.
Dinámica de las partículas:
Bombardeó láminas finas de oro con partículas alfa (positivas) procedentes
de un elemento radioactivo (Polonio) observando lo siguiente:
30
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
• La mayoría de las partículas (a pesar de su gran tamaño) atravesaban la
lámina sin sufrir desviación.
• Algunas partículas se desviaban.
• Rara vez alguna partícula rebotaba. Dedujo que estas dispersiones con
ángulos grandes sólo podían resultar como consecuencia de un solo
encuentro de la partícula Alfa con una carga masiva concentrada en un
volumen mucho menor que el del átomo completo.
De la experiencia Rutherford deduce lo siguiente:
• La materia esta formada por huecos.
• En la materia debe haber alta concentración de cargas positivas, puesto
que las partículas rara vez eran desviadas.
• La masa también debe estar concentrada en algunas zonas, puesto que
chocaban y retrocedían.
• La carga negativa debería estar alrededor de las cargas positivas con el
fin de mantener la materia neutra.
Conclusiones:
•
El átomo no puede ser una esfera maciza y compacta.
•
El átomo es una esfera que en su mayor parte está vacía.
31
“De Demócrito a la Máquina de Dios”
•
Alumnos ISFD35
El átomo tiene un núcleo central en el que están concentradas la carga
positiva y casi toda la masa.
•
Hay una zona exterior que a penas concentra masa y que esté muy lejos
de la zona interior.
•
La carga positiva de los protones del núcleo se encuentra compensada
por la carga negativa de los electrones, que están fuera del núcleo.
•
El núcleo contiene, por tanto, protones en un número igual al de
electrones del átomo.
•
Los electrones giran a mucha velocidad alrededor del núcleo y están
separados de éste por una gran distancia, al girar velozmente no precipitan
contra este.
•
Está formado por una zona central que es llamada NÚCLEO y por una
zona exterior, a la que él llama CORTEZA. De tal manera, que entre ésta y
el núcleo, sólo hay vacío.
La masa de protones y electrones no coincidía con la masa total del átomo;
por tanto, Rutherford supuso que tenía que haber otro tipo de partículas
subatómicas en el núcleo de los átomos.
Estas partículas fueron descubiertas en 1933 por J. Chadwick. Al no tener
carga eléctrica recibieron el nombre de neutrones.
Los neutrones son partículas sin carga y de masa algo mayor que la masa
de un protón.
32
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Modelo atómico o modelo nuclear:
Después de esto Rutherford da su Modelo Atómico o modelo nuclear que
establece que:
Los átomos están formados por dos zonas: núcleo y corteza. El núcleo es
donde se encuentra la carga positiva y la masa del átomo; protones y
neutrones. En la corteza, zona exterior al núcleo donde se encuentran las
cargas negativas girando a gran velocidad para no precipitarse contra el
núcleo.
Da lugar al Modelo Planetario de Átomo.
Según este modelo los electrones están girando a gran velocidad a cualquier
distancia del núcleo.
Al ser el electrón una partícula cargada en movimiento, según la teoría
electromagnética debería emitir radiación de forma continua por lo que daría
lugar a espectros continuos.
Por otro lado, el electrón emitiría energía, por tanto, la velocidad disminuirá y
chocará sobre el núcleo desintegrándose.
Hechos inexplicables:
En primer lugar, para evitar que el núcleo sea destruido por la repulsión
entre cargas positivas, tiene que admitir la existencia dentro del núcleo de
una fuerza más intensa la llamada interacción nuclear fuerte.
33
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
En segundo lugar, el descubrimiento de los espectros atómicos y nuevas
hipótesis, como la de Planck, dejan en evidencia hechos que no pueden ser
explicados por medio de este modelo.
Descubrimiento de los espectros atómicos:
Un espectro es una representación gráfica de las intensidades de las
radiaciones emitidas por un foco luminoso.
Si el foco luminoso es el sol, resulta el espectro solar, cuyos colores van del
rojo hasta el violeta. El espectro solar es un espectro continuo y nuestro ojo
solo distingue las radiaciones visibles, pero existen otros (infrarrojas) que el
ojo humano no las puede detectar.
Si el foco luminoso en vez de ser el sol es un átomo excitado incandescente
el resultado es un espectro atómico que se caracteriza por ser un espectro
discontinuo. Esto quiere decir que está formado por una serie de líneas
espectrales y unas zonas negras. Cada átomo tiene un espectro
característico.
34
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
El que aparezcan zonas oscuras en los espectros atómicos indican que en la
corteza del átomo existen zonas donde el átomo no emite energía. Para que
un átomo emita energía tiene que estar excitado, es decir, que sus átomos
se encuentren en órbitas de mayor energía de las que corresponden en
estado fundamental.
El hecho de que cada átomo tenga un espectro de rayas distinto y
discontinuo debe esta relacionado con su estructura y el hecho por el
cual la carga negativa del electrón en movimiento va perdiendo energía
hasta caer contra el núcleo y haciendo que los átomos fuesen
inestables y acabaran desintegrándose, son hechos que no podía
explicar el modelo de Rutherford.
Hipótesis de Planck:
•
Las experiencias que demuestran que el electrón no cae contra el
núcleo, fueron realizadas por Planck en 1900 sobre la emisión y absorción
de radiaciones de un cuerpo negro.
Un cuerpo negro es aquel que tiene la propiedad de absorber o emitir todas
las radiaciones que inciden sobre él, cualquiera que sea su frecuencia. Son
cuerpos hipotéticos.
Planck dio su hipótesis que es la siguiente: “la energía no puede ser
absorbida en forma continua, sino en formas de cantidades definidas o
paquetes de energía múltiplos de una unidad fundamental denominada
cuantos”
35
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Cuando un electrón gira en su órbita, según las leyes de la física clásica,
tendría que emitir al espacio energía en forma de ondas electromagnéticas.
Para comprender esa pérdida de energía, tendría que ir acercándose
paulatinamente al núcleo, por lo que volveríamos al modelo de Thomson.
Las leyes de la física Clásica no sirven en el mundo del átomo, es decir, que
un electrón cuando gira en su órbita, ni absorbe, ni emite energía, se
encuentra en un ESTADO ESTACIONARIO DE ENERGÍA.
La presencia de rayas concretas de un color concreto, indica que la energía
del electrón también tiene valores concretos, por ello no puede girar en
cualquier órbita, ya que entonces, su energía sería variable. Se plantea por
ello la posibilidad de dotar la corteza del átomo de unos valores de energía y
de órbita fijos, es decir, se propone ESTRUCTURAR LA CORTEZA
ATÓMICA (realizada por BOHR).
36
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
MODELO ATÓMICO DE NIELS BOHR
Su trabajo giró sobre el modelo nuclear del átomo de Rutherford, en el que el
átomo se ve como un núcleo compacto rodeado por un enjambre de
electrones más ligeros. El modelo de átomo de Bohr utilizó la teoría cuántica
y la constante de Planck. El modelo de Bohr establece que un átomo emite
radiación electromagnética sólo cuando un electrón del átomo salta de un
nivel cuántico a otro. Este modelo contribuyó enormemente al desarrollo de
la física atómica teórica.
Su modelo tenía dos postulados, uno de ellos era relativo a la cuantificación
de las órbitas de los electrones. Así, los primeros experimentos consistían en
poner en evidencia esta cuantificación. Estos primeros experimentos usaban
la luz, y a la época se sabía que esta estaba formada por "cuantos de
energía".
Sus postulados eran:
1) Sólo son posibles aquellas órbitas en las que el electrón tiene un
momento angular que es múltiplo entero de h/(2 · p). Sólo hay unas pocas
órbitas posibles, las cuales vienen definidas por los valores permitidos para
un parámetro que se denomina número cuántico, n.
2) El electrón sólo se mueve en unas órbitas circulares "permitidas"
(estables) en las que no emite energía (se deduce de las zonas negras). El
electrón tiene en cada órbita una determinada energía, que es tanto mayor
cuanto más alejada esté la órbita del núcleo. Para que el electrón no se
precipite sobre el núcleo ni tampoco salga despedido de su órbita es
necesario que su fuerza centrífuga se iguale a las fuerzas eléctricas.
3) La emisión de energía se produce cuando un electrón salta desde un
estado inicial de mayor energía hasta otro de menor energía. El valor de esta
energía se determina por la ecuación de Planck.
37
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
La diferencia de energía entre 2 órbitas disminuye a medida que nos
alejamos del núcleo. La única posibilidad de que la energía de un electrón
cambie es que varíe de órbita , cuando salta a una órbita superior, absorberá
energía y cuando regrese a una órbita superior el tipo de energía absorbida
puede ser cualquiera: calorífica, luminosa o eléctrica; pero cuando regresa a
una
órbita
inferior,
LA
ENERGÍA
DESPRENDIDA
SIEMPRE
ES
LUMINOSA.
Experiencia de energía de ionización:
En 1914, Franck y Hertz, que trabajaban en las energías de ionización de los
átomos, pusieron a punto una experiencia que usaba los niveles de energía
del átomo de mercurio. Su experiencia sólo usaba electrones y átomos de
mercurio, sin hacer uso de ninguna luz. Bohr encontró así la prueba
irrefutable de su modelo atómico.
Con el fin de poner en evidencia la cuantificación de los niveles de energía,
utilizamos un tríodo, compuesto de un cátodo, de una rejilla polarizada y de
un ánodo, que crea un haz de electrones en un tubo de vacío que contiene
mercurio gaseoso.
38
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Midieron entonces la variación de la corriente recibida por el ánodo con
respecto a la energía cinética de los electrones, y pudieron deducir las
pérdidas de energía de los electrones en el momento de las colisiones.
El conjunto del tríodo está contenido dentro de una cápsula de vidrio que
contiene mercurio. El experimento pudo realizarse a diferentes temperaturas
y es interesante comparar estos resultados con una medida a temperatura
ambiente (el mercurio está entonces en el estado líquido). Una vez
calentado a 630 K, el mercurio se vuelve gaseoso. Pero para evitar tener
que alcanzar tal temperatura, se trabajo a una presión reducida dentro de la
cápsula y se calienta entre 100 y 200 °C.
Para que los electrones sean arrancados y para que tengan una velocidad
bastante importante, se utilizó una tensión entre el cátodo y la rejilla, una
tensión de aceleración.
Los resultados de la experiencia
•
Para diferencias de potencial bajas - hasta 4,9 V - la corriente a través
del tubo aumenta constantemente con el aumento de la diferencia potencial.
Con el voltaje más alto aumenta el campo eléctrico en el tubo y los
electrones fueron empujados con más fuerza hacia la rejilla de aceleración.
•
A los 4,9 voltios la corriente cae repentinamente, casi de nuevo a cero.
•
La corriente aumenta constantemente de nuevo si el voltaje se sigue
aumentando, hasta que se alcanzan 9.8 voltios (exactamente 4.9+4.9
voltios).
•
En 9.8 voltios se observa una caída repentina similar.
39
“De Demócrito a la Máquina de Dios”
•
Esta
serie
de
caídas
en
Alumnos ISFD35
la
corriente
para
incrementos
de
aproximadamente 4.9 voltios continuará visiblemente hasta potenciales de
por lo menos 100 voltios.
Interpretación de los resultados
Franck y Hertz podían explicar su experimento en términos de colisión
elástica y colisión inelástica de los electrones. Para potenciales bajos, los
electrones acelerados adquirieron solamente una cantidad modesta de
energía cinética. Cuando se encontraron con los átomos del mercurio en el
tubo, participaron en colisiones puramente elásticas. Esto se debe a la
predicción de la mecánica cuántica que un átomo no puede absorber
ninguna energía hasta que la energía de la colisión exceda el valor requerido
para excitar un electrón que esté enlazado a tal átomo a un estado de una
energía más alta.
Con las colisiones puramente elásticas, la cantidad total de energía cinética
en el sistema sigue siendo igual. Puesto que los electrones son unas mil
veces menos masivos que los átomos más ligeros, esto significa que la
mayoría de los electrones mantuvieron su energía cinética. Los potenciales
más altos sirvieron para conducir más electrones a la rejilla al ánodo y para
aumentar la corriente observada, hasta que el potencial de aceleración
alcanzó 4.9 voltios.
La energía de excitación electrónica más baja que un átomo del mercurio
puede tener requiere 4,9 electronvoltios (eV). Cuando el potencial de
aceleración alcanzó 4.9 voltios, cada electrón libre poseyó exactamente 4.9
eV de energía cinética (sobre su energía en reposo a esa temperatura)
cuando alcanzó la rejilla. Por lo tanto, una colisión entre un átomo del
mercurio y un electrón libre podía ser inelástica en ese punto: es decir, la
energía cinética de un electrón libre se podía convertir en energía potencial
excitando el nivel de energía de un electrón de un átomo de mercurio. Con la
pérdida de toda su energía cinética, el electrón libre no puede superar el
40
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
potencial negativo leve en el electrodo a tierra, y la corriente eléctrica cae
fuertemente.
Al aumentar el voltaje, los electrones participan en una colisión inelástica,
pierden su eV 4.9, pero después continúan siendo acelerados. De este
modo, la corriente medida sube otra vez al aumentar el potencial de
aceleración a partir de 4.9 V. A los 9.8 V, la situación cambia otra vez. Allí,
cada electrón ahora tiene energía suficiente para participar en dos colisiones
inelásticas, excitando dos átomos de mercurio, para después quedarse sin
energía cinética. Ello explica las caídas de corriente observadas. En los
intervalos de 4.9 voltios este proceso se repetirá pues los electrones
experimentarán una colisión inelástica adicional.
Conclusiones del modelo:
Explicación del espectro atómico discontinuo
Al saltar un electrón a una órbita superior, absorbe una cantidad fija de
energía que coincida con la diferencia de energía entre las órbitas final e
inicial. En tal situación, el electrón es inestable, por lo cual, regresará a su
órbita inicial, devolviendo la energía en forma de luz. Esta luz, da origen a
una raya en el espectro. Cuanto mayor el salto, mayor es la energía
luminosa, por ello el color de la raya se va aproximando al VIOLETA.
Cuando el salto electrónico ocurre entre órbitas consecutivas y cercanas, la
luz emitida se acerca al ROJO, pero si hay mucha distancia entre órbitas, la
energía del salto es mayor, y la luz se aproximará al VIOLETA. En el modelo
de Bohr se dice que la energía de un electrón está cuantiada, es decir, sólo
se permiten ciertos valores, que además, son siempre los mismos. Uno de
los mayores éxitos del modelo de Bohr fue explicar correctamente los
ESPECTROS ATÓMICOS, pero de cara a la química, su mayor contribución
fue dar una explicación a la VALENCIA DE LOS ELEMENTOS.
La distribución por capas de los electrones de un átomo de un elemento se
conoce como estructura o configuración electrónica del elemento.
41
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
A los electrones que están situados en la última capa se les denomina
electrones de valencia y, al nivel que ocupan, capa de valencia. Estos
electrones son los responsables de las propiedades químicas de las
sustancias.
Correcciones al modelo de Bohr: números cuánticos.
En el modelo original de Bohr, se precisa un único parámetro (el número
cuántico principal, n), que se relaciona con el radio de la órbita circular que el
electrón realiza alrededor del núcleo, y también con la energía total del
electrón. Los valores que puede tomar este número cuántico son los enteros
positivos: 1, 2, 3...
El modelo atómico de Bohr solo permite explicar átomos que poseen
únicamente un e- como por ejemplo el hidrógeno, pero no permite explicar
átomos de más electrones.
Para explicarlos Sommerfeld introdujo pequeñas variaciones a este modelo:
•
Las órbitas además de circulares pueden ser elípticas.
•
Para cada órbita n puede haber n subórbitas. n es circular y n 1 elípticas.
Surge así la necesidad de otro nº cuántico que sirva para delimitar a la
subórbita a la que pertenece el e-, el cual se denominó nº cuántico
secundario L.
Si n = 1, una órbita circular y no hay una órbita elíptica.
A pesar de las modificaciones realizadas sobre el modelo atómico de Bohr
no se podía explicar el espectro de un gran nº de átomos.
Sin embargo, pronto fue necesario modificar el modelo para adaptarlo a los
nuevos datos experimentales, con lo que se introdujeron otros dos números
cuánticos para caracterizar al electrón:
· Número cuántico magnético (m)
· Número cuántico de espín (s)
42
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Nota: En el siguiente trabajo se realizará un análisis sobre el progreso científico
desde el punto de vista de Lakatos y Kuhn.
Para poder hacerlo, se acotó el análisis a un periodo de tiempo que va desde el año 1890
hasta el año 1960, que coincide con los descubrimientos que hicieron posible postular dos
nuevos modelos atómicos.
Los hechos que serán analizados, son los que se enumeran a
continuación:
§
En 1896, Henri Becquerel descubre la radiactividad estudiando las
emisiones radioactivas e identificó sus tres componentes principales:
los rayos alpha, beta y gamma. Más tarde, en 1908, pudo determinar
que las partículas alpha eran núcleos de Helio y las utilizó para
bombardear láminas delgadas de metales.
§
Gracias a estos descubrimientos Ernest Rutherford, en 1911, fue
quien experimentó bombardeando láminas de oro con partículas
alpha provenientes de Polonio radiactivo y descubrió la existencia de
un núcleo atómico a partir del cual planteó su modelo atómico y fue
reconocido como padre de la física nuclear, aunque algunas cosas no
podían ser explicadas mediante su modelo.
§
Fue en 1933 cuando el modelo recibe sus primeras modificaciones de
la mano de James Chadwick quien descubre la existencia de
neutrones en el núcleo atómico y resuelve uno de los interrogantes
planteados al modelo de Rutherford, pero aún hay otros por resolver.
§
Era la teoría electromagnética, planteada por James Maxwell en
1859, un impedimento para aquel modelo dado que las observaciones
y conclusiones del modelo no se respondían con dicha teoría.
§
También así lo era, el estudio de los espectros y aquel descubrimiento
de Max Planck en 1900, quien postuló en su ley el primer peldaño
para construir lo que luego fue la teoría cuántica, incompatible con el
modelo atómico de Rutherford basado en física clásica.
§
Pocos años después del descubrimiento de Rutherford, en el año
1913, fue Niels Bohr quien basándose en el descubrimiento del
43
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
núcleo atómico plantea nuevas hipótesis, ahora si con cimientos
cuánticos permitiendo que la teoría y la observación fueran de la
mano. Fue él quien por primera vez habló de números cuánticos
atómicos y estableció el número cuántico principal, dado que su
modelo sólo era aplicable al átomo de Hidrógeno.
§
Gracias al descubrimiento de Bohr, los científicos James Franck y
Gustav Hertz, en 1914, logran experimentar la cuantificación de la
energía que fue realmente un hecho trascendental.
§
En 1957, Arnold Sommerfeld, amplia el modelo atómico de Bohr,
aplicando un análisis relativista sobre la forma de las órbitas y
descubre así la existencia de un segundo numero cuántico que llamo,
numero cuántico secundario. Aunque pronto fue necesario modificar
el
modelo
nuevamente
adaptándolo
a
los
nuevos
datos
experimentales y se introdujeron así los números cuánticos magnético
y de spin.
§
De mas esta decir, que este modelo, fue el principio para el orígen de
los modelos atómicos actuales, también llamados modelos cuánticos
que quedan incompletos si tratan de ser explicados por la mecánica
newtoniana mientras que pueden ser completamente explicados por
la mecánica cuántica gracias a las ecuaciones que planteó el
científico Edwin Schrödinger, en 1925, y que escapa a nuestro
análisis dado que fue correctamente interpretada mucho después.
44
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA ATÓMICA ( Modelos de Rutherford y Bhor),
SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS
PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN
CIENTÍFICA)
Rutherford realizó una experiencia para conocer la estructura atómica,
empleando conocimientos aportados por H. Becquerel sobre radiactividad, a
partir del bombardeo de partículas alpha (provenientes del polonio) a una
lámina de oro1.
Sus consecuencias observacionales2 fueron:
•
La mayoría de las partículas atravesaban la lámina sin desviarse,
•
Algunas partículas se desviaban,
•
Rara vez alguna partícula rebotaba.
De la experiencia deduce3 que:
•
La materia está formada por huecos,
•
Debe haber concentración de carga positiva, dado que alguna vez se
desviaban,
•
La masa también debe estar concentrada en alguna zona, puesto que
rara vez chocaban y rebotaban y,
•
La carga negativa debería estar alrededor de las cargas positivas con el
fin de mantener la materia neutra.
Por lo que establece su teoría que postula lo siguiente:
1
“Método experimental” – página 30.
“Dinámica de las partículas” – página 30.
3
,“conclusiones”– página 31 y 32
2
45
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Como núcleo central de la teoría plantea que “El átomo es una esfera que en
su mayor parte está vacía, por lo cual tiene un núcleo central” y como
cinturón protector de la teoría agrega que:
•
En el núcleo se encuentran las cargas positivas y casi toda la masa,
•
El núcleo está rodeado por una zona exterior de carga negativa, y
•
En la zona exterior los electrones se encuentran girando velozmente.
Esta teoría se propuso en 1911, a partir de ella, y por consiguiente del
descubrimiento del núcleo atómico, se plantea un nuevo programa de
investigación científica.
Años después, con el avance de la ciencia, se descubren hechos que la
teoría no puede explicar por lo que se modifica, dentro de la teoría, algún
elemento para disolver la contradicción entre la misma y la observación en
conflicto.
De esta manera, en 1933, el descubrimiento del neutrón por J. Chadwick4
sirvió para modificar el cinturón protector de la teoría dado que la masa de
protones y electrones no coincidía con la masa total del átomo. Por lo cual
amplia uno de los enunciados diciendo que “en el núcleo se encuentran las
cargas positivas y casi toda la masa dado que allí también se encuentran los
neutrones que carecen de carga”.
Una vez modificado el enunciado, los científicos obtienen nuevas
consecuencias observacionales del programa y las confrontan con la
experiencia. Cuando ocurre esto, que el programa evoluciona sin que medie
necesariamente una falsación previa, se dice que está en marcha la
heurística positiva del programa (que es un conjunto de indicaciones o
sugerencias sobre cómo desarrollar o sofisticar el cinturón protector para
que el programa evolucione).
4
“Conclusiones” – página 31 y 32.
46
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Más tarde, la teoría electromagnética5 pone en duda la predicción de que
los electrones giran velozmente, ya que al ser una partícula cargada y en
movimiento debiera emitir radiación en forma continua, lo que daría lugar a
la formación de espectros atómicos continuos, y al emitir energía su
velocidad debiera disminuir por lo cual acabaría chocando contra el núcleo.
Rutherford evita una falsación previa a la teoría agregando la siguiente
hipótesis ad hoc a su ultimo enunciado: “los electrones están girando a gran
velocidad a cualquier distancia del núcleo por lo que no caen sobre él”.
Por último, el descubrimiento de los espectros atómicos6, a partir del
comportamiento dual de la luz, plantea que los átomos emiten radiación que
es registrada como un espectro discontinuo (no continuo como hasta
entonces se pensaba) lo que indica que en la corteza o zona exterior del
átomo existen zonas donde el átomo no emite energía continuamente.
Las herramientas de las que dispone Rutherford7, basadas en la Física
Clásica Newtoniana, no le permiten explicar por qué las radiaciones de los
átomos no resultan ser continuas.
Este nuevo hecho hace imposible mantener la evolución del programa dado
que existe un desconocimiento de la física Pre-cuántica y se plantean
conflictos entre la teoría y lo observado. Entonces diremos que junto con la
heurística negativa el programa se torna degenerativo.
Es entonces, Planck8 quien plantea una hipótesis capaz de explicar la
aparición de espectros discontinuos, él dice que “la energía no puede ser
absorbida en forma continua sino en cantidades definidas o cuantos”.
Estas nuevas ideas fueron incorporadas al mismo programa de investigación
por Niels Bohr9 quien incorporó nuevas hipótesis, permitió descubrir nuevos
5
6
7
8
9
“Modelo atómico o modelo nuclear” – página 33.
“Descubrimiento de espectros atómicos” – página 34.
“Hechos inexplicables” – pagina 33.
“Hipótesis de Planck” – página 35
“Modelo atómico de Niels Bohr” – página 37 y 38.
47
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
fenómenos, también nuevas consecuencias observacionales y confrontarlas
con la experiencia, tornando el programa nuevamente progresivo.
Se podría argumentar que la teoría cambia cuando cambia alguna parte de
esta, pero en este caso se mantiene el mismo programa de investigación
científica dado que el núcleo central de la teoría, que denota el
descubrimiento del núcleo, permanece inalterable. Los conflictos entre la
teoría y la observación sólo se plantean sobre la estructura y dinámica de la
zona exterior compuesta por electrones por lo que sólo se modifica el
cinturón protector.
Bohr se basa en el modelo nuclear del átomo de Rutherford, utiliza la Física
Cuántica y la Hipótesis de Planck para ampliar el cinturón protector de la
teoría mediante la siguiente hipótesis10: “Un átomo emite radiación
electromagnética sólo cuando un electrón salta de un nivel cuántico de
mayor energía a uno de menor energía” y además agrega que “el electrón
no se encuentra a cualquier distancia del núcleo sino que se mueve en
orbitas circulares definidas en las que no emite energía”.
Estos postulados condicen con lo observado por Franck y Hertz11 que
trabajaron con la energía de ionización de los átomos usando los niveles de
energía del átomo de mercurio y con el descubrimiento del espectro atómico
discontinuo que postulaba Planck.
Bohr explicó así el espectro atómico discontinuo, enumeró los niveles de
energía y estableció para cada uno de ellos un número cuántico12.
La limitación de la teoría de Bohr es que sólo es aplicable al átomo de
hidrogeno, dado que utilizaba el número cuántico principal (n).
Pronto fue necesario modificar el modelo para adaptarlo a los nuevos datos
experimentales, es entonces cuando Sommerfeld13 modifica nuevamente el
10
11
12
13
“Sus postulados eran” – página 37.
“Experiencia de energía de ionización – página 37 y 38.
“Conclusiones del modelo” – página 39.
“Correcciones al modelo de Bohr: números cuánticos” – página 42.
48
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
cinturón protector de la teoría agregando que “además de circulares, las
orbitas pueden ser elípticas” y que “para cada orbita n existen suborbitas”
planteando la existencia de otros números cuánticos.
De esta manera, el programa de investigación evoluciona hacia el modelo
cuántico actual, por medio de: modificaciones de hipótesis existentes;
planteo de nuevas hipótesis; o agregado de hipótesis ad hoc; que amplían o
sofistican el cinturón protector sin que medie una falsación previa al
programa de investigación científica.
• Según el desarrollo de las ciencias por Kuhn
Teniendo en cuenta los conflictos que otras teorías atómicas anteriores no
pudieron resolver, y en base a su experiencia, Rutherford plantea14:
“El átomo no es macizo, está formado por huecos, en el centro tiene
concentración de protones de cargas positivas y en la corteza electrones de
carga negativa”.
A partir del descubrimiento del núcleo atómico por Rutherford se establece
un período de Ciencia Normal en el cual esta teoría se establece como
válida, no se la cuestiona, y permite resolver los problemas que surgen de la
investigación, llamados enigmas.
Avanza la ciencia, algunos enigmas se muestran difíciles de resolver y
resultan imposibles de explicar por medio de la teoría, entonces se
convierten en anomalías.
Las anomalías que acumuló la teoría fueron las siguientes15:
14
15
“Modelo Experimental” y “Conclusiones” – página 30, 31 y 32.
“Modelo atómico o modelo nuclear” y “Hechos inexplicables” – página 33.
49
“De Demócrito a la Máquina de Dios”
•
Alumnos ISFD35
La masa del átomo no coincidía con la masa resultante de la suma de
protones y electrones,
•
Los electrones girando velozmente acabarían cayendo sobre el núcleo,
desintegrándose, y
•
Los átomos no emitían radiación de manera continua dando lugar a la
formación de espectros continuos.
Cuando la teoría no puede dar cuenta de varios problemas, es decir, ha
acumulado anomalías, los científicos se vuelven críticos para con la teoría
por lo cual entra en un periodo de crisis que desata una revolución científica
caracterizada por el cambio de paradigma y que puede durar mucho tiempo.
En este período se pone a prueba la teoría y se revisan los métodos
experimentales. Este es un punto de inflexión importante en las teorías de
los modelos atómicos, dado el descubrimiento del comportamiento dual de la
luz, que permite desarrollar una Física Cuántica que replantea las hipótesis,
los recursos y la metodología, dando lugar al reemplazo de un paradigma
por otro.
En este caso, pasaremos del paradigma de “modelo nuclear del átomo
explicado por la física Newtoniana” al paradigma de “modelo nuclear del
átomo explicado por la física Cuántica”.
En la fase de puesta a prueba aparecen nuevos descubrimientos. Por un
lado, Chadwick, demuestra la existencia de neutrones16 en el núcleo
atómico; y por otro lado, las experiencias de Planck17, determinan la
existencia de espectros discontinuos y la energía estacionaria del electrón.
16
17
“Conclusiones” – página 31.
“Hipótesis de Planck” – página 32 y 33.
50
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Apoyándose en estos nuevos descubrimientos, Niels Bohr plantea una
nueva teoría18 capaz de resolver los problemas experimentales19, ya sea las
anomalías del modelo anterior y los nuevos enigmas que aparecerán.
En su teoría plantea que “el átomo sólo emite radiación cuando el electrón
salta de un nivel cuántico de mayor energía a uno de menor energía” dando
como resultado un espectro atómico discontinuo y no continuo (soluciona la
primer anomalía) y como “el electrón se encuentra en orbitas definidas y no
emite energía continuamente” explica por qué no cae contra el núcleo
(soluciona la segunda y tercer anomalía)20.
Su teoría se establece como válida, es mejorada por Sommerfeld 21,
ampliando su campo de aplicación a todos los átomos y no solo al de
hidrogeno, de manera que es capaz de explicar los nuevos enigmas de la
época.
De esta manera, se alcanza una nueva cosmovisión compartida por todos
los científicos, se establece una teoría central y se arriba a un nuevo período
de ciencia normal.
18
19
20
21
“Modelo atómico de Niels Bohr” – página 37 y 38.
“Experiencia de energía de ionización – página 38 y 39.
“Conclusiones del modelo” – página 40.
“Correcciones al modelo de Bohr: números cuánticos” – página 42.
51
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Bibliografía y Sitios WEB:
§
Ball David W (2004), Físicoquímica, México, Editorial Thomson
Paraninfo S.A., primera edición (capítulo 9 y 11).
o http://rabfis15.uco.es/Modelos%20At%c3%b3micos%20.NET/M
odelos/MAtomicos.aspx
o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv
a_materia/curso/materiales/atomo/modelos.htm
o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv
a_materia/curso/materiales/atomo/mod_ruther.htm
o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv
a_materia/curso/materiales/atomo/mod_bohr.htm
o http://www.quimicaweb.net/grupo_trabajo_fyq3/tema4/index4.ht
m
o http://www.monografias.com/trabajos11/hisqui/hisqui.shtml
o http://www.monografias.com/trabajos14/modeloatomico/modelo-atomico.shtml
o http://www.monografias.com/trabajos34/instrumentallaboratorio/instrumental-laboratorio.shtml
52
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“TEORIA DEL FLOGISTO”
Arreceigor, Verónica.
Rodriguez, Cristina.
53
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRONOLOGÍA HISTÓRICA
§
Los primeros que se preguntaron sobre la composición de la materia
fueron los filósofos griegos del año 600 a.C.Tales sugirió el agua,
Anaximandro el aire y Heráclito el fuego.
§
En el año 445 a.C. Empedocles sugirió que los 4 elementos, Tierra,
Agua, Aire y Fuego, eran necesarios para conformar la materia
.Dentro de este sistema el proceso de combustión fue descrito como
la lucha entre los 4 elementos y la victoria transitoria del fuego.
§
Años 384-322 a.C. Tiempos de Aristóteles, la teoría de los 4
elementos ya había sido suficientemente refinada de modo que cada
elemento se asociaba con diferentes propiedades .La combustión se
explicaba como la salida del elemento fuego cuya tendencia natural
era la de ascender, dejando las cenizas o tierras abajo. Estas ideas
se mantuvieron durante la Edad Media.
§
Las ideas griegas se incorporaron con profusión en la visión medieval
del mundo y fueron asumidas especialmente por los alquimistas. Los
alquimistas identificaron el vapor seco y el vapor húmedo, a los que
ya se había referido Aristóteles, con el azufre y el mercurio
respectivamente. Así se desarrollo la teoría de que todos los metales
contienen mercurio y azufre.
§
Siglo VIII d.C. Javir Hayyan, el fundador de química islámica, atribuyo
las diferencias entre los metales a las diferentes cantidades de azufre
que contenían. Se considero al azufre como el principio inflamable y
se lo utilizo como explicación adecuada para la combustión o
calcinación de los metales. La combustión se ve como la emisión
inflamable de azufre; esta seria la base de las ideas que se
desarrollarían posteriormente.
§
La hipótesis de que algo se escapaba durante la combustión fue
planteada por primera vez, en el año 1669, por el alemán J.J. Becher.
Para Becher, los cuerpos estaban constituidos por 3 elementos: la
54
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
tierra, el agua y el aire. De estos tres elementos, el aire no podía
participar en las reacciones y el agua tenía cualidades muy
específicas. Por tanto, la multiplicidad de las sustancias existentes en
la naturaleza se debía a las diferencias entre las distintas tierras: la
vítrea, la grasa y la fluida. Según Becher durante la combustión se
perdía el principio inflamable que era la tierra grasa o terra pinguis.
§
Esta concepción fue desarrollada, en 1731, por G.E.Stahl .Para Stahl
la tierra grasa que se escapaba durante el proceso era el flogisto (del
griego inflamable). Además las sustancias combustibles contenían
flogisto y las sustancias no combustibles, por el contrario, carecían de
flogisto o estaban desflogisticadas. Stahl fue un observador perspicaz
y argumento que la calcinación de los metales seguía un proceso
similar al de la combustión. Los metalúrgicos sabían desde hacia
siglos que una manera de extraer metal de un mineral consistía en
calentarlo con carbón vegetal. Se creía que el carbón aportaba el
calor y que también protegía al metal para que no se quemara. Stahl
reviso estos presupuestos y postulo que el carbón sumistraba el
flogisto necesario para convertir el mineral en metal.
§
Su gran contribución fue relacionar la combustión con otros procesos
como la fermentación o con la calcinación de los metales .Al calentar
un metal como el hierro o el plomo se producía una sustancia de
aspecto terroso y sin ninguna de las características metálicas (brillo,
ductilidad, etc.) que se denominaba habitualmente cal metálica, que
en la alquimia se denomina sal. Se conocía desde hacia tiempo que
algunas de estas cales metálicas podían ser transformadas de nuevo
en los metales de partida. Stahl explico este proceso suponiendo que
los metales estaban formados por una y un principio inflamable que
denomino flogisto, por lo que la calcinación , es decir, la formación de
una cal , se podía explicar como un desprendimiento de flogisto .El
proceso inverso ,la reducción de la cal a metal , se explicaba como
una adición de flogisto
55
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
1) VAN HELMONT (1577-1644), médico belga, profundamente religioso y un
gran investigador -es notable su investigación acerca del crecimiento de un
pequeño sauce, que duró cinco años- que combate los cuatro elementos de
ARISTOTELES, eliminando el fuego y la tierra, que inventa la palabra gas y
al que debemos los estudios sobre el gas silvestre (gas carbónico); y
LEMERY (1645-1715) que escribe su voluminoso Cours de Chymie en el
que describe las distintas operaciones de la Química.
Se debe a GEORG EMST STAHL (1660-1734), químico y médico alemán, la
teoría del flogisto, que aunque falsa, tiene no obstante el mérito de ser la
primera teoría capaz de coordinar el conjunto de los fenómenos esenciales
de la combustión y de la reducción. STAHL basa su teoría en las ideas del
alquimista alemán J. J. BECHER (1635-1682), el cual, al admitir el elemento
terroso, el elemento combustible y el elemento metálico no hace más que
desarrollar la vieja noción de los tres elementos cuyo origen debe buscarse
en las «exhalaciones» de ARISTÓTELES; un claro ejemplo de la pervivencia
de las ideas.
La teoría del flogisto, conocida también como «sublime teoría», supone que
toda sustancia combustible, tal como un metal, contiene un «principio
inflamable», denominado posteriormente, flogisto; en la combustión se
desprende el flogisto con acompañamiento de luz y calor y queda un
residuo, la “ceniza” o “cal” del cuerpo combustible. Cuanto más inflamable es
un cuerpo tanto más rico es en flogisto. El proceso de combustión puede
expresarse en la forma simplificada siguiente:
Metal (en la combustión) à Cal + Flogisto
El principal interés de la teoría está en que explica el fenómeno inverso de la
combustión, la reducción, pues si se calienta la cal (las cenizas metálicas)
con una sustancia rica en flogisto, tal como el carbón, ésta cede su flogisto a
la cal y el metal se revivifica. Esto es, abreviadamente,
Cal + Carbón
à
Metal
Así, por ejemplo, el plomo calentado en el aire se transforma en un
compuesto amarillo, el litargirio; el plomo es litargirio más flogisto. El carbón,
arde y casi no deja cenizas; es flogisto casi puro. Si se calienta litargirio con
56
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
carbón recupera la cantidad precisada de flogisto y se convierte de nuevo en
plomo metálico.
Varios metales tratados por diversos ácidos desprenden el mismo gas, el
aire inflamable (nuestro hidrógeno), que era así considerado como el flogisto
común a todos los metales. El negro de humo era imaginado como flogisto
puro.
Varias dificultades se presentaron a la teoría del flogisto. Se sabía, que al
calcinar un metal y formarse su cal aumentaba el peso, esto es, la pérdida
del flogisto era acompañada por un aumentó de peso, y también que el aire
era necesario para la combustión. El primer hecho pudo explicarse mediante
la hipótesis fantástica adicional de que el flogisto tenía un peso negativo, y el
segundo al suponer que un medio era necesario para absorber el flogisto
análogamente a como una esponja absorbe el agua, si bien no se
comprendía la razón de que el aire residual ocupase un volumen menor que
el aire primitivo.
La teoría del flogisto, ejemplo claro del carácter provisional de las teorías científicas,
pudo servir de guía a los grandes investigadores del siglo XVIII cuya labor
experimental constituye la base de la Química como ciencia. Citaremos unos pocos
nombres.
2) El químico inglés STEPHEN HALES (1667-1761) a principios del siglo
XVIII, al recoger gases sobre el agua.
M.W. LOMONOSSOFF (1711-1765), químico ruso, realiza experimentos
sobre la calcinación de los metales en vasos cerrados, con empleo
sistemático de la balanza; establece la constancia de la materia en los
procesos naturales, atribuye la combustión a una combinación del cuerpo
con el aire y explica las propiedades de los cuerpos a partir de la existencia
de átomos y moléculas (1743).
3)
JOSEPH BLACK, (1728-1799), profesor de química e investigador
inglés, descubre el gas carbónico al que llamó «aire fijo» por ser fijado por la
cal y el primer “aire artificial” identificado por los químicos. Sus estudios
cuantitativos acerca de los carbonatos son modelo de lógica y unidad y
57
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
sirvieron para dar al mundo científico una idea clara de la naturaleza de la
combinación química.
RUTHERFORD (1749-1819) fue el descubridor del nitrógeno
4) T.OLAF BERGMANN (1734-1784), químico, matemático y mineralogista
sueco, edifica las bases del análisis químico, reconoce el carácter ácido de
una disolución de gas carbónico y tiene del aire una concepción exacta al
considerarlo una mezcla de tres fluidos, el ácido aéreo (gas carbónico), el
aire viciado (nitrógeno) y el aire puro (oxígeno).
5) KARL WILHELM SCHEELE (1742-1786), químico sueco, es el
investigador más extraordinario de todos los tiempos. Sus experimentos con
el dióxido de manganeso le llevan al descubrimiento del oxígeno (algo antes
que PRIESTLEY, si bien lo publicó posteriormente) y del cloro -al que llamó
«espíritu de sal desflogisticado»-; estudió el primero diversos ácidos como el
fluorhídrico, tartárico, oxálico, cianhídrico y molíbdico, aisló el gas sulfhídrico
y la arsenamina, e investigó la naturaleza de numerosos compuestos. El
nombre de SCHEELE ha quedado unido al arsenito de cobre, que se conoce
como verde de Scheele, y en el mineral scheelita (wolframato cálcico). En
su Tratado elemental del Aire y del Fuego indica que el aire es una mezcla
de dos gases distintos, el «aire ígneo» y «el aire viciado».
6) JOSEPH PRIESTLEY (1733-1804), teólogo unitario inglés, no fue químico
de profesión, pero, hábil experimentador, desarrolló y perfeccionó la técnica
de preparación, recogida y manipulación de los gases. Demostró que las
plantas verdes convertían el aire respirado en aire respirable, preparó y
estudió numerosos gases (cloruro de hidrógeno, amoníaco, dióxido de
azufre, óxidos nítrico y nitroso, peróxido de nitrógeno, fosfamina, etileno,
etc.'), investigó el nitrógeno, y en 1 de: agosto de 1774 al concentrar
mediante una potente lente los rayos solares sobre el óxido mercúrico
obtuvo el oxígeno, su mayor descubrimiento. Su tenaz adhesión a la teoría
del flogisto le impidió progresar en la interpretación de sus valiosas
investigaciones, y así designó el oxígeno como «aire desflogisticado».
7) Henry CAVENDISH (1731-1810), aristócrata inglés, dueño de una gran
fortuna, dedicó toda su vida a la Química. Se ha dicho de él que fue «el más
58
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
rico de todos los sabios y el más sabio de todos los ricos». Fue el primero
que utilizó la cuba de mercurio, y al hacer actuar el ácido sulfúrico. y el ácido
clorhídrico sobre el hierro, el cinc y el estaño descubrió, en 1766, el
hidrógeno, gas ya entrevisto por PARACELSO, al que llamó «aire
inflamable». Al medir la densidad comprobó en cada caso que se trataba del
mismo gas, y al quemarlo en el aire ordinario y en el oxígeno encontró, con
sorpresa, que se formaba agua y que las proporciones en que dichos gases
se combinaban eran de dos volúmenes de aire inflamable por un volumen de
aire desflogisticado. La síntesis del agua realizada en 1781 constituye una
fecha señalada en la historia de la Química. En su análisis del aire halló un
20,8% de oxígeno, valor muy próximo al verdadero, y sospechó la existencia
del argón. Investigó también en el campo de la Física y fue el primero en
determinar la densidad de la Tierra, encontrando el valor de 5,48,
notablemente exacto. CAVENDISH, químico flogista, no supo comprender la
importancia de sus investigaciones acerca de la síntesis del agua.
59
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL FLOGISTO, SEGÚN LA LECTURA
ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR
LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA)
FENÓMENO:
§
COMBUSTIÓN
PROGRAMA DE INVESTIGACIÓN:
§
FLOGISTO
NUCLEO FIRME:
§
SUSTANCIA QUE SE LIBERA CUANDO ARDEN LOS CUERPOS
CINTURÓN PROTECTOR:
§
EL FLOGISTO POSEE LEVEDAD.
§
LA EMISION DE FLOGISTO INCREMENTA LA DENSIDAD DE UNA
SUSTANCIA.
§
SE PRODUCE UN INCREMENTO O ADICION SECUNDARIA A
PARTIR DEL AIRE A MEDIDA QUE EL FLOGISTO SALE.
§
LAS PARTICULAS DE FUEGO SON CAPACES DE ATRAVESAR
LAS PAREDES DEL CRISTAL DE UN CONTENEDOR CALIENTE
ADHIRIENDOSE A LA SUSTANCIA QUE ARDE.
§
LOS OBJETOS ARDEN MEJOR EN PRESENCIA DE AIRE
DESFLOGISTICADO.
60
“De Demócrito a la Máquina de Dios”
HEURÍSTICAS
POSITIVAS
DEL
Alumnos ISFD35
PROGRAMA
POSTULANDO
LA
EXISTENCIA DEL FLOGISTO
§
Permitió proponer una explicación razonable sobre la conversión de
las menas minerales en metal, el primer gran descubrimiento químico
del hombre civilizado.
§
En la década de los setenta era casi universalmente aceptada por los
químicos, desde el momento en que parecía explicar tantas cosas y
tan claramente.
§
Al principio del siglo XVIII, los químicos no cuestionaban que la
combustión era la fuga de algo hacía el aire, esto se evidenciaba con
la oscilación de las llamas.
§
Todas las sustancias combustibles contienen flogisto.
§
Las sustancias no combustible contienen poco o ningún flogisto como
ocurre después del desflogisticación.
§
El éxito de la notable rapidez con que se aceptó y desarrolló la teoría
del FLOGISTO, era que existía en el siglo XVII un vacío científico muy
grande y el racionalismo tan en boga, necesitaba explicar una serie
de hechos experimentales que aparentemente no se justificaban de
otra manera.
61
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
HEURÍSTICAS NEGATIVAS DEL PROGRAMA POSTULANDO LA
EXISTENCIA DEL FLOGISTO
§
La
naturaleza
misma
del
flogisto
conducía
a
diferentes
interpretac iones.
§
Robert Boy le había demostrado en 1672 que no s e podía realizar la
combustión en el v ac ío.
§
El papel exc lus iv amente mec ánico que los stahlianos le atribuían al
aire repres entaba un problema.
§
¿Todos los tipos de aire jugaban el mis mo papel?
§
La princ ipal dificultad cons is tía en que los metales aumentaban de
peso des pués de la c ombus tión o de la ¿calc inación?
§
¿Cómo reconciliar el aumento de peso c on la liberac ión de algo
durante la combustión?
§
Esta dificultad conducirá a Lavoisier a dudar de la teoría y a
rec hazarla.
§
Para Boy le, son las partículas de fuego las que, al atravesar el
rec ipiente penetrando por los poros, c aus an el aumento de peso.
§
Guyton de Morv eau, colaborador de Lavoisier, formulará al princ ipio
una ex plicación del mismo tipo: “El flogis to es más ligero que el aire”,
lo demues tra manifies tamente la c onfus ión que exis tía entre la
densidad y el pes o.
§
Lavoisier relata sus experimentos s obre la combustión del azufre y del
fós foro y demuestra que el aumento de peso de la materia s ólida se
debe al hecho de que una c antidad de aire haya sido fijada por el
sólido.
§
La reducción de la litargia (óx ido de plomo, PbO) en un rec ipiente
cerrado, que permite el pas o de la c al metálica al metal, es tá
ac ompañada por una liberac ión c ons iderable de aire.
§
La naturaleza de ese aire era desconoc ida y Lavoisier la lla maba
“parte de aire que se fija”.
62
“De Demócrito a la Máquina de Dios”
§
Alumnos ISFD35
A base de medir s istemátic amente los pesos, con una precisión
desconocida en la époc a (Lavoisier c ontaba con unas balanzas),
demuestra que el aumento en el pes o del metal calcinado es igual al
peso del aire absorbido y c onc luye que s olamente una parte del aire
se puede combinar con los metales o s erv ir para la respiración.
§
El aire deja de ser un elemento.
§
Lavoisier: el aire “puro”, al que luego llamará “aire inminentemente
res pirable”, más tarde “principio ox igeno”, y después oxígeno.
§
Esto último es una lástima, pues oxígeno significa “el que engendra
ác idos”.
§
Lavoisier pensaba que todos los ác idos contienen oxígeno, lo cual
dará origen a una terrible confus ión.
§
También, en 1774, el inglés Robert Priestley (1733-1804) obtendrá un
gas insoluble en el agua que mantiene c on v iv ac idad la combustión al
calentar óxido rojo de merc urio, HgO.
§
Cree reconoc er el N2O (protóx ido de nitrógeno), que había obtenido
el año anterior al reaccionar NO2 con limadura de hierro.
§
Lo llamo “aire desflogisticado”, es decir, aire que puede aprisionar al
flogis to de los cuerpos c ombus tibles .
§
Cas i en la mis ma época, otro químic o partidario del flogis to, Carl
Wilhelm Scheele (1742-1786), aísla un gas que luego se llamara
ox ígeno al desc omponer óxido de manganeso.
§
Sus experiencias no se public an hasta 1777, y en el los demues tra
que el aire es tá c ompuesto de dos fracciones: el “aire corrupto” o “aire
viciado”, y el aire “puro” o “aire de fuego”.
§
El oxígeno se desc ubre en 1774, pero no s e carac teriza.
§
Lavoisier retoma los experimentos de Priestley , balanza en mano, y
calentando óxido de merc urio en pres enc ia de carbono.
§
Ahí descubre que una parte del gas formado es soluble en agua, el
llamado “aire fijo”, CO2, y que la otra parte, ins oluble en agua, ac tiv a
la combustión y es el mis mo gas que s irve para la c alc inación de los
metales.
63
“De Demócrito a la Máquina de Dios”
§
Alumnos ISFD35
El gas que no es “aire fijo” mantiene mejor la c ombus tión que el aire
atmos férico.
§
Que este gas es el res ponsable del aumento de pes o de los metales
durante la calcinac ión.
§
Para Lavoisier, la combustión c ons is te en la absorc ión de un gas,
llamado
por
Scheele,
“aire
de
fuego”,
por
Pries tley,
“aire
desflogisticado” y por él mis mo “aire in minentemente res pirable”.
64
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA FORMULADA POR LAVOISIER, SEGÚN LA
LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA
POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA)
FENÓMENO:
§
COMBUSTIÓN
PROGRAMA DE INVESTIGACION:
§
DESCUBRIMIENTO DEL O2
NUCLEO FIRME:
§
PRESENCIA DE O2 DURANTE LA COMBUSTION
CINTURON PROTECTOR:
§
CUANDO EL CARBON VEGETAL ENTRA EN REACCIÓN CON UN
ÓXIDO O MINERAL METÁLICO, EL CARBÓN REACCIONA CON LA
PARTE EMINENTEMENTE RESPIRABLE DE LA ATMOSFERA
PARA PRODUCIR AIRE FIJO.
§
NO TODOS LOS OXIDOS CONTIENEN O2.
65
“De Demócrito a la Máquina de Dios”
HEURISTICAS
POSITIVAS
DEL
Alumnos ISFD35
PROGRAMA
POSTULANDO
LA
EXISTENCIA DEL O2
Dentro del nuevo esquema de Lavoisier, el agua podía interpretarse como
un compuesto de aire inflamable y oxigeno .Para Lavoisier esto parecía
quedar confirmado además por el hecho de que al hacer pasar vapor de
agua a través de hierro caliente se producía la cal (oxido) y el gas inflamable
(hidrogeno). En términos modernos:
4H2O+ 3FE•FE3O4 +4H2
Una ves que Lavoisier comprendió que el agua era un compuesto de
hidrogeno y oxigeno, fue capaz de explicar convincentemente la producción
del hidrogeno a partir del ataque de un metal por un acido.
El hidrogeno procedía del agua en la solución acida.
El proceso se explicaba mediante 2 fases:
Metal + (hidrógeno • óxido + hidrogeno
+
Oxigeno)
Oxido del metal + ácido • sal
La composición del agua acabaría finalmente impulsando la teoría del
oxigeno, porque, en ultima instancia, esta teoría resulto capaz de explicar la
reacción entre metales y ácidos al menos también como lo hacia la teoría del
flogisto.
Además de esta nueva interpretación, a partir de esta teoría, se llego al
reconocimiento de que la combustión, la calcinación y la respiración exigen
consumo de o2.
66
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Otra cuestión fue el reconocimiento de la necesidad de realizar medidas
precisas en química y el establecimiento de la conservación de la materia
como parte esencial de un sistema químico.
Una de las principales razones por las que la teoría del oxigeno acabo
ganando la partida fue por su capacidad para dar cuenta de cada vez mas
reacciones químicas, sin acumular supuestos arbitrarios e hipótesis ad hoc.
HEURISTICAS NEGATIVAS DEL PROGRAMA
POSTULANDO LA
EXISTENCIA DEL O2
§
Las ideas de Lavoisier no supusieron el final del flogisto en 1777, año
en el que identifico, la importancia del oxigeno, debido a que la
emisión de aire inflamable cuando los metales eran atacados por los
ácidos era explicada mejor por medio de la teoría del flogisto que
haciendo uso del nuevo esquema conceptual.
§
Cavendish, fue durante mucho tiempo partidario del flogisto. Conocía
las ideas de Lavoisier pero no encontró diferencias sustanciales entre
estás y las teoría del flogisto en su nueva versión.
67
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL FLOGISTO, SEGÚN LA LECTURA
ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO POR
KHUN
CIENCIA NORMAL
La teoría de la combustión de Stahl establecía que cuanto más flogisto tenía
una sustancia más combustible era. Así por ejemplo, un papel arde porque
contiene flogisto, sin embargo sus cenizas desprovistas de dicha sustancia
no pueden arder. En este esquema la combustión de una sustancia suponía
la perdida de flogisto que se transfería al aire. Cuanto más flogisto tuviese
una sustancia mejor ardía.
La teoría del flogisto ganaba adeptos y hacia mediados del siglo XVIII era
ampliamente aceptada por los químicos, sin embargo había una dificultad
que tanto Stahl como sus discípulos no pudieron explicar. La combustión de
la madera, con la subsiguiente perdida de flogisto, producía en cenizas de
peso inferior a aquella; Sin embargo, la calcinación- hoy podríamos decir la
oxidación-de los metales dando lugar a la formación de la correspondiente
cal –que análogamente Stahl interpretaba como una perdida de flogistoresultaba en un aumento de peso. ¿Había entonces dos tipos de flogisto: el
de la madera y sustancias afines cuyo peso era positivo y el de los metales
cuyo peso era negativo?
ENIGMAS
Los enigmas son problemas que los científicos tratan de resolver, con la
teoría vigente.
Los enigmas que surgieron en el periodo donde se aceptaba la teoría del
flogisto fueron que a través de múltiples observaciones y numerosos
experimentos habían puesto de manifiesto que el aire era imprescindible
68
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
para la combustión y la oxidación, y que la llama de una vela se extinguía
rápidamente en un espacio cerrado .Tales hechos, no fueron especialmente
difíciles de incorporar a la vigente teoría del flogisto: el aire se veía como el
receptor del flogisto que , cuando, se saturaba, acababa inhibiendo la
posterior emisión de este e impedía la combustión .Por otra parte una,
respuesta ingeniosa a la disminución del volumen del aire después de la
combustión, consistía en afirmar que el flogisto que se escapaba dañaba la
elasticidad del aire.
Otro enigma fue explicar el aumento de peso que experimentan los metales
cuando son quemados en el aire, Guyton lo explico manifestando que el
flogisto poseía levedad. Si algo que posee esta capacidad sale de un objeto,
el objeto debería hacerse mas pesado.
En 1781 Cavendish hizo explotar una mezcla de hidrogeno y aire ordinario y
observo dos hechos importantes: el primero fue que la “elasticidad” del aire
se reducía; el segundo, fue que observo gotas de agua en el contenedor
.Analizo las gotas y llego a la conclusión de que el agua era un compuesto
de aire inflamable y aire desflogisticado.
Otro de los enigmas fue explicar la emisión de hidrogeno producida durante
el ataque de los metales por los ácidos. Cavendish propuso que se emitía el
mismo peso de aire inflamable si se usaba acido clorhídrico o sulfúrico,
entonces el aire inflamable, y no el acido, debía estar presente en el metal.
Otro gran defensor de la teoría del flogisto fue Priesley que murió
defendiendo esta teoría, antes de morir dejo una demostración que apoya su
creencia:
“Tan pronto como el minio (cal de plomo) se secaba por medio del calor al
que se exponía, observe que primero se ponía negro y luego fluía como
plomo perfecto, también constate que al mismo tiempo que el aire
(inflamable) disminuya de manera importante, el agua ascendía dentro del
recipiente…. no me cabía duda de que, en realidad, la cal estaba
absorbiendo algo del aire , y el efecto generado era la conversión de la cal
en metal; y por ello lo que se absorbía no podía ser otra cosa que aquello a
lo que los químicos le habían dado el nombre de flogisto”.
69
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Las conclusiones de Priesley son:
Cal de plomo + aire inflamable • plomo metálico
(Flogisto)
Más tarde Priesley reconocería la formación de agua durante el proceso,
pero la relegaría a un mero producto secundario.
ANOMALÍAS
El punto de partida de la creación científica es la detección de anomalías. En
algunos momentos determinados, los científicos advierten que la naturaleza
viola las expectativas generadas por el paradigma que gobierna la ciencia
normal. Por ejemplo, en el siglo XVIII el sueco Carl Wilhelm Scheele (17421786), el inglés Joseph Priestley (1733-1804) y el francés Antoine Laurent
Lavoisier (1743-1794) advirtieron que los fenómenos de combustión no
podían explicarse sosteniendo que las materias combustibles eran ricas en
flogisto y que perdían esta substancia al arder, tal como establecía la teoría
dominante de George Ernest Stahl (1660-1734). La anomalía fue resuelta
cuando Lavoisier estableció claramente, siguiendo algunas sugerencias de
Priestley, que en la combustión no se pierde flogisto sino que se gana una
parte del aire, a saber, el oxígeno. Tal como señala I. Bernard Cohen, en
Revolution in Science (1985), la ecuación ceniza + flogisto = metal fue
sustituida por la nueva ecuación ceniza = metal + oxígeno. Este
descubrimiento de una nueva teoría de la combustión permitió a Lavoisier
reformular la química, produciendo un cambio de paradigma y, con ello, una
revolución científica.
70
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRISIS
En el siglo XVII con el desarrollo de la bomba de aire y otros numerosos
artefactos neumáticos, los químicos llegaron a comprender, cada vez mejor,
que el aire debía ser un ingrediente activo de las reacciones químicas. Pero
con pocas excepciones, los químicos continuaron creyendo que el aire era el
único tipo de gas. Hasta 1756, cuando Joseph Black demostró que el aire fijo
(CO2) se distinguía claramente del aire normal, se creía que dos muestras
de gas eran sólo diferentes por sus impurezas.
Después del trabajo de Black, la investigación de los gases se llevó a cabo
rápidamente, principalmente por Cavendish, Priestley y Scheele quienes
juntos, desarrollaron una serie de técnicas nuevas, capaces de distinguir una
muestra de gas de otra. Todos esos hombres, desde Black hasta Scheele,
creían en la teoría del flogisto y la empleaban a menudo en el diseño y la
interpretación de sus experimentos. En realidad, Scheele produjo oxígeno
por primera vez, mediante una cadena compleja de experimentos destinados
a deflogistizar el calor. Sin embargo, el resultado neto de sus experimentos
fue una variedad de muestras de gases y de propiedades de estos tan
complejas, que la teoría del flogisto resultó cada vez menos capaz de hacer
frente a la experiencia de laboratorio. Aunque ninguno de esos químicos
sugirió que era preciso reemplazar la teoría, fueron incapaces de aplicarla de
manera consistente. Para cuando Lavoisier inició sus experimentos con el
aire, durante los primeros años de la década de 1770, había casi tantas
versiones de la teoría flogística como químicos neumáticos. Esta
proliferación de versiones de una teoría es un síntoma muy usual de crisis.
Lavoisier, estaba también muy interesado en explicar el aumento de peso
qué experimentaba la mayoría de los cuerpos cuando se queman o se
calientan. Si las reacciones químicas podían alterar el volumen, el color y la
textura de los ingredientes, ¿por qué no podían modificar también el peso?
No siempre se consideraba que el peso era la medida de la cantidad de
materia; además, el aumento de peso mediante el calentamiento continuaba
71
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
siendo un fenómeno aislado. La mayoría de los cuerpos naturales (p. ej. la
madera) pierden peso al ser calentados, como diría más tarde la teoría del
flogisto.
Sin embargo, durante el siglo XVIII, esas respuestas inicialmente adecuadas
para el problema del aumento de peso se hicieron cada vez más difíciles de
sostener. En parte debido a que la balanza se utilizaba cada vez más como
instrumento ordinario de química y en parte porque el desarrollo de la
química neumática hizo posible y conveniente retener los productos
gaseosos de las reacciones, los químicos descubrieron muchos otros casos
en los que el calentamiento iba acompañado por un aumento de peso. Pero
si el problema del aumento de peso no condujo al rechazo, sí llevó a un
número cada vez mayor de estudios especiales en los que dicho problema
tenía una gran importancia. Como los problemas de la química neumática,
los del aumento de peso estaban haciendo que resultara cada vez más difícil
saber qué era la teoría del flogisto. Aunque todavía era creído y aceptado
como instrumento de trabajo, un paradigma de la química del siglo XVIII
estaba perdiendo gradualmente su status único.
LA REVOLUCIÓN CIENTÍFICA
La revolución científica comienza cuando un sistema de pensamiento se
hace insostenible y da paso a un conjunto de ideas nuevas que establecen
toda una disciplina sobre una nueva base.
El principal detractor de la teoría del flogisto fue Lavoisier que a partir de sus
experiencias y descubrimientos termino destronando al flogisto y dio paso al
O2.
Ciertas anomalías , como por ejemplo , la del químico francés Bayeu que se
da cuenta de que al calentar la cal mercúrica se produce mercurio metálico y
de que, a diferencia de otros óxidos, esto sucede en ausencia de carbón
.Bayeu piensa que el aire que emana es “aire fijo” (CO2). Este hecho
planteaba problemas a la vigente teoría del flogisto, ya que de acuerdo con
ella, se pensaba que el carbón era imprescindible para suministrar el flogisto
al oxido y convertirlo así en un metal. Pero en el año 1778 Lavoisier publica
72
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
que cuando el carbón vegetal entra en reacción con un oxido o mineral
metálico no es el carbón el que suministra el flogisto, sino que el carbón
reacciona con la parte eminentemente respirable de la atmósfera para
producir aire fijo.
Interpretación según la teoría del flogisto:
Oxido + carbón (ø) • metal
Interpretación de Lavoisier:
Cal + carbón + aire eminentemente • metal + aire fijo
respirable
Otro de los descubrimientos que impulsaron la teoría del O2 fue conocer
como estaba compuesta el agua. Dentro del nuevo esquema de Lavoisier el
agua podía explicarse como un compuesto de aire inflamable y O2. De esta
manera Lavoisier pudo explicar la producción del hidrogeno a partir del
ataque de un metal por un acido.
En
esta
revolución
científica
existieron
además
varias
etapas
y
descubrimientos que llevaron al cambio de paradigma, entre ellas podemos
enunciar las siguientes:
§
Mayor precisión en los métodos cuantitativos y aplicación de la ley de
conservación de la masa para compensar las reacciones químicas.
§
La definición precisa de elemento químico, compuesto y mezcla.
§
El abandono de la idea de aire como elemento, la distinción entre
diferentes tipos de aire o gases y la comprensión de que el aire podía
participar y de hecho participa, en las reacciones químicas.
73
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
EXPERIENCIAS
(1)
Para VAN HELMONT, estas sustancias parecidas al aire, sin
volumen ni forma determinados, eran algo semejante al «chaos» griego: la
materia original, informe y desordenada, a partir de la cual (según la
mitología griega) fue creado el universo. Van Helmont aplicó a los vapores el
nombre de «chaos», que pronunciado con la fonética flamenca se convierte
en gas. Este término se aplica todavía a las sustancias parecidas al aire.
Van Helmont llamó al gas que obtuvo de la madera «gas silvestre» («gas de
madera»). Era el que actualmente llamamos dióxido de carbono.
El estudio de los gases, la forma más sencilla de materia, fue el primero que
se prestó a las técnicas de medición precisa: sirvió de camino al mundo de la
química moderna
(2) HALE
Los vapores formados como resultado de una reacción
química pudieron conducirse, a través de un tubo, al interior de un
recipiente que se había colocado lleno de agua y boca abajo en una
jofaina con agua.
El gas burbujeaba dentro del recipiente, desplazando el agua y
forzándola a través del fondo abierto.
Al final, Hales obtuvo un recipiente del gas o
gases formados en la reacción.
Hales
mis mo
no
distinguió
entre
los
diferentes gas es que preparó y confinó, ni
tampoco es tudió sus propiedades, pero el
s olo hecho de haber ideado una téc nic a
sencilla para retenerlos era de la mayor i mportancia.
(3) JOSEPH BLACK
El químico escocés Joseph Black (1728-1799) dio otro importante paso
adelante.
74
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
La tesis que le mereció una graduación en Medicina en 1754 trataba sobre
un problema químico (era la época en que la medicina y la mineralogía
estaban estrechamente interrelacionadas), y publicó sus resultados en 1756.
Lo que hizo fue calentar fuertemente piedra caliza (carbonato cálcico). Este
carbonato se descompuso, liberando un gas y dejando cal tras de sí.
El gas liberado pudo recombinarse con el óxido de calcio para formar de
nuevo carbonato cálcico.
El gas (CO2) era idéntico al «gas silvestre» de Van Helmont, pero Black lo
llamó «aire fijado», porque cabía combinarlo («fijarlo») de tal manera que
formase parte de una sustancia sólida.
Los descubrimientos de Black fueron importantes por varias razones.
En primer lugar, mostró que el dióxido de carbono puede formarse
calentando un mineral, lo mismo que quemando madera; de este modo se
estableció una importante conexión entre los reinos animado e inanimado.
En segundo lugar, demostró que las sustancias gaseosas no sólo son
liberadas por los sólidos y líquidos, sino que pueden combinarse con ellos
para producir cambios químicos.
Este descubrimiento quitó a los gases mucho de su misterio y los presentó
más bien como una variedad de materia que poseía propiedades en común
(al menos químicamente) con los sólidos y líquidos más familiares.
Por otro lado, Black demostró que cuando el óxido de calcio se abandona en
el aire, vuelve lentamente a carbonato cálcico.
De esto dedujo (correctamente) que hay pequeñas cantidades de dióxido de
carbono en la atmósfera.
75
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
He aquí la primera indicac ión clara de que el aire no es una s us tancia simple
y que, por lo tanto, pese a la concepción griega, no es un elemento según la
definición de Boyle.
Consiste en una mezcla de por lo menos dos sustancias diferentes, el aire
ordinario y el dióxido de carbono.
En 1772 el químico escoses Daniel Rutherford informó sobre los efectos de
una vela encendida en in deposito cerrado. Al cabo de un rato, la vela se
apaga y no se podía encender otra en ese depósito.
En aquella época se sabía que las velas al arder producían bióxido de
carbono, y que nada podía arder en este gas. Por lo tanto, se concluía que la
vela encendida gastaba el aire y lo reemplazaba por dióxido de carbono.
Rutherford concluyo que tenían un gas que era parte importante del aire,
pero que no, era su totalidad, que no era bióxido de carbono pero que
tampoco permitía que la vela ardiese.
(3)
BERGMAN des arrolló una teoría para explicar porque una sustancia
reacc iona con otra, pero no con una tercera.
Supuso la ex istenc ia de «afinidades» (es decir, atracc iones ) en divers o
grado entre las s ustanc ias.
Preparó esmeradamente unas tablas donde se registraban las diversas
afinidades; es tas tablas fueron muy famosas en vida de él y aún v arias
décadas después.
76
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
(4) SCHEELE
Combus tión
de
hidrógeno
en
aire:
ex perimento de Sc heele.
El hidrógeno se genera en la botella A.
Sumergida en la tina de agua caliente B.
La flama arde en el interior del matraz
inv ertido, D. El agua sube dentro del
matraz. Obtención de aire empíreo de
Scheele.
(5) JOSEPH PRIESTLE
La fermentación del grano produce dióxido de carbono, que Priestley podía
así obtener en abundancia para sus experimentos.
Recogiendo dióxido de carbono sobre agua, observó que una parte se
disolvía y daba al agua un agradable sabor ácido.
Era lo que en la actualidad llamamos «agua de soda». Y como sólo se
necesita añadir esencia y azúcar para producir bebidas gaseosas, Priestley
puede considerarse como el
padre de la moderna industria
de refrescos.
Priestley empezó a estudiar
otros gases a comienzos de
la década 1770-1779.
En esa época sólo se
conocían tres gases
diferentes: el aire mismo, el
dióxido de carbono de Van Helmont y Black, y el hidrógeno de Cavendish.
Rutherford añadiría el nitrógeno como cuarto gas. Priestley, por su parte,
procedió a aislar y estudiar algunos otros gases.
77
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Su experiencia con el dióxido de carbono le había enseñado que los gases
pueden ser solubles en agua y, para no perderlos en sus experimentos,
intentó recogerlos sobre mercurio.
Por este método logró recoger y estudiar gases como el óxido nitroso,
amoníaco, cloruro de hidrógeno y dióxido de azufre (para darles sus
nombres actuales), todos los cuales son demasiado solubles en agua para
resistir el paso a su través.
En 1774, el uso del mercurio en su trabajo con los gases dio lugar al
descubrimiento más importante de Priesley.
El mercurio cuando se calienta en el aire, forma un «calcinado» de color rojo
ladrillo (que ahora llamamos óxido de mercurio).
78
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Priestley pus o algo de es te c alcinado en un tubo de ensayo y lo calentó con
una lente que conc entraba los rayos del sol sobre él.
El c alcinado se transformó de nuev o en mercurio, que aparecía como bolitas
brillantes en la parte s uperior del tubo de ensayo.
Ade más , la descompos ición liberaba un gas de propiedades muy extrañas .
Los c ombus tibles ardían antes y con más brillo en ese gas que en el aire.
Un rescoldo de madera introducido en un recipiente que contuviese dicho
gas ardía con llama.
Priestley trató de explic ar este fenómeno rec urriendo a la teoría del flogis to.
Puesto que los objetos ardían tan fácilmente en este gas , tenían que s er
capac es de liberar flogis to con extraordinaria facilidad.
Así, Priestley llamó a es te nuevo gas «aire des flogisticado».
Sin e mbargo, poc os años después fue rebautizado como ox ígeno, nombre
que aún se c ons erv a.
Realmente, el «aire des flogis tic ado» de Pries tley parecía s er el opuesto al
«aire flogisticado» de Rutherford.
Un ratón moría en este último, pero era particularmente activo y juguetón en
el primero.
Priestley probó a respirar algo de ese «aire desflogisticado», y se s intió
«ligero y cómodo».
(6) HENRY CAVENDISH
En 1766, Henry Cavendish fue el primero en reconocer el hidrógeno
gaseoso como una sustancia discreta, identificando el gas producido en la
reacción metal - ácido como "aire inflamable" y descubriendo que la
79
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
combustión del gas generaba agua. Cavendish tropezó con el hidrógeno
cuando experimentaba con ácidos y mercurio. Aunque asumió erróneamente
que el hidrógeno era un componente liberado por el mercurio y no por el
ácido,
fue
capaz
de
describir
con
precisión
varias
propiedades
fundamentales del hidrógeno. Tradicionalmente, se considera a Cavendish el
descubridor de este elemento.
80
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
BIBLIOGRAFÍA
§
Cartwright, John, Del flogisto al oxígeno, La Orotava, Tenerife,
Fundación Canaria Orotava de Historia de la Ciencia.
§
E.H.Flichman y otros, (Edición, 1. Año de Publicación, 1998) Las
raíces y los frutos. Eudeba
Paginas Web
§
http://thales.cica.es/rd/Recursos/rd99/ed99-0314-01/portada.htm
§
http://aitri.blogspot.com/2007/09/la-teora-del-flogisto.html
§
http://www.cuentometro.com.ar/826.htm
81
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
82
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“TEORÍAS DEL CALOR”
Godoy, Mercedes.
Román, Giselle.
83
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRONOLOGIA HISTÓRICA
PLATÒN: “TEORÍA DE LOS CUATRO ELEMENTOS”
Tomaba al fuego como el elemento más sencillo (se asociaba al
tetrahedro). El fuego tenía la capacidad de desarmar a los demás elementos.
En la idea de Platón se ve un rasgo físico-matemático; plantea la
conexión entre las propiedades materiales y las transformaciones de la
materia con relaciones numéricas y geométricas.
ALQUIMISTAS: CIENCIA DEL FUEGO; “El fuego cambia las cosas”
El fuego y el calor asociado a él, transformaban las cosas. Se
producían diluciones, dilataciones, fusiones, evaporaciones, etc. Se toma al
calor como fuente de cambios.
LAPLACE: (*3 ) Toma al calor como “fluido imponderable”. Se encuentra
fuera de la sistematización matemática. Las manifestaciones del calor se
deben a un fluido llamado calórico (Teoría del calórico)
STAHL: (1967) “TEORÍA DEL FLOGISTO”: (*1)
Postula que debería existir por un lado un fuego material que se
manifiesta en la llama y el calor, en una combustión. Y por otro lado habría
un fuego principio, un elemento imponderable e inasible que contenía los
elementos susceptibles de arder. Este elemento, el flogisto, se liberaría por
acción del calor sobre el cuerpo. Así, un metal estaría formado por flogisto y
cal, bajo la acción del calor el flogisto se liberaba y quedaba la cal, considera
que las cales son elementos y los metales, compuestos de cal y de flogisto.
84
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
* Fines del siglo XVIII
LAVOISIER: (*4) “los metales son sustancias simples que por acción del
fuego, se unen al oxígeno y forman óxidos.”
Lavoisier piensa en el fuego desde una posición crítica al flogisto,
desconfiando de su existencia. Le molesta que todo en química, se explique
en términos de flogisto, cuando no había ningún instrumento capaz de
recogerlo ni medirlo. Sin embargo, no luchará abiertamente contra él hasta
1783, cuando ya conoce la composición del agua y puede así, elaborar una
teoría más completa sobre los elementos, prescindiendo finalmente del
flogisto.
Realiza una nueva teoría sobre el oxígeno, la cual lo lleva a rechazar
al flogisto y a considerar que las cales son compuestos y los metales,
elementos.
Considera que en la reacción química que ocurre, los elementos se
conservan, y esta conservación se detecta en base a una balanza. Es así
que mediante este instrumento, comparó las relaciones estequiométricas
que ocurrió en la reacción química de oxidación.
•
Principios del siglo XIX
FOURIER: “Ley de transmisión del calor”
Consideraba la transmisión del calor como irreversible; el flujo de
calor entre dos cuerpos es directamente proporcional a la diferencia de
temperatura entre ambos y sólo puede ir en un sólo sentido.
Llegó a esta conclusión, luego de frotar en diferentes oportunidades,
cuerpos a distintas temperaturas y comprobar la transferencia de calor entre
ambos.
85
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
1824: CARNOT: (*2)
Trataba de determinar la producción de energía mecánica a partir del
calor en las máquinas.
En la máquina de vapor, el calor fluía de una región de mayor
temperatura (la caldera) a una región de menor temperatura (el
condensador), generándose trabajo mecánico mediante el cilindro y el pistón
en el proceso.
Consideró que el rendimiento se debía a la diferencia de calor entre la
caldera y el condensador.
No consideró la pérdida de calor que ocurría en el proceso, esta
consideración fue hecha por Clausius un tiempo después.
Para obtener sus conclusiones, construyó la máquina de vapor que se
propone en el siguiente esquema:
Máquina de vapor:
Calor
Evaporación
AGUA
VAPOR
Expansión
TRABAJO
Se extrae calor
y se condensa
Se bombea el agua
Al final de la caldera
MAYER: Su objetivo era determinar la relación existente entre el calor, la
energía mecánica y la energía química.
Observó: que la sangre venosa de sus pacientes era más roja en los trópicos
que en las latitudes.
86
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Supuso: El exceso de oxígeno procedía de la disminución de combustión de
alimentos como consecuencia de la menor demanda de calor corporal.
Concluyó: calor, energía mecánica y energía química eran intercambiables.
JOULE: (*5) “Teoría mecánica del calor”; Trabajo mecánico podía
convertirse en calor
Experiencia: utilizó pesas que al caer hacían girar paletas en el agua. El
aumento de la temperatura del agua indicaba la cantidad de calor obtenido
de las pesas.
Energía eléctrica
calor
HELMHOLTZ (1847): Enuncia el primer principio de la termodinámica; la
energía total del universo es constante y sólo puede haber conversiones de
formas de energía.
87
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL CALÓRICO, SEGÚN LA LECTURA
ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR
LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA)
Al considerar las ideas relacionadas al calor de Platón y los Alquimistas,
puede destacarse que el núcleo central de la teoría es el fuego. No existían
experiencias precisas, ya que se basaban en la observación de la
naturaleza.
De Platón y los Alquimistas a la llegada del flogisto (*1), se produjo
una modificación- evolución del programa de investigación, ya que como se
menciona con anterioridad, en primer lugar sólo existe la observación de la
naturaleza, mientras que la metodología de la teoría del flogisto, se incluyen
métodos de experimentación con instrumental específico (por ejemplo, el
uso de balanzas para determinar las relaciones estequiométricas).
Al llegar a la idea del flogisto, se amplía la teoría, agregándose una
hipótesis ad hoc, sin modificar su núcleo central. Es decir, se modificó algo
del resto para que el programa de investigación científica siga funcionando.
Ante la falsación de que los residuos de materia pesaban más que las
materias originales, mediante la intervención del fuego y el calor (atribuido al
flogisto) se modificó algo que no fue la parte del núcleo central del programa
para que éste pueda predecir lo observado y de esta forma desaparezca la
falsación.
El cinturón protector del programa fue la hipótesis de la existencia del
flogisto.
Se produjo un proceso de heurística negativa del programa, que modificó un
enunciado de la teoría con el fin que desaparezca la falsación, pero
conduciendo a la formación del enunciado que compone el cinturón
protector, impidiendo modificar el núcleo central.
*1: Teoría del flogisto, pág 1-2
88
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Lavoisier, produce la falsación de la teoría del flogisto (véase pág 2,
experiencia de Lavoisier) y se realiza una nueva modificación del cinturón
protector de la teoría central, esta vez, para negar por completo la existencia
del flogisto.
A partir de aquí, se agregan distintas hipótesis ad hoc que tienden a
explicar fenómenos auxiliares al núcleo central de la teoría (como la forma
de transmisión del calor, la relación entre calor y trabajo, la relación entre
trabajo y la energía mecánica y química, etc)
En Carnot (*2) puede verse un cambio de metodología, ya que cambia
la forma de realizar las experiencias en cuanto al uso de instrumental
específico y moderno, además de tomar en cuenta la aparición de la física
calórica.
(*2) experiencia de Carnot, pag. 2-3
89
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL CALÓRICO, SEGÚN LA LECTURA
ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN
Al analizar el principio de las ideas del calor, se evidencia un primer
paradigma. En este período de ciencia normal, se obtiene el conocimiento a
partir de la observación pasiva; es decir, se observa solamente lo que la
naturaleza muestra. No se fuerzan situaciones que la naturaleza aún no
mostró. En síntesis, no se confeccionan experimentos sobre situaciones
posibles pero nuevas. No se llega a una observación experimental.
La hipótesis que planteaba este paradigma era que: “el fuego es un
elemento sencillo que cambiaba las cosas”.
Al tomar al calor como fluido, surgen una serie de refutaciones a la
sencilla teoría planteada en el primer paradigma.
En primer lugar se trató de explicar al calor en base a teorías
matemáticas; Laplace (*3) desarrolló una teoría matemática de las fuerzas
intercospusculares, para aplicarse a fenómenos térmicos. Sin embargo, el
calor no podía ser explicado en base a consideraciones mecánicas; se
suponía su existencia como “fluido imponderable” que estaba fuera de las
consideraciones matemáticas. La influencia del método Newtoniano hizo que
se renunciase a explicar la naturaleza de estos fluidos.
A partir de aquí se diferencia el método de observación, pasando a
ser éste, experimental.
El elemento fuego de la cosmología clásica y el calor, ese fluido
imponderable, eran difíciles de encajar en la nueva física. Para intentar
solucionar esto, el médico alemán George Stahl (*1) planteó en 1967 su
teoría del flogisto: por un lado habría un fuego material que se manifiesta en
la llama y en el calor, cuando hay una combustión, y por otro habría un
fuego- principio, un elemento imponderable e inasible que contendrían todos
los compuestos susceptibles de arder.
(*3) ideas de Laplace; pag 1; (*1) Teoría del flogisto, pág 1-2
90
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Este elemento, el flogisto, se liberaría por acción del calor sobre el cuerpo.
Así, un metal estaría formado por flogisto y una tierra o cal; bajo la acción del
calor o del fuego el flogisto se liberaba y quedaba la cal (óxido). En esencia,
era la vieja doctrina de que las cosas tienen cuerpo y espíritu, que podrían
separarse por procedimientos pirotécnicos. Curiosamente, los residuos de
materia o “cuerpos muertos” pesaban más que las materias originales; la
explicación se daba suponiendo que los “espíritus” tenían peso negativo.
Stahl determina la no coincidencia del resultado experimental con lo
que indica la consecuencia deducida a partir de la hipótesis planteada por la
teoría del primer paradigma.
Este problema surgido, puede se llamado por Kuhn, enigma. Y ya que
no se puede resolver por el paradigma vigente, constituye una anomalía.
La existencia de estas anomalías motivó la desconfianza de este
científico respecto de la teoría que se había utilizado hasta ese momento.
Algo no funcionaba como la teoría indicaba y los cambios necesarios no
eran pequeños. Este hecho que puso en duda lo establecido hasta el
momento, plantea la posibilidad de revisión de los fundamentos aceptados y
comienza una crisis científica. La teoría del flogisto, constituye un segundo
paradigma en la evolución de la teoría calórica según Kuhn.
Previo a la teoría del flogisto, el científico Scheele considera que las
cales son elementos y los metales, compuestos de cal y de flogisto; pero lo
hace de manera innovadora, puesto que a partir de numerosos
experimentos, concluye que el aire y el fuego no son elementos. Lavoisier
(*4) lo hace en el marco de su nueva teoría sobre el oxígeno, que pronto lo
lleva a rechazar el flogisto y que considera que las cales son compuestos y
los metales, elementos.
Ambos científicos consideran que el calor es una sustancia, pero para
Lavoisier es una sustancia simple y para Scheele, una sustancia compuesta.
Para Scheele: cal de mercurio y calor forman mercurio y aire de
fuego. El calor es, por tanto, un compuesto de aire de fuego y flogisto; la
91
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
reacción consiste en la unión del flogisto y la cal para formar el metal
mercurio, quedando libre el aire vital.
(*4) ideas de Lavoisier; pág 2
Para Lavoisier, la cal esta formada de metal y de la base oxígeno. Al
calentarla, el calor se une a la base oxígeno y forma oxígeno gas, dejando el
mercurio libre.
Como vemos, los dos científicos representan la reacción de una
manera muy similar. Para ambos los elementos se conservan y esta
conservación debería destacarse mediante la balanza. Pero una lectura
detallada de la obra escrita de ambos científicos nos muestra que difieren en
la manera de representarse su acción
y, también, en sus objetivos.
Scheele quiere saber que es el fuego y su relación con el aire. Actúa
sobre los fenómenos que estudia según el estilo propio de la química:
analiza lo que tiene antes y después de la reacción, reconoce las sustancias
nuevas, hace inferencias respecto a la composición y a las propiedades de
los cuerpos. Lavoisier, en cambio, se pregunta sobre los aires y sobre la
causa de su elasticidad, que reacciona con el calor que supuestamente es
uno
de
sus
componentes.
Actúa
sobre
los
fenómenos
utilizando
instrumentos que permiten cuantificar y según un estilo propio de su
profesión de gestor, haciendo balances cuantitativos que recuerden el debe
y el haber de los libros contables.
En este momento se evidencia una nueva crisis, ya que la teoría del
flogisto no puede explicar varios problemas. Lavoisier se vuelve crítico en
cuanto a la teoría en cuestión, en este momento comienza un nuevo proceso
de revolución científica.
La experiencia realizada por Lavoisier constituye una práctica
científica extraordinaria.
Los métodos experimentales utilizados por Scheele se consideran
inadecuados y las suposiciones más básicas se cuestionan.
(*4) ideas de Lavoisier
92
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Se da a lugar a una etapa de crisis que lleva a una nueva revolución
científica donde se
revisan todos los supuestos que se tenían en la etapa de ciencia normal
anterior.
La cosmovisión compartida por todos los científicos en el segundo
paradigma entra en crisis.
Puede verse, una dificultad de comunicación ocasionada por la
diferencias de opiniones entre ambos científicos; como consecuencia del
hecho reconstruido desde ambas perspectivas es muy diferente el tipo de
lenguaje. Ambos científicos podrían comunicarse, puesto que están viviendo
en la misma época y ambos participan de culturas semejantes; pero para
ello hace falta voluntad de ponerse en la piel del otro. En el escrito de
Lavoisier ocurre lo contrario: la obra de Scheele es juzgada desde una
perspectiva que no le corresponde y de ella se critica todo lo que difiere sin
hablar de sus otras posibles aportaciones. No se puede evitar pensar que la
crítica no se ha elaborado para informar a la academia sobre un texto de un
químico notable, sino solo para destacar la obra propia. Scheele en cambio,
fue sensible a la crítica de Lavoisier y se mostró dispuesto a revisar sus
ideas. Su muerte prematura le impidió participar plenamente en el debate
sobre el flogisto.
La propuesta de Lavoisier cambia algunos de los supuestos
aceptados en el período anterior y explica lo que aquello no pudo explicar.
La comunidad científica se inclina a favor de este nuevo paradigma y
comienza a trabajar de acuerdo a los nuevos supuestos, la revolución
científica ha terminado y comienza un nuevo período de ciencia normal.
Puede decirse que hasta esta época, las innovaciones técnicas
introducidas en la ingeniería y en la industria en general, no dependieron
gran cosa del contenido de la ciencia hasta entonces conocido. Persistía
aquella distinción entre técnicos y filósofos, entre ingenieros y hombres de
ciencia. El desarrollo de la máquina de vapor, que supuso el inicio de la era
93
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
industrial fue realizado por técnicos, al margen de los científicos
contemporáneos. Algo empieza a cambiar: los ingenieros franceses se
ocupaban primordialmente de la conexión entre los efectos térmicos y
mecánicos. En 1824 Sadi Carnot (*2), un ingeniero militar francés, publicó
sus “reflexiones sobre potencia motriz del fuego” en la que trataba de
analizarlos factores determinantes de la producción de energía mecánica
apartir del calor en la máquina de vapor y en las máquinas en general.
Carnot hizo notar que en la máquina de vapor el calor fluía desde una región
de alta temperatura a una de baja temperatura, generándose
trabajo
mecánico mediante el cilindro y el pistón durante el proceso. Carnot
consideraba que la máquina de vapor era análoga a otro motor primitivo, la
rueda hidráulica: “podemos comparar exactamente la potencia motriz del
calor con la caída del agua. La fuerza motriz de una caída de agua depende
de la altura y de la cantidad de fluido; la fuerza motriz del calor depende de
la cantidad de calórico empleado y lo que podemos llamar su altura de
caída, es decir, la diferencia de temperatura entre caldera y condensador”.
Carnot, equivocadamente, creía que no se perdía ningún calor en el
proceso, aunque acertó en la consideración de que el rendimiento de una
máquina sólo dependía de las temperaturas de los focos. Su aportación
inició el pasaje de información entre científicos y técnicos, que caracterizaría
al siglo XIX.
Entramos ahora en una época en la que se afirma el concepto de
energía, inexistente en todo el desarrollo newtoniano. Mayer, un médico
naval alemán, observó que la sangre venosa de sus pacientes era más roja
en los trópicos que en las latitudes. Supuso que este exceso de oxígeno
procedía de la disminución de combustión de alimentos como consecuencia
de la menor demanda de calor corporal.
(*2) experiencia de Carnot; pág 2
94
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
El fenómeno parecía apoyar la opinión de que el calor del cuerpo y la
energía mecánica de los músculos provenía de la energía química de los
alimentos. Concluyó que calor, energía mecánica y energía química eran
intercambiables.
Este trabajo fue reconocido cuando Joule (*5) demostró que el trabajo
mecánico podía convertirse en calor; también comprobó que la energía
eléctrica podía convertirse en calor, y viceversa. Esto aportó pruebas
definitivas a cerca de la conversión de una forma de energía en otra.
Correspondió a Helmholtz, otro médico alemán, establecer en 1847 de forma
explícita lo que más tarde se llamaría primer principio de la termodinámica:
“la energía total del universo es constante, y solo puede haber conversiones
de una forma de energía en otras”.
En 1850 la ley de la conservación de la energía proporcionó un nuevo
marco a la teoría física, basado en la concepción mecánica de la naturaleza,
que rechazaba la existencia de formas anómalas de materia (fluidos
imponderables) y suponía que las partículas en movimiento de la materia
ordinaria debían ser consideradas la base de cualquier planeamiento teórico.
Los problemas físicos de la ley, el calor y el trabajo, eran conceptualizados
de modo que se les hacía susceptibles de análisis matemático, y de esa
manera se impulsaba la unidad de la física.
La entrada del calor en la física matemática hizo que, desde mediados
del siglo XIX se desarrollase un gran interés de las medidas precisas del
calor involucrado en diferentes tipos de procesos. Surge así, la calorimetría,
impulsada por la exigencia del conocimiento de las propiedades térmicas de
los materiales empleados en las máquinas térmicas. Regnaul, por encargo
del gobierno francés, desarrolló una serie de técnicas calorimétricas para
estudiar las propiedades del agua, y otras sustancias de interés ingenieril. El
desarrollo de la termoquímica supuso otro gran impulso a la ciencia de
medida del calor.
(*5) experiencia de Joule; pág 4
95
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
En la segunda mitad del sigo XX, los avances de nuevos materiales, la
electrónica y la informática supusieron el perfeccionamiento de los métodos
existentes y el desarrollo de otros más amplios, precisos y fáciles de utilizar.
Este último cambio de paradigma se debe básicamente a la
modificación de las técnicas y métodos de experimentación utilizados por los
científicos mencionados en la evolución del concepto de calorimetría.
El hecho de que se relacione el calor con disciplinas como la
mecánica y la química, determinó un avance dentro de la ciencia.
Esta hipótesis sigue vigente en las leyes de la termodinámica y
constituye un período de ciencia normal al que llamaremos nuevo
paradigma. Este determina los mecanismos de acción en la búsqueda de las
experiencias, los tipos de soluciones y el planteo de problemas a resolver y
encarar. Se respetan pautas que guían el desarrollo e la ciencia, siguiendo el
paradigma vigente.
Todo el desarrollo visto dentro de este paradigma constituye la
deducción de hipótesis auxiliares dado que expresa principios que ya
estaban contenidos en las premisas centrales; no se generan novedades
inesperadas, sino que se fortalece el paradigma.
(*5) experiencia de Joule; pág 4
96
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
BIBLIOGRAFÍA
§
EDMINISTER, Joseph;
(1977); Termodinámica; México; Libros
McGraw-Hill
§
MERCE, izquierdo (1989); Revista Alambique ; España
§
SANDFOI, John; (1987) Máquinas Térmicas; Buenos Aires; Editorial
universitaria de Buenos Aires
97
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
98
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“TEORÍA DEL ÉTER”
Bañon, Paula L.
Galletta, Andrea F.
Kaliski, María Helena
99
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRONOLOGÍA HISTÓRICA
Como sustancia, el Éter ya era postulado en épocas presocráticas (antes del
siglo V de nuestra era), como uno de los cinco elementos de la naturaleza:
tierra, agua, fuego, aire, Éter.
En las creencias griegas el Éter era una sustancia brillante que respiraban
los dioses, en contraste con el pesado aire que respiran los mortales.
TALES DE MILETO (624-547 a.C)
Fue el primer filósofo griego que intentó dar una explicación física del
Universo, para él todo nacía del agua, la cual era el elemento básico del que
estaban hechas todas las cosas, pues se constituye en vapor, que es aire,
nubes y Éter.
PARMÉNIDES (SigloV a.C)
Concibió el modelo de los cascarones esféricos
rodeando a una tierra
central y estática. La capa más alejada denominado Olimpos, seguido por
una capa formada por un elemento sutil: el Éter.
DEMÓCRITO (460-370 a.C.)
Investigaba sobre los fenómenos lumínicos. La luz consiste en un choro
sucesivo de partículas.
ARISTÓTELES (384-322 a.C.)
El éter era el elemento material del que estaba compuesto el llamado mundo
supralunar, mientras que el mundo sublunar está formado por los famosos
cuatro elementos: tierra, agua, aire y fuego.
100
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
A diferencia de éstos, el éter es para Aristóteles un elemento más sutil y más
ligero, más perfecto que los otros cuatro.
HERÓN (20- 62 a.C.) y PTOLOMEO (90- 168)
estudiaban los fenómenos de propagación de la luz como la refracción y
reflexión.
ABU ALI AL-HASSAN IBN AL HAYTTHAM (965- 1040)
Considera que los rayos luminosos se propagan en línea recta desde el
objeto hasta los ojos. También estudiaba los fenómenos de propagación de
la luz como la refracción y reflexión.
SNELL (1591- 1626)
Formula la ley de la refracción.
DESCARTES (1596- 1650)
Publica la ley de Snell.
FERMANT (1601-1665)
Se opone a la teoría corpuscular y sostiene que la luz se transmite en un
medio etéreo.
GRIMALDI (1618- 1665)
Sostiene que la luz es un movimiento ondulatorio.
101
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
HOOKE (1635-1703)
Mediante el estudio del fenómeno de interferencia de la luz demuestra lo
postulado por Grimaldi.
NEWTON (1642- 1727)
Teoría corpuscular: supone que la luz está formada por partículas
materiales, que llamó corpúsculos que son lanzados gran velocidad por los
cuerpos emisores de luz.
Permite explicar fenómenos como
- La propagación rectilínea de la luz en el medio.
- La reflexión
- La refracción
HUYGENS (1629- 1695)
El mayor logro de Huygens fue el desarrollo de la teoría ondulatoria de la luz,
descrita ampliamente en el Traité de la lumière (1690), y que permitía
explicar los fenómenos de la reflexión y refracción de la luz mejor que la
teoría corpuscular de Newton.
Sin embargo la autoridad intelectual de Newton hizo que su postura
prevaleciera sobre la teoría ondulatoria de la luz
hasta muchos años
después de su muerte.
YOUNG (1772- 1829)
Mediante la experiencia de la doble rendija identificó el fenómeno de
difracción de la luz y en 1800 se establece la Teoría ondulatoria de la luz, ya
que los resultados no podían explicarse mediante la teoría corpuscular.
102
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
FRESNEL (1788- 1827)
Demostró que el movimiento ondulatorio de la luz es transversal.
FIZEAU (1819-1896)
Calculó la velocidad de la luz en el aire (1849)
La aceptación de la teoría ondulatoria de la luz llevaba consigo la aceptación
de un medio material que soportara dichas ondas y que llenara todo el
espacio: el Éter. Las vibraciones transversales solo pueden propagarse
mediante sustancias sólidas, por lo que era difícil imaginar un éter lo
suficientemente sólido y rígido para que permitiera las ondas transversales y
a su vez que posibilitase el movimiento de los cuerpos celestes inmersos en
el Éter.
Por otra parte ésta hipótesis del Éter sugería que la velocidad de la luz que
midiera un observador en movimiento respecto al éter debería verse
afectada por ese movimiento.
MICHELSON Y MORLEY
En 1887 realizaron un experimento con el que esperaba encontrar una
variación de la velocidad de la luz debido a la variación del movimiento de la
tierra respecto al Éter. Lo que encontraron fue que la velocidad de la luz era
la misma en todas las experiencias realizadas. Ésta experiencia demostraba
la
constancia
de
la
velocidad
de
la
luz
en
todas
direcciones
independientemente del estado de movimiento del receptor y ponía en tela
de juicio la hipótesis del Éter; por lo tanto ésta cae y se asume la idea de que
en el espacio interestelar hay vacío total.
103
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ALBERT EINSTEIN
A pesar que en un principio basó sus teorías en un Éter gravitacional,
responsable de la gravedad y los efectos físicos, en 1905 abandonó esta
idea, y basó su teoría de la relatividad en la idea de que la luz puede
propagarse en el vacío libre de Éter. Sus trabajos han favorecido la
investigación de la antigravedad o materia oscura, una energía invisible que
“empuja” al universo en expansión.
MILLER
En 1930 demostró que el éter es un fenómeno real que interactúa sutilmente
con la materia. Los descubrimientos de Miller resultaban incómodos para la
ciencia: no se podía refutar, pero eran imposibles de admitir ya que
socavaban la teoría de la relatividad.
REICH
A partir de la investigación de Miller entre 1940 y 1950 documentó la
existencia de una nueva y única forma de energía que denominó Orgón con
propiedades similares al éter de Miller.
La
energía
orgánica
es
el
medio
de
transmisión
de
las
ondas
electromagnéticas y juega un papel fundamental en la dinámica planetaria.
HIGGS
Propone la existencia del campo de Higgs, que pernearía todo el universo y
que estaría formado por una partícula cuya existencia aun no ha sido
probada directamente: el bosón de Higgs, que fue predicho por primera vez
en 1960 y cuyo efecto sería que las partículas se comportaran como dotadas
de masa debido a la interacción con partículas elementales y consigo
104
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
mismo. De esta forma ésta partícula es el peldaño más pequeño de materia
que podemos encontrar.
La materia oscura, según la hipótesis original, es una masa necesaria para
mantener unidas las galaxias que giran rápidamente. Ésta materia la
constituye una partícula todavía no identificada que prácticamente no
interaccionas ni con la luz ni con la materia normal.
Por otra parte, la energía oscura es necesaria para explicar la recientemente
descubierta aceleración de la expansión del universo. Supuestamente existe
en todo el espacio y ejerce una presión que contrarresta la gravedad.
ZHAO
Unifica la materia oscura y la energía oscura proponiendo la existencia de un
fluido oscuro el cual podía expandirse pero también condensarse alrededor
de las galaxias para ayudar a mantenerlas unidas. Según Zhao el fluido nos
rodea pero no afecta al movimiento de la Tierra ni de los otros planetas, pero
si afecta la velocidad a la que pueden rotar las galaxias.
Estado actual (2008)
Se espera que el Gran Colisionador de Hadrones (LCH o “Maquina de Dios”)
compruebe la hipótesis de Higgs, haciendo colisionar haces de partículas
relativamente pesadas (protones) y a partir de esos choques se produciría
una lluvia de nuevas partículas de energía extremadamente alta. Entre ellas
quizás se encuentren algunas cuya existencia no halla sido comprobada,
como por ejemplo la tan buscada partícula o bosón de Higgs.
El nombre de la máquina hace referencia a los Hadrones porque los
protones que entran en choque son un tipo de Hadrón.
105
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA EVOLUCIÓN HISTÓRICA DE LA TEORÍA DEL
“ETER”, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA
CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE
INVESTIGACIÓN CIENTÍFICA)
Metodología de los programas de investigación científica. La sucesión de
teorías constituye un programa de investigación, el cual está compuesto por
un núcleo central y un cinturón protector del programai (que es el conjunto
de enunciados que se pueden modificar).
Puede ocurrir que las predicciones no coincidan con lo observado y esto
puede deberse a que no existen técnicas de observación adecuadas para
poder apreciar ciertos fenómenosii; o que se esté ante una falsación. Si
sucede esto la teoría no es desechada, sino que se modifica dentro de la
teoría algún elemento. Se busca modificar algo que no sea parte del núcleo
central (ya que de esta forma se estaría abandonando la teoría), sino algo
del resto para que el programa siga funcionando, es decir, se intenta
modificar el cinturón protector del programaiii.
Cuando un científico modifica el cinturón protector del programa, para
mantener a este en caso de una falsación, está realizando una heurística
negativa del programa. Busca, con este proceso, que desaparezca la
falsación modificando algún enunciado de la teoría pero sin alterar el núcleo
centraliv.
Por el contrario, un programa de investigación puede evolucionar, a través
de modificaciones en el cinturón protector, sin que exista una falsación
previa. Esta es una tarea habitual de científico, agregar nuevas hipótesis que
permiten profundizar o explicar fenómenos hasta el momento no explicados.
De este modo se procede según una heurística positiva del programa v.
106
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
En el caso de que un programa incorpore nuevas hipótesis para evitar
falsaciones pero los fenómenos predichos no ocurren, el programa se ha
tornado degenerativovi.
En cambio, si al agregar una hipótesis en un programa de investigación, este
permite descubrir nuevos fenómenos, el programa es progresivo.
Cuando un programa se torna degenerativo y además aparece un programa
progresivo que pueda reemplazarlo, el primero es dejado de ladovii.
107
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Notas aclaratorias
2
Por ejemplo cuando Hooke (1635 - 1703) propuso que la luz era un movimiento vibratorio
del medio (el Éter), pero al no poder observarlo se instala luego (junto a Newton) la teoría
corpuscular de la luz; más tarde con Young (1773 - 1829) se comprueba el fenómeno de
difracción (con el experimento de la doble rendija) y se establece la teoría ondulatoria.
3- 4
Una vez aceptada la teoría ondulatoria de la luz, se acepta la teoría del Éter, ya que las
ondas necesitan de un medio en el cual se puedan propagar. Sin embargo, las vibraciones
transversales (como la de la luz) sólo ocurren en medios sólidos y si el Éter fuera sólido
impediría el movimiento de los cuerpos celestes. Entonces se buscó investigar al Éter para
descubrir sus propiedades y aceptar que era lo suficientemente sólido para transmitir ondas
pero blando y “etéreo” para que los cuerpos celestes se puedan mover.
5
Fresnel (1788 - 1853) defensor de la teoría ondulatoria, demostró que el movimiento de la
luz no era longitudinal (como el sonido), sino transversal.
Foucault (1819 - 1868) demostró que la velocidad de la luz en el agua es menor que en el
aire.
Actualmente “la maquina de Dios” busca encontrar la partícula no identificada para
fortalecer la teoría de la materia oscura.
6
Michelson y Morley, en 1887 buscaron, mediante experiencias, encontrar las propiedades
del Éter.
Entre otras buscaban determinar la propiedad que permitiera explicar que el Éter es sólido y
blando a la vez, de manera tal, que permite propagar las ondas transversales y permite
también el movimiento de los cuerpos celestes. Los resultados obtenidos no eran los
esperados y no hubo más remedio que descartar la teoría del Éter.
7
A partir de los resultados de las experiencias de Michelson y Morley, se dejó de lado la
teoría del Éter y también la naturaleza ondulatoria de la luz. Entonces cobra importancia la
naturaleza corpuscular de la luz y se instala la teoría del vacío total en el universo.
Sin embargo era innegable la naturaleza ondulatoria de la luz, ya que habían muchas
experiencias que la demostraban. Surgió entonces, la teoría electromagnética y la
naturaleza dual de la luz.
108
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Luego se sostuvo que el vacío total no existe y que el universo está inmerso en alguna
“sustancia” dotada de cualidades físicas. Desde 1933 se habla de materia y energía oscura
para referirse a esta sustancia.
Actualmente Zhao propone unificar la materia oscura con la energía oscura en el “fluido
oscuro”. Se están realizando experimentos para hallar consecuencias observacionales que
permitan corroborar esta hipótesis y adoptar así un nuevo programa de investigación.
Aunque a su vez otra corriente de científicos está realizando pruebas para confirmar la
existencia de la materia oscura.
Programa de
investigación
Núcleo Central
Cinturón protector
§
Éter
luminífero
En el espacio interestelar
hay presencia de Éter
liminífero
§
§
§
§
§
Vacío Total
En el espacio interestelar
hay Vacío total
§
§
§
§
§
§
Materia oscura
En el espacio interestelar
hay Materia oscura (o masa
invisible)
§
§
§
§
§
La luz es una onda y necesita de un medio para
propagarse.
Reflexión, refracción e interferencia.
Velocidad de la luz (en Éter mas lento que en
aire)
Propagación de la luz: ondas transversales.
Viento del Éter
Teoría corpuscular de la luz.
Teoría de la relatividad.
La velocidad de la luz es constante.
Propagación de la luz en el vacío.
Es una masa oscura que sirve para mantener
unidas las galaxias.
Esta formada por una partícula no identificada
que no interacciona con la luz ni con la materia
(WIMP o Bosón de Higgs).
Energía que empuja la expansión del universo.
Presión que contrarresta la gravedad.
La energía oscura es similar a un fluido, con
alta densidad se comporta como materia.
Teoría de la relatividad
Fluido oscuro no afecta el movimiento de los
planetas, pero si el de las galaxias
Las galaxias se alejan entre sí, cada vez más
rápido.
109
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA EVOLUCIÓN HISTORICA DE LA TEORÍA DEL
“ÉTER”, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA
CIENCIAS PROPUESTA POR KHUN
Sostiene que los alcances científicos se producen en períodos de revolución
científica, en el que las anomalías de los períodos de ciencia normal se han
vuelto insostenibles y es necesario cambiar de paradigma.
Un paradigma es una realización científica universalmente reconocida que,
durante cierto tiempo, proporciona modelos de problemas y soluciones a una
comunidad científica.
Kuhn describe el desarrollo de la ciencia a través del tiempo y las
actividades que realizan los científicos en distintas etapas.
1- Pre-ciencia: es una etapa en la cual se sostienen distintas teorías que
compiten entre sí, para explicar los mismos hechos vii. Cuando una de las
teorías triunfe sobre las otras, ya que es capaz de explicar más fenómenos o
de manera mas acertada, comenzará la etapa siguientevii.
2- Ciencia Normal: un grupo de científicos comparten un paradigma y
examinan la realidad a través de él, resolviendo los problemas principales
que se le presentanvii.
Cuando un problema se puede resolver recibe el nombre de enigmavii, en
caso contrario se le denomina anomalía.
Cuando una anomalía es sustancial, es decir que no puede obviarse porque
contradice al paradigma dominante, se dice que éste entró en crisis vii,
también ocurre esto cuando una teoría ha acumulado muchas anomalías.
110
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Las anomalías pueden surgir por fallas al articularse la teoría con las
hipótesis auxiliares o con las demás teorías. Si esto no ocurre la teoría gana
credibilidad.
3- Crisis: momento en el cual los científicos dudan de algunos puntos de la
teoría y plantean la revisión de estosvii.
4- Revolución científica: la anomalía provoca un estado de crisis tan
importante que el paradigma sobre el que se asentaba la ciencia normal
resulta insostenible. Se cuestiona el paradigma sostenido hasta ese
momento, se revisan todos los supuestos que se tenían en la etapa anterior,
tanto los referentes como las hipótesis utilizadas. Se pone a prueba toda la
cosmovisión.
Así, los científicos abandonan el antiguo paradigma para reemplazarlo por
uno nuevo.
La revolución científica puede durar mucho tiempo ya que los científicos no
pueden identificar cuál es el paradigma más acertadovii.
Cuando un paradigma triunfa sustituye a los anteriores. De esta forma, este
implica una reconstrucción de las bases sobre las que se asentaba la
ciencia, se llega así a una nueva ciencia normal vii.
111
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
NOTAS ACLARATORIAS
vii
Actualmente se sostiene que existe la materia oscura, que es una masa oculta que se
estima necesaria para mantener unidas las galaxias que giran rápidamente. Esta materia la
constituye una partícula todavía no identificada que prácticamente no interacciona con la luz
ni con la materia normal. Además otra corriente de científicos propone la existencia de
energía oscura, necesaria para explicar la aceleración de la expansión del universo,
supuestamente existe en todo el espacio y ejerce una presión que contrarresta la gravedad.
Zhao propone en cambio, la teoría del “fluido oscuro”, éste podría expandirse en general
pero también podría condensarse alrededor de las galaxias para ayudar a mantenerlas
unidas. El fluido de Zhao o el fluido oscuro puede comportarse como materia oscura si
alcanza una densidad lo bastante alta
Naturaleza corpuscular y ondulatoria de la luz; triunfa la teoría ondulatoria de la luz con la
experiencia de la doble rendija.
vii
A partir de los resultados de las experiencias de Michelson y Morley, se dejó de lado la
teoría del Éter y también la naturaleza ondulatoria de la luz. Entonces cobra importancia la
naturaleza corpuscular de la luz y se instala la teoría del vacío total en el universo.
vii
Éter luminífero, los fenómenos que explica (lo relacionado con la naturaleza ondulatoria
de la luz) reflexión, refracción, interferencia, velocidad de la luz, viento del Éter.
vii
Si la luz es una onda transversal necesitaría un medio sólido para propagarse por lo que
se acepta la teoría del Éter. El cual tendría propiedades muy especiales, seria sólido y rígido
para transmitir las ondas pero blando y etéreo para que los cuerpos celestes se puedan
mover.
La velocidad de la luz cambia según el medio, esto fue comprobado empíricamente por lo
que las consecuencias observacionales coinciden con la hipótesis (Arago).
vii
Michelson y Morley, en 1887 buscaron, mediante experiencias, encontrar las propiedades
del Éter.
Entre otras buscaban determinar la propiedad que permitiera explicar que el Éter es sólido y
blando a la vez, de manera tal, que permite propagar las ondas transversales y permite
también el movimiento de los cuerpos celestes.
112
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Los resultados obtenidos no eran los esperados , se produce de esta manera una anomalía
sustancial, y no hubo mas remedio que descartar la teoría del Éter.
vii
Teoría del vacío total, esta teoría debió descartarse ya que se demostró que la luz
necesita un medio para propagarse; las experiencias demostraban que la luz se comportaba
como partícula y como onda a la vez
vii
Ídem nota
1
vii
El paradigma del Éter luminífero fue derrotado por la teoría del vacío total del universo y a
su vez, éste fue derrotado por el paradigma de la materia oscura.
113
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
BIBLIOGRAFÍA
§
Jackson W. M. (1957) El tesoro de la juventud, Barcelona, Ediciones
Selectas.
§
Kaku, M. (2004) Einstein`s cosmos How Albert Einstein's Vision
Transformed Our Understanding of Space and Time, publicado por W.
W. Norton. Traducido por Víctor Zabalza de Torres, publicado por
Antoni Bosch editor. Barcelona, España.
§
Rutz mARTINE J. (2003), Fisica y química, Mad- eduforma, España,
1º Edición.
§
Sepulveda Soto A. (2003) Los conceptos de la física: evolución
histórica Universidad de Antioquia, Colombia, Imprenta Universidad
de Antioquia, 2º Edición.
Sitios Web:
§
www.astroseti.org.- Schirber, M. (11-Feb-2008), New Cosmic Theory
Unites Dark Forces, Traducido para Astroseti.org por Marisa Raich
(26-Feb-2008)
§
www.clarín.com- Galarza, E. (07-Sep-2008), La "máquina de Dios",
lista para revelar los secretos del Universo.
§
www.masalladelaciencia.es- Herranz, I. (2008), ¿Existe el éter?,
Más Allá de la Ciencia Nº 220, Barcelona, MC Ediciones.
§
www.encyclopedianomadica.org/Spanish/eter.php - “Breve historia
del concepto éter” (2005)
§
www.fisicanet.com- (2008), “La luz y la óptica geométrica”
114
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
“TEORÍA DEL ENLACE QUÍMICO”
Eghi, Mariana.
Recalde, Guadalupe
115
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
CRONOLOGÍA HISTÓRICA
Desde el momento que se pensó que algunas de las partículas que
componían las sustancias estaban formadas por átomos unidos, empezó a
existir inquietud sobre la manera en que los átomos se unían para formar
compuestos y la capacidad de enlazarse de los átomos de cada elemento. A
principios del siglo XIX, los científicos William Nichilson y Humphy Davy
propusieron en forma independiente una hipótesis que sugería que la unión
H2de
los átomos que forman los compuestos se debía a fuerzas de naturaleza
eléctrica.1
Años más tarde, la hipótesis propuesta por Nichilson y Davy fue
reemplazada por la hipótesis propuesta por John Dalton la cual describió a
los átomos como partículas materiales indivisibles que tenían unos puntos
de unión, por medio de los cuales se ligaban, unos con otros, para formar
todos los compuestos presentes en la naturaleza. De acuerdo con su teoría
atómica, los puntos de unión variaban considerablemente de un elemento a
otro, siendo esto característico de los átomos de cada elemento. Los átomos
de hidrógeno parecían tener un solo tipo de unión, mientras que los de
oxígeno parecían tener dos, usualmente, y los de carbono cuatro. Algunos
elementos tenían una capacidad variable `para unirse, dependiente del otro
elemento con el cual se uniera.2
En esa misma época en la que Dalton propuso su hipótesis, el químico Jöns
Berzelius presentó una hipótesis correspondiente a la Teoría electroquímica
o electrovalente formulada por él mismo, la cual consideraba que cada
átomo tiene dos polos de signos contrarios, pero predomina uno. Así
clasificaba a los elementos como electropositivos o electronegativos según
predominara el polo positivo o negativo del átomo. Siguiendo su línea de
pensamiento la fuerza atractiva entre los átomos enlazados era un resultado
de la atracción de los polos predominantes de cada átomo. O sea,
consideraba que las uniones químicas eran consecuencia de la atracción
eléctrica entre las partículas de carga opuesta. Esta teoría explica el enlace
entre un elemento metálico y otro no metálico. Esta teoría pudo dar
116
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
respuestas a las preguntas de los científicos de la época y tuvo más peso
que las hipótesis propuestas por Dalton,3
El período de vida de tal teoría, a pesar de sus sugerentes bases, fue
relativamente fugaz al no poder explicar la existencia de las agrupaciones
atómicas (moléculas) estables constituidas por átomos de igual naturaleza
como N2, H2
(concebidas por Avogadro) y por tanto de la misma
predominante polaridad. Por ello se la descartó y se propuso otra teoría de
enlace, con base exclusivamente experimental, de forma que se consideró
que cada no metal tenía cierto número de enlaces potenciales que podían
utilizar total o parcialmente. Es como si los átomos tuviesen un cierto número
de ganchos con los que forman los enlaces, al unirse a los ganchos de otros
átomos. La capacidad de combinación de un elemento viene dada por el
número de ganchos que posee.
En 1813, Thomas Thomson sugirió que la única manera de explicar esta
permanencia de los compuestos químicos se debía, exclusivamente, a que
un número determinado de los átomos de un elemento se unían con un
número determinado de los átomos de otro elemento. Esta hipótesis
modificó la hipótesis de Berzelius acerca de la forma de unión de los átomos,
reemplazando el concepto de los ganchos que poseen los átomos para
unirse por el de puntos físicos indivisibles rodeados de esferas de atracción
y repulsión que se encuentran en los átomos.4
La hipótesis de que los átomos se unen mediante esferas de atracción y
repulsión no duró mucho tiempo, ya que en 1852 fue descartada por el
concepto de atomicidad, desarrollado por Edward Frankland que investigó
sobre las propiedades de los compuestos organolépticos. El concepto de
atomicidad se refirió a la capacidad de combinación de los átomos de cada
elemento en comparación con la del Hidrógeno que siempre es uno. Agregó
una nueva hipótesis sobre la electronegatividad de los elementos
nombrándolos como elementos electronegativos o electropositivos. 5
Con el descubrimiento del electrón en 1897, por J. J. Thomson se desarrolló
un modelo atómico en el cual los electrones se encontraban distribuidos en
capas en anillos concéntricos alrededor del centro de la esfera de carga
117
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
positiva, y únicamente los del anillo más externo estarían involucrados en un
enlace, incluso, concluyó que debería haber una repetición periódica de las
estructuras de los anillos más externos y que los gases nobles deberían
tener este anillo completo. Este modelo y lo que implicaba, permitió un gran
avance en las ideas respecto del enlace químico6 al cambiar las hipótesis
sobre la atomicidad fija propuestas por Frankland, por la hipótesis que
sugirió Richard Abegg en 1904. Esta hipótesis tiene más sustento que la
anterior ya que se basa en que las uniones que se producen entre los
átomos se deben a los electrones, y que las propiedades químicas de los
elementos dependen de la disposición de sus electrones y que estos sirven
como “lazo de unión” entre un átomo y átomo. Otra hipótesis que se sugirió
fue la que también propuso Abegg, la cual estableció que cada elemento
tiene una valencia (+) y una contravalencia (-), cuya suma siempre debe ser
ocho, para parecerse a los átomos estables de los gases nobles.7 Abbeg
murió en 1910 en un accidente de globo, y no vio como sus ideas fueron
desarrollándose. A partir de este momento, se entiende por valencia de un
átomo el número de electrones de su capa más externa. Más tarde, el
científico Paul Drude sugirió que el número de valencia de Abbeg era el
número de electrones que tenía el átomo para enlazarse y el de
contravalencia era el número de electrones de otros átomos que aquel podía
remover o atraer más firmemente hacia sí. El concepto de valencia,
ampliado más tarde, por Alfred Werner, cuando propuso una hipótesis que
se basaba en la anterior, en la que asumía que las fuerzas de enlace de un
átomo brotaban del centro del átomo, atrayendo uniformemente en todas las
direcciones, y se expresaba con un número dado de líneas, igual a la
valencia; Werner asumió que las fuerzas de enlace estaban distribuidas en
u7na superficie esférica. Diferenció entre valencias primarias y secundarias,
siendo las primeras las que tienen los átomos o grupos de átomos que se
presentan como iones, y las segundas aquellas cuyo contenido de energía
es menor que el de las primarias, pero que no difieren mucho de ellas, que
producen complejos atómicos que no presentan iones independientes como
el agua o el amoníaco. Werner llamó número de coordinación al número de
118
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
átomos o grupo de éstos que se pueden unir en una primera esfera con un
átomo de un elemento que funciona como centro. Las hipótesis se fueron
reemplazando hasta el momento, porque no tuvieron consenso por los
científicos de época.8
En 1916 se propusieron más hipótesis al sugerir que los electrones de
valencia se transfieren desde un átomo electropositivo a uno electronegativo
para formar iones con estructura electrónica de gas noble. Esta hipótesis
desarrollada por el científico Albrecht Kossel se basó en la teoría de Abbeg,
la cual permitió la introducción al campo de la química del concepto de
electrovalencia y permitió entender más claramente como ocurre la unión
iónica,9
Por la misma época, Gilbert N. Lewis (1916) estableció una hipótesis de la
teoría del enlace químico por compartición de pares de electrones y explicó
la diferencia esencial entre una molécula polar y una no polar. En la primera,
uno o más electrones son atraídos con suficiente fuerza para lograr que se
desplacen de su lugar original en el átomo, produciéndose en la molécula un
dipolo de alto momento electrónico y llegando, en un caso extremo, a pasar
completamente al otro átomo, caso en el cual se forman iones; mientras que
en una molécula no polar los electrones permanecen en su posición original,
igualmente compartido pos los dos átomos.10Es importante comentar que,
tres años antes de la publicación del artículo que se mencionó, Lewis (1913)
en otro artículo propuso que se clasificaran los compuestos químicos como
polares y no polares, en vez de cómo inorgánicos y orgánicos, aduciendo
que las dos clasificaciones estaban relacionadas, ya que los compuestos
orgánicos son no polares, mientras que la mayoría de los inorgánicos son
más o menos polares. Sin embargo, aclaró que existen compuestos
inorgánicos no polares y compuestos orgánicos con cierta parte de la
molécula polar.
En su artículo de 1916, Lewis dio a conocer su teoría de la estructura
atómica externa, la teoría del cubo, en la cual presentó los electrones de la
capa más externa del átomo que debían ser máximo ocho (utilizando la ley
de valencia de Abbeg), en las aristas de un cubo. Con este modelo pudo
119
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
representar átomos de diferentes elementos y, también moléculas sencillas,
en las cuáles dos cubos compartían uno o más electrones. No tuvo problema
para explicar la diferencia entre los compuestos polares y no polares, con su
modelo de los cubos: los enlaces en los cuales un electrón puede ser
propiedad común de las capas atómicas de dos átomos diferentes (lo que
luego se conoció como enlace covalente) y los compuestos muy polares, en
los cuales un átomo tiende a ceder los electrones, formando iones positivos
mientras que el otro átomo recibe los electrones, formando iones negativos.
Explicó, luego, la atracción eléctrica de los iones de carga contraria para
formar sólidos. Pudo explicar el enlace doble, pero le quedó imposible
explicar el triple. Aseguró que esta propuesta la tenía desde 1902, no con el
ánimo de reclamar prioridad sobre otras teorías, sino para reforzar que la
suya fue desarrollada independientemente de esas otras.
Lewis (1916) utilizó el concepto de Kernel, significando con este el número
de cargas positivas en el núcleo del átomo que neutralicen las cargas de los
electrones de la última capa. Postuló que un grupo de 8 electrones en la
capa más externa es muy estable; en el caso del átomo de neón, con un
kernel de 8 cargas positivas, tiene 8 electrones en la capa externa, mientras
que un ión fluoruro, con ocho electrones en la capa externa (-8), tiene un
kernel de + 7, lo que hace que se le asigne un “número polar” de – 1. el ión
na+, sin electrones en su capa externa de un kernel de + 1, tiene un número
polar de + 1. Propuso usar los signos de kernel, en vez del símbolo ordinario
del elemento, rodeando cada símbolo con un número de puntos igual a la
valencia del átomo. Así pudo escribir las fórmulas estructurales de la
siguiente manera: H:H, H:Ö:H, :Ï:Ï:.En 1919 la teoría del átomo cúbico de
Lewis fue utilizada y aceptada por la comunidad científica de la época, hasta
que luego fue ampliada, por no responder a todas las inquietudes de los
científicos por la Teoría del Octeto de Valencia desarrollada por Irving
Langmuir, quien agregó la siguiente ecuación: e = 8n-2p, en la cual e es el
número total de valencias (electrones en la capa externa) de los átomos de
la molécula, n es el número de octetos y p el número de pares de electrones
comprometidos en un enlace. Irving Langmuir modificó una hipótesis sobre
120
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
la teoría de valencia hasta ese momento como el número de electrones que
tenía el átomo para enlazarse. Al proponer que se definiera valencia como
número de pares de electrones que un átomo dado comparte con otros, y en
vista de que la palabra valencia se usaba para expresar cosas diferentes,
recomendó usar la palabra covalencia, origen del término covalente.11
Los físicos mantuvieron mucho tiempo sin reconocer la importancia de la
teoría de enlace de Lewis objetando, principalmente, el que Lewis parecía
limitar a los electrones a una posición fija, además de que el par de
electrones compartido, según ellos no tendría suficiente fuerza para
mantener unidos a los átomos. Sin embargo, cuando Lewis publicó su libro
“Valence and the Structure of Atoms and Molecules”, en 1923, mostró ideas
completamente consistentes con las de los físicos.
Todas las teorías desarrolladas alrededor del concepto de valencia, hasta
ese momento, no tenían en cuenta los principios de la mecánica cuántica.
Consideraban el átomo tal como lo describió Bohr en su modelo (1913) en el
cual los electrones giraban alrededor del núcleo en diferentes órbitas. La
publicación de la ecuación de Schrödinger, se aplicó a los electrones
implicados en la formación de enlaces covalentes para calcular las
estructuras más estables, y constituyó una nueva hipótesis. Esta ecuación
fue aceptada por los científicos de la época, al poder dar respuesta a
muchos interrogantes y condujo al cambio del concepto de órbita por el de
orbital, para referirse a una función de onda que relacionara aun electrón
simple con un átomo o una molécula. Este cambio que fue introducido por
los científicos, sigue vigente puesto que, desde la mecánica cuántica, se vio
que era imposible conocer el recorrido de un electrón alrededor del núcleo
que permitiera especificar una órbita.
Luego de una publicación realizada por los físicos alemanes Walter Heitler y
Fritz London, en 1927, en la cual desarrollaron la que después llamaron
teoría del enlace de valencia, se reemplazó la teoría del octeto de Langmuir,
Esta nueva teoría sigue vigente y es desde ese momento aceptada y
utilizada por los científicos para poder explicar de qué forma se unen los
átomos para formar compuestos. El conocimiento de la ecuación de
121
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Schrödinger permitió construir una función de onda para la molécula de
Hidrógeno, desde las funciones de onda de los dos átomos separados. La
utilización de la función de onda por parte de los científicos de la época
permitió incorporar otra nueva hipótesis al encontrar que la energía
relacionada con un enlace covalente era de dos tipos: energía culómbica y
energía de intercambio.12 La teoría del enlace de valencia propuesta
anteriormente, fue utilizada por Linus Pauling en ese mismo año para
trabajar sobre la molécula de Hidrógeno, lo que le permitió publicar dos
artículos sobre su trabajo (Pauling 1928). También publicó una serie de
artículos llamado “The Nature of Chemical Bond”, que introdujo nuevos
conceptos como el de resonancia, electronegatividad relativa, enlace iónico y
enlace covalente y del cual se publicó un capítulo en el Journal of A merican
Chemical Society (Pauling 1932).sobre el mismo tema, y junto con otros
científicos publicó más adelante, otros artículos relacionados con el enlace
químico y las estructuras de los compuestos, proponiendo la teoría del
orbital molecular para explicar los enlaces, la cual como se mencionó
anteriormente, fue muy bien aceptada por la comunidad científica. Por la
cantidad y calidad de los trabajos de Linus Pauling en este campo del saber,
se le reconoce el haber transformado el campo de la química al introducir las
teorías de la mecánica cuántica en el concepto de enlace químico, aunque
no fue el primero en tener este interés.13
122
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL ENLACE QUÍMICO, SEGÚN LA
LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA
POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA)
Haciendo referencia al desarrollo de las ciencias según Lakatos, notamos
que se mantiene el núcleo central gracias al aporte de las hipótesis
auxiliares. El Núcleo central es el siguiente: los átomos se mantienen unidos.
Las hipótesis auxiliares del programa de investigación son las siguientes:
•
Los científicos Nichilson y Davy sugirieron que las fuerzas químicas
eran de naturaleza eléctrica.1
•
Teoría atómica de Dalton.2
•
Teoría electrovalente o electroquímica: Berzelius sugirió que cada
átomo tenía dos polos de signos contrarios. 3
•
T. Thomson sugirió que un número determinado de un elemento se
unía con un número determinado de otro elemento. 4
•
Teoría de la atomicidad: según Frankland, la atomicidad es la
capacidad de combinación de los átomos de cada elemento.5
•
Modelo atómico de Thomson.6
•
Teoría de valencia: según Abbeg, la valencia es el número de
electrones de su capa más externa.7
•
Werner
sugirió
una
hipótesis
sobre
valencias
primarias
y
secundarias.8
•
Concepto de electrovalencia: según Kossel, implica la trasferencia de
electrones desde un átomo electropositivo a otro negativo.9
•
Teoría del enlace químico por compartición de pares de electrones
de Lewis.10
•
Teoría del octeto de valencia: según Langmuir, la valencia es el
número de pares de electrones comprometidos en un enlace para
llegar a la configuración externa más estable (8 electrones en el
último nivel).11
123
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
APORTES DE LA MECÁNICA CUÁNTICA
•
Teoría del enlace de valencia de Heitler y London. Esta teoría
utiliza la función de onda para la molécula de Hidrógeno aplicando
la ecuación de Schrödinger.12
•
Teoría del orbital molecular de Pauling.13
Estas hipótesis que conducen a una heurística positiva hacen que el
programa de investigación sea progresivo.
124
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
ANÁLISIS DE LA TEORÍA DEL ENLACE QUIMICO, SEGÚN LA
LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO
POR KHUN
Teniendo en cuenta el desarrollo de las ciencias según Kuhn, observamos
un período de preciencia desde los comienzos, en donde los científicos
intentan continuamente comprender de qué manera se unen los átomos.
Durante este período, los científicos toman y descartan hipótesis para
resolver enigmas y para comprender en una forma más razonable y
fehaciente cómo ocurre el enlace entre los átomos.
PERÍODO DE PRECIENCIA: A principios del siglo XIX los científicos
comenzaron a cuestionarse sobre la manera en que los átomos se unían
entre sí para formar compuestos.
En 1800, Nichilson y Davy, determinaron que las fuerzas químicas que unían
a los átomos eran de naturaleza eléctrica.1
Años más tarde, la hipótesis propuesta por Nichilson y Davy fue
reemplazada por la hipótesis propuesta por John Dalton.2
En el año 1810, con la aparición de la teoría electrovalente de Berzelius3 se
pudo explicar el enlace entre un elemento metálico y otro no metálico, lo que
no puede explicar es la existencia de agrupaciones atómicas (moléculas)
estables constituidas por átomos de igual naturaleza, por lo tanto es
descartada y reemplazada por otra teoría de enlace.
En 1813, Thomas Thomson sugirió una hipótesis para explicar la
permanencia de los compuestos químicos. 4
Desde los comienzos del estudio del enlace químico hasta la actualidad, que
no se han presentado anomalías. Durante este período los científicos solo
han propuesto hipótesis para la resolución de enigmas junto a la articulación
con otras teorías.
La hipótesis de que los átomos se unen mediante esferas de atracción y
repulsión no duró mucho tiempo, ya que en 1852 fue descartada por el
concepto de atomicidad, desarrollado por Edward Frankland.5
125
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
Mientras los químicos creían que los átomos eran esferas rígidas fue posible
admitir que cada átomo tuviera algo parecido a uno o más ganchos que les
permitieran unirse a otros átomos para formar moléculas. Pero eso fue
aceptado por los científicos hasta que en 1897, J.J. Thomson propuso un
modelo atómico cuyo núcleo estaba rodeado de una corteza electrónica.6 A
partir de ese momento los electrones comenzaron a tener protagonismo, lo
cual le permitió a Richard Abbeg proponer una hipótesis para explicar la
forma en que los átomos estaban unidos.7
El concepto de valencia fue ampliado más tarde por Alfred Werner, cuando
propuso una hipótesis que se basaba en la anterior.8
El desarrollo del modelo planetario del átomo de Rutherford y las
modificaciones realizadas por Bohr constituyen las nuevas bases sobre la
que se desarrollan las hipótesis de Kossel y Lewis, que sirvieron para
resolver enigmas,9 y 10 las cuales formaron parte de otras hipótesis.11
La utilización de la función de onda por parte de los científicos de la época,
permitió incorporar otras nuevas hipótesis para la resolución de enigmas.12 y
13
En el desarrollo del enlace químico no se identifican períodos de ciencia
normal, ni mucho menos crisis. Lo que se presenta es un período de
preciencia, en donde los científicos proponen continuamente hipótesis que
den cuenta de la existencia del enlace entre los átomos, estas hipótesis son
cuestionadas continuamente ya que la comunidad científica del momento
intenta dar respuesta a determinados problemas que surgen de sus
cuestionamientos sobre la unión de los átomos
Al no conformarse, la comunidad científica del momento, con las teorías
vigentes de la época, proponen nuevas hipótesis para consolidar la idea de
la unión entre los átomos.
Desde que fue concebida la Teoría del Enlace de Valencia, todavía no se
han presentado otras hipótesis que la refuercen o la cuestionen. Esta es la
teoría aceptada por los científicos de la época actual y los mismos se
manejan con ella. Por eso podemos decir que la teoría del enlace se
encuentra en un período de ciencia normal.
126
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
127
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
128
“De Demócrito a la Máquina de Dios”
Alumnos ISFD35
129

Documentos relacionados