De Demócrito a la Máquina de Dios
Transcripción
De Demócrito a la Máquina de Dios
DE DEMÓCRITO A LA MÁQUINA DE DIOS Análisis sobre el cambio de teorías en las Ciencias Naturales “De Demócrito a la Máquina de Dios” Alumnos ISFD35 2 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “Desde el origen de la civilización, el hombre no se ha contentado con ver los acontecimientos como desconectados e inexplicables. Ha buscado incesantemente un conocimiento del orden subyacente del mundo. Hoy en día, aún seguimos anhelando saber por qué estamos aquí y de dónde venimos. El profundo deseo de conocimiento de la humanidad es justificación suficiente para continuar nuestra búsqueda. “ Stephen Hawkins 3 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ÍNDICE GENERAL v Teoría Atómica Modelos Atómicos de Dalton y Thomson ♦ Cronología histórica…………………………Pág. 10 ♦ Análisis………………………………………..Pág. 22 ♦ Bibliografía……………………………………Pág. 27 Modelos Atómicos de Rutherford y Bohr ♦ Cronología histórica………………………….Pág. 30 ♦ Análisis ………………………………………..Pág. 45 ♦ Bibliografía…………………………………….Pág. 52 v Teoría del Flogisto ♦ Cronología Histórica………………………….Pág.54 ♦ Análisis…………………………………….......Pág.60 ♦ Bibliografía…………………………………….Pág.81 v Teorías del Calor ♦ Cronología histórica…………………………..Pág.84 ♦ Análisis…………………………………………Pág.88 ♦ Bibliografía……………………………………..Pág.97 v Teoría del Éter ♦ Cronología Histórica………………………….Pág.100 ♦ Análisis………………………………………...Pág.106 ♦ Bibliografía…………………………………….Pág.114 v Teoría del Enlace Químico ♦ Cronología Histórica………………………….Pág.116 ♦ Análisis………………………………………...Pág.123 ♦ Bibliografía…………………………………….Pág.125 4 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Introducción Hace unos días recibí una encuesta del INFOD, donde debía responder a una serie de preguntas relacionadas a la forma en la que los docentes de los profesorados ponemos en práctica los saberes disciplinares, didácticos y pedagógicos. Si bien los cuestionarios no eran muy extensos, confieso que el tiempo que me demandó la conclusión de los mismos, fue excesivo. Esto se debió a que durante algunas de las respuestas, me detuve a reflexionar sobre la importancia que tiene el poder contextualizar los contenidos que los docentes seleccionamos para la confección de nuestras clases. Probablemente no haya consenso absoluto sobre lo que cada docente considera más importante para la enseñanza de las Ciencias, aunque estoy plenamente convencido que existe una visión común sobre lo que es necesario para comprenderlas. Allí es justamente donde entra a tallar la interacción entre la producción del mundo científico, la historia de las ciencias y las discusiones epistemológicas. En ocasiones, los docentes omitimos involuntariamente mencionar eventos que probablemente no contribuyeron al desarrollo de una teoría, aunque esos mismos hechos pudieron ser fundamentales para el desvanecimiento de una teoría rival. Desde nuestra postura “wight”, transmitimos a nuestros alumnos la idea sobre un desarrollo lineal de las ciencias e instauramos en ellos, el concepto de que una teoría refutada se traduce en el descrédito del científico que la postuló. Otras veces, se enseña la importancia del método; pero no como un proceso ordenado que guía una investigación o que permite dar validez a los descubrimientos y con ello contribuir al desarrollo de las ciencias, sino como el procedimiento que permite descubrir. Creemos que desde que las ciencias pasaron a ser cuantitativas y experimentales, toda teoría es subsumida por el método. Cómo si el simple hecho de contar con el mismo, llevase indefectiblemente al objetivo deseado; aunque muchas veces el fenómeno siga frente a nuestros ojos esperando ser descubierto. 5 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Creo que es fundamental que los alumnos conozcan los acontecimientos históricos que hicieron posible que sean postuladas las principales teorías de las disciplinas que enseñamos. La obra que aquí se presenta es una compilación de trabajos de estudiantes de 4° año del profesorado de Química del ISFD 35. (Metodología de la Investigación Educativa en Química) En principio trabajamos con los alumnos sobre los distintos tipos de razonamiento, el método inductivo, explicaciones científicas, carga teórica de la observación e incursionamos en la lectura de las principales corrientes epistemológicas que buscan describir como se produce el desarrollo de las ciencias. Posteriormente se llevó a cabo un proyecto donde cada grupo eligió una teoría, efectuó un trabajo de investigación acerca de su evolución histórica y realizó un análisis de la misma a la luz de los contenidos abordados. Para la producción del mismo elegí teorías que consideré fundamentales dentro de la Química y que buscan dar respuesta a algunos de los fenómenos más corrientes de la naturaleza. El objetivo de este trabajo fue que los alumnos pudiesen conocer cuáles fueron las experiencias que hicieron posible la formulación de muchas de las teorías con las que contamos hoy en día. Profesor: Lic. Marcelo Alejandro Diez. 6 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “TEORÍA ATÓMICA” 7 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 8 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Modelos Atómicos de DALTON Y THOMPSON Ábalo, Beatriz. Sánchez, Nancy 9 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRONOLOGÍA HISTÓRICA En 1808 Dalton publicó su teoría atómica, que retomaba las antiguas ideas de Leucipo y de Demócrito. El postulaba que los átomos de un mismo elemento eran iguales entre sí en masa, tamaño y resto de propiedades físicas o químicas. Difería de los imaginados por los filósofos griegos, los cuales los creían formados por la misma materia primordial difiriendo en forma y tamaño. La hipótesis atómica de los antiguos, era una doctrina filosófica aceptada en sus especulaciones científicas por hombres como Galileo, Boyle y Newton entre otros. Dalton constituye la verdadera teoría científica mediante la cual podían explicarse y coordinarse cuantitativamente los fenómenos observados y las leyes de las combinaciones químicas. La teoría atómica constituyó tan solo inicialmente una hipótesis de trabajo, muy fecunda en el desarrollo posterior de la química, pues no fue hasta final del siglo XlX en que fue universalmente aceptada al conocerse pruebas físicas concluyentes de la existencia real de los átomos. Pero fue entonces cuando llegó a la conclusión de que los átomos eran entidades complejas formadas por partículas más sencillas y que los átomos de un mismo elemento tenían en muchísimos casos masas distintas. Estas modificaciones sorprendentes de las ideas de Dalton acerca de la naturaleza de los átomos, no invalidan en el campo de la química los resultados brillantes de la teoría atómica. Las suposiciones de Dalton permiten explicar fácilmente las leyes ponderales de las combinaciones químicas ya que la composición en peso de un determinado compuesto viene determinada por el número y peso de los átomos elementales que integran el átomo compuesto. Para Dalton, las partículas gaseosas como H2, O2, CL2, y otros, eran necesariamente simples y estaban constituidas por un solo átomo, y que los compuestos como el H2O o cloruro de hidrógeno eran naturalmente compuestos pero formadas por solo dos átomos diferentes. 10 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Sin embargo, con estas fórmulas no se podían explicar las relaciones volumétricas de Gay-Lussac de que un volumen de cloro se une con un volumen de hidrógeno para dar lugar a dos volúmenes de cloruro de hidrógeno llevó a Dalton a suponer que en los volúmenes iguales de cloro y de hidrógeno debían existir igual número de átomos. Al imaginar que estos elementos se unen átomo a átomo, formarán un mismo número de átomos (hoy moléculas) de cloruro de hidrógeno, al ser estos átomos indivisibles, debían ocupar, en cambio un volumen doble según los resultados de Gay-Lussac. La hipótesis de que a volúmenes iguales de gas debían existir igual número de átomos, tuvo Dalton que descartarla llegando a la conclusión de que los resultados de Gay-Lussac eran inciertos. Si la ley de Gay-Lussac era cierta estaba en contradicción con los postulados de Dalton y la teoría atómica. Uno de los principios que le sirvió de fundamento a Dalton para demostrar la existencia de los átomos fue la ley de las proporciones múltiples. Su significado es el siguiente: • Los cuerpos compuestos están hechos de moléculas y cada molécula contienen un número definido de átomos para cada cuerpo compuesto determinado. • Si los átomos no existiesen, los elementos no podrían combinarse. • Es por lo tanto necesaria la existencia del átomo. Este fue el gran argumento de Dalton. Esta ley tuvo una gran repercusión, puesto que con su ayuda se esperaba establecer las magnitudes concretas de los pesos atómicos. Berzelius, que gozaba en aquella época de gran autoridad entre los químicos y posteriormente un gran número de hombres de ciencia aceptaron la suposición mas sencilla, o sea, que en iguales volúmenes de gases 11 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 elementales (es decir, constituidos por una sustancia simple), se halla contenido un número igual de átomos. De ahí se podía deducir que los pesos atómicos de los elementos están relacionados entre sí como los pesos de volúmenes iguales de los mismos en estado gaseoso. Tratando de eliminar estas incongruencias, en el año 1817, Avogadro anticipo la hipótesis de que iguales volúmenes de gases, en condiciones anteriores iguales, contienen el mismo número de moléculas. Esta hipótesis introduce en la ciencia el concepto de molécula, considerado como la partícula más pequeña de toda sustancia, capas de existir independientemente. Avogadro partió de la suposición de que las moléculas de los gases elementales son biatómicas, es decir, que constan de dos átomos. Desde este punto de vista, la reacción entre el nitrógeno y el oxígeno para la formación de óxido nítrico, se debía expresar mediante la fórmula N2 + O2 = 2NO O sea, que a partir de dos volúmenes, se debían obtener también dos volúmenes. Así mismo, a la luz de esta hipótesis, obtenían una explicación satisfactoria otros experimentos de Gay-Lussac. La hipótesis de Avogadro tuvo una acogida muy fría entre los contemporáneos. El motivo se debió a los conceptos desarrollado por Berzelius, sobre las interacciones químicas. Berzelius consideraba que muchos fenómenos químicos estaban basados en fenómenos eléctricos. Los fenómenos eléctricos son una manifestación de sus cargas eléctricas, esta atracción entre dos átomos era por las cargas opuestas. Los átomos de los metales según Berzelius, tenían excesos de cargas positivas y los de los no metales exceso de cargas negativas. Aceptando esta concepción no se podía admitir la existencia de moléculas constituidas por dos átomos iguales. 12 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Por eso la hipótesis de Avogadro no puedo ser aceptada antes del descubrimiento de la teoría electroquímica de Berzelius. Los nuevos descubrimientos, echaron por tierra la teoría de Berzelius, pero la hipótesis de Avogadro había sido olvidada, resurge en 1860 transformándose en ley, donde la molécula fue reconocida como la partícula mas pequeña de la sustancia, eléctricamente neutra que forma parte en sus reacciones químicas. Los fenómenos eléctricos son una manifestación de sus cargas eléctricas. La unidad de carga eléctrica es el culombio. Hay dos tipos de cargas eléctricas: positivas y negativa. Dos cuerpos que hayan adquirido una carga del mismo tipo se repelen, mientras que si poseen cargas distintas se atraen. 13 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 La materia es eléctricamente neutra, es decir, tiene la misma cantidad de cada tipo de cargas. Cuando adquiere carga, tanto positivas como negativas, es porque tiene más cantidad de un tipo que de otro. A finales del siglo XlX y principios del XX, una serie de experimentos permitieron identificar las partículas responsables de la carga negativa (el electrón) y de la carga positiva (el protón). Estos experimentos proporcionaron los datos siguientes sobre la estructura de la materia: § El átomo contiene partículas materiales subatómicas. § Los electrones tienen carga eléctrica negativa y masa. Cada electrón posee una carga eléctrica elemental § Los protones tienen carga eléctrica positiva y mayor masa. § Como el átomo es eléctricamente neutro, hay que suponer que el número de cargas eléctricas negativas (electrones) es igual al número de cargas positivas (protones). 14 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 MODELO ATÓMICO DE THOMSON: Por ser tan pequeña la masa del electrón, el físico J. Thomson, supuso, en 1904, que la mayor parte de la masa del átomo correspondía a la carga positiva, que por tanto, debía ocupar la mayor parte del volumen atómico. Thomson imaginó el átomo como una especie de esfera positiva continua en la que se encuentran incrustados los electrones (como las pasas de uvas en un budín). Este modelo permitía explicar varios fenómenos experimentales como la electrización y la formación de iones. La electrización: es el exceso o la deficiencia de electrones que tiene un cuerpo y es la responsable de su carga eléctrica negativa o positiva. La formación de iones: un ión es un átomo que ha ganado o ha perdido electrones. Si gana electrones tiene carga neta negativa y se llama anión y si pierde electrones tiene carga neta positiva y se llama catión. Thomson investigó la naturaleza de los rayos catódicos y demostró que los campos eléctricos podían provocar la desviación de estos y experimento su desviación, bajo el efecto combinado de campos eléctricos y magnéticos, buscando la relación existente entre las cargas y la masa de la partícula, proporcionalidad que se mantenía constante aun cuando se alteraba el material del cátodo. En 1897 descubrió una nueva partícula y demostró que esta era aproximadamente mil veces más ligera que el hidrógeno. Esta partícula fue bautizada por Stoney con el nombre de electrón. Thomson fue, por tanto, el primero que identificó partículas subatómicas y dio importantes conclusiones sobre esas partículas cargas negativamente. Con el 15 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 aparato que construyó obtuvo la relación entre la carga eléctrica y la masa del electrón. Thomson examinó además los rayos positivos, estudiados anteriormente por E. Goldstein, y en 1912 descubrió el modo de utilizarlos en la separación de átomos de diferentes masas. El objetivo se consiguió enviando los rayos positivos en campos eléctricos y magnéticos, método que en la actualidad se llama espectrometría de masas. Con esta técnica descubrió que el neón posee dos isótopos, el neón-20 y el neón-22. DETERMINACION DE LA VELOCIDAD DE LOS ELECTRONES: En su experimento J. Thomson ajusto campos eléctricos (E) y magnéticos (B) mutuamente perpendiculares, de forma que las partículas cargadas no se desviaran. Esto le permitió determinar la velocidad de dichas partículas, igualando los valores de las fuerzas eléctricas y magnéticas. Si una carga eléctrica atraviesa un condensador plano, paralelamente a sus placas, entre las que existe una Diferencia de potencial V, el campo eléctrico existente ejerce una fuerza sobre la carga F= q. E. Si además, establecemos un campo magnético en la región del condensador, la carga estará sometida a una fuerza adicional F=q.V* B, donde v es la velocidad de la partícula cargada. Si se dispone el campo eléctrico o magnético de modo que las fuerzas sean de signo contrario, la partícula continuará su movimiento rectilíneo y uniforme si ambas fuerzas son iguales en módulo. El rayo se desvía 16 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 hacia el polo positivo, por tanto, se deduce que la carga del electrón es negativa. EXPERIENCIAS DE THOMSON: Es conveniente empezar el estudio del los experimentos de Thomson con la presentación del fenómeno de la descarga eléctrica en gases a baja presión. La experiencia debe contextualizarse en los intentos por conocer la naturaleza de la electricidad. § . La incandescencia que se produce en el gas. § . La naturaleza de la electricidad que produce la incandescencia. Experimento del molinillo Una propuesta para determinar si la descarga eléctrica está formada por ondas o partículas consiste en estudiar si es capaz de mover un objeto. El ejemplo típico es hacer girar un molinillo. La hipótesis que se hace, es que si se observa que el molinillo gira, las descargas eléctricas deben estar constituidas por partículas. Al realizar el experimento se comprueba que efectivamente la descarga eléctrica produce el giro del molinillo. 17 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Las ondas electromagnéticas, según la teoría de Maxwell, también son capaces de mover los objetos, ya que no solo transportan energía sino que también transportan cantidad de movimiento. Si el experimento apoya la idea de una concepción corpuscular de la electricidad es por el orden de magnitud de la cantidad de movimiento implicada. Otra posibilidad para determinar la naturaleza de los rayos catódicos, es analizar el efecto que sobre ellos produce un campo magnético o un campo eléctrico. La hipótesis ahora es que si los rayos están formados por partículas cargadas deben desviarse cuando son sometidos a la acción de un campo eléctrico o de un campo magnético. El experimento es difícil de realizar en un campo eléctrico y sencillo en un campo magnético. El efecto del campo magnético utilizando un tubo de descarga con una pantalla interpuesta que permite visualizar el punto de incidencia del rayo. En la primera experiencia utilizamos el electrodo de la izquierda como negativo y aplicamos un campo magnético perpendicular a la dirección 18 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 del rayo y dirigido hacia el lado desde el que observamos. El rayo catódico se desvía hacia abajo, como corresponde a un haz de partículas negativas. En la segunda experiencia con el mismo tubo, empleamos el electrodo de la derecha como negativo. Entonces la pantalla proyecta una sombra sobre la cara izquierda del tubo. Un campo magnético aplicado en la misma dirección que antes, desvía el límite superior de esta sombra hacia arriba. Todas estas observaciones indicaban que la radiación de los rayos catódicos estaba compuesta de partículas cargadas negativamente, a las cuales le pusieron el nombre de electrones. 19 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Thomson propuso: -la corriente de partículas cargadas pueden desviarse por medio de una carga o un campo magnético. -se puede emplear un campo eléctrico para compensar por la desviación producida por campo magnético, dando como resultado que el haz de electrones se comporten como si no tuviera carga. -la corriente requerida para neutralizar al campo magnético aplicado indica la carga del haz. -la perdida de masa del cátodo indica la masa de la corriente de los electrones. Thomson determino el cociente entre la carga y la masa para el electrón, pero no pudo determinar la masa del electrón. Sin embargo, de sus datos se puede obtener la carga de un electrón, siempre y cuando se conozca la masa de un solo electrón. 20 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Robert Millikan en 1909 pudo medir la carga de un electrón en el experimento de la gota de aceite, obteniendo un valor de 1060 x 10-19 coulombs. 21 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA ATÓMICA, SEGÚN LA LECTURA SOBRE EL DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN Para Kuhn los periodos de ciencia normal son aquellos en los que se acepta como válida una teoría y durante el cual el científico trabaja de acuerdo a esa teoría. (Ver nota 1) A los problemas que los científicos tratan de resolver durante ese periodo los llamo “enigmas”. Kuhn sostiene que los científicos confían en que estos enigmas se pueden resolver con la teoría vigente. Sin embargo algunos enigmas se muestran difíciles de resolver, en este caso ya no diremos que el problema es un enigma resuelto o por resolver sino que es una anomalía. Los periodos de ciencia normal se pueden asociar con la resolución de enigmas. El periodo de ciencia normal se caracteriza porque los científicos no ponen a prueba la teoría sino que la dan por válida para utilizarla en la resolución de enigmas. (Ver nota 2) Pero cuando se acumulan una cierta cantidad de anomalías, cuando los científicos no están seguros de que la teoría que están usando es correcta, es un periodo que Kuhn llamó ”crisis” (ver nota 3) La etapa de crisis (ver nota 4) da lugar a una revolución científica en donde se revisan todos los supuestos que tenían en la etapa de ciencia normal anterior, tanto los referentes a la teoría como a las demás hipótesis utilizadas. La etapa de revolución científica se cuestiona el paradigma sostenido hasta ese momento (ver nota 5) Nota 1: En 1808 Dalton publicó su teoría atómica, que retomaba las antiguas ideas de Leucipo y de Demócrito. El postula que los átomos de un mismo elemento son iguales entre sí en masa, tamaño y resto de propiedades físicas o químicas. Difiere de los imaginados por los filósofos griegos los cuales los creían formados por la misma materia primordial difiriendo en forma y tamaño. 22 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Nota 2: Estas modificaciones sorprendentes de las ideas de Dalton acerca de la naturaleza de los átomos, no invalidan en el campo de la química los resultados brillantes de la teoría atómica. Las suposiciones de Dalton permiten explicar fácilmente las leyes ponderales de las combinaciones químicas ya que la composición en peso de un determinado compuesto viene determinada por el número y peso de los átomos elementales que integran el átomo compuesto. Para Dalton, las partículas gaseosas como H2, O2, CL2, y otros, eran necesariamente simples y estaban constituidas por un solo átomo, y que los compuestos como el H2O o cloruro de hidrogeno eran naturalmente compuestos pero formadas por solo dos átomos diferentes. Nota 3: Sin embargo, con estas formulas no se podían explicar las relaciones volumétricas de Gay-Lussac de que un volumen de cloro se une con un volumen de hidrógeno para dar lugar a dos volúmenes de cloruro de hidrógeno llevó a Dalton a suponer que en los volúmenes iguales de cloro y de hidrogeno debían existir igual número de átomos. Nota 4 :Al imaginar que estos elementos se unen átomo a átomo, formaran un mismo número de átomos (hoy moléculas) de cloruro de hidrógeno, al ser estos átomos indivisibles, debían ocupar, en cambio un volumen doble según los resultados de GayLussac. La hipótesis de que a volúmenes iguales de gas debían existir igual número de átomos, tuvo Dalton que descartarla llegando a la conclusión de que los resultados de Gay-Lussac eran inciertos. Si la ley de Gay-Lussac era cierta estaba en contradicción con los postulados de Dalton y la teoría atómica. Nota 5: El átomo contiene partículas materiales subatómicas. Los electrones tienen carga eléctrica negativa y masa. Cada electrón posee una carga eléctrica elemental Los protones tienen carga eléctrica positiva y mayor masa. Como el átomo es eléctricamente neutro, hay que suponer que el número de cargas eléctricas negativas (electrones) es igual al número de cargas positivas (protones). 23 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Cuando la comunidad de científicos se inclina a favor de un nuevo paradigma y comienza a trabajar de acuerdo a los nuevos supuestos, la revolución científica ha terminado y comienza un nuevo periodo de ciencia normal. (Ver nota 6) Tipo de adquisición del conocimiento científico Hay maneras de obtener conocimiento mediante la observación pasiva: en este periodo se observa solamente lo que la naturaleza muestra. No se forzaban situaciones que la naturaleza todavía no nos había mostrado. En síntesis se confeccionaban experimentos sobre situaciones posibles pero nuevas. (Ver nota 7) Esto destaca la diferencia entre observación pasiva y observación experimental. (Ver nota 8) Nota 6: Por ser tan pequeña la masa del electrón, el físico J. Thomson, supuso, en 1904, que la mayor parte de la masa del átomo correspondía a la carga positiva, que por tanto, debía ocupar la mayor parte del volumen atómico. Thomson imaginó el átomo como una especie de esfera positiva continua en la que se encuentran incrustados los electrones (como las pasas de uvas en un budín). Nota 7: Dalton postula una teoría científica mediante la cual podían explicarse y coordinarse cuantitativamente los fenómenos observados y las leyes de las combinaciones químicas Nota 8: Los fenómenos eléctricos son una manifestación de sus cargas eléctricas. La unidad de carga eléctrica es el culombio. Hay dos tipos de cargas eléctricas: positivas y negativa. Dos cuerpos que hayan adquirido una carga del mismo tipo se repelen, mientras que si poseen cargas distintas se atraen. En su experimento J. Thomson ajusto campos eléctricos (E) y magnéticos (B) mutuamente perpendiculares, de forma que las partículas cargadas no se desviaran. Esto le permitió determinar la velocidad de dichas partículas, igualando los valores de las fuerzas eléctricas y magnéticas. Es conveniente empezar el estudio del los experimentos de Thomson con la presentación del fenómeno de la descarga eléctrica en gases a baja presión. § La experiencia debe contextualizarse en los intentos por conocer la naturaleza de la electricidad. § . La incandescencia que se produce en el gas. § . La naturaleza de la electricidad que produce la incandescencia. 24 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA ATÓMICA, SEGÚN LA LECTURA SOBRE EL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) Programa de investigación: Indivisibilidad del átomo. Núcleo central: el átomo es la partícula más pequeña que existe. Para que el programa de investigación siga funcionando, los científicos buscan proteger el núcleo central; ya ningún partidario del programa esta dispuesto a tocar su núcleo. Por lo tanto buscan modificar un conjunto de enunciados llamado ”cinturón protector del programa”. (Ver nota 1) Cuando se presenta una falsación sobre la teoría central (Ver nota 2), buscan reemplazar la hipótesis del cinturón protector que haya sido afectada, para que el mismo siga funcionando. Pero si el programa incorpora cada vez más cantidad de hipótesis para evitar falsaciones, el mismo no resulta fructífero. Cuando esto ocurre, se dice que el programa se ha tornado degenerativo. Por el contrario si el programa permite explicar nuevos fenómenos ha medida que se reemplazan hipótesis, entonces diremos que el programa es progresivo, Un programa de investigación es abandonado cuando aparece un programa alternativo que puede explicar los fenómenos que el anterior no podía. (Ver nota 3) Nota 1: Los cuerpos compuestos están hechos de moléculas y cada molécula contiene un número definido de átomos, para cada cuerpo compuesto. Si los átomos no existiesen, los elementos no podrían combinarse. Por lo tanto es necesaria la existencia del átomo Nota 2: Los átomos de los metales según Berzelius, tenían excesos de cargas positivas y los de los no metales exceso de cargas negativas. Aceptando esta concepción no se podía admitir la existencia de moléculas constituidas por dos átomos iguales. 25 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Nota 3: El átomo contiene partículas materiales subatómicas. Los electrones tienen carga eléctrica negativa y masa. Cada electrón posee una carga eléctrica elemental Los protones tienen carga eléctrica positiva y mayor masa. Como el átomo es eléctricamente neutro, hay que suponer que el número de cargas eléctricas negativas (electrones) es igual al número de cargas positivas (protones). 26 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Bibliografía Angelini M. Bulwik (1998) Temas de química general , Eudeba, 2da edición Chang Raymond (2002) Química Mc GRAW-HILL7ma edición Paginas de Internet: Http.encina.pntic.mec.es_ jsaf000 2p32.hot mail Http:www..sothis 2005.orgatomicdocsTubos Descficha.doc 27 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 28 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Modelos Atómicos de RHUTERFORD y BOHR. Moschettoni, Soledad Ghirst, Susana 29 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 MODELO ATÓMICO DE ERNEST RUTHERFORD Método experimental Por sus trabajos en el campo de la Física atómica está considerado como uno de los padres de esta disciplina. Tras el descubrimiento de la radiactividad en 1896 por Henri Becquerel, estudió las emisiones radioactivas e identificó sus tres componentes principales a los que denominó rayos alfa, beta y gamma. Demostró (1908) que las partículas alfa son núcleos de helio. Quizás su contribución mas importante a la física fueron sus estudios sobre la dispersión de los rayos alfa producida al bombardear con ellos láminas delgadas de metales. Esta investigación le condujo en 1911, a un nuevo modelo atómico. Dinámica de las partículas: Bombardeó láminas finas de oro con partículas alfa (positivas) procedentes de un elemento radioactivo (Polonio) observando lo siguiente: 30 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 • La mayoría de las partículas (a pesar de su gran tamaño) atravesaban la lámina sin sufrir desviación. • Algunas partículas se desviaban. • Rara vez alguna partícula rebotaba. Dedujo que estas dispersiones con ángulos grandes sólo podían resultar como consecuencia de un solo encuentro de la partícula Alfa con una carga masiva concentrada en un volumen mucho menor que el del átomo completo. De la experiencia Rutherford deduce lo siguiente: • La materia esta formada por huecos. • En la materia debe haber alta concentración de cargas positivas, puesto que las partículas rara vez eran desviadas. • La masa también debe estar concentrada en algunas zonas, puesto que chocaban y retrocedían. • La carga negativa debería estar alrededor de las cargas positivas con el fin de mantener la materia neutra. Conclusiones: • El átomo no puede ser una esfera maciza y compacta. • El átomo es una esfera que en su mayor parte está vacía. 31 “De Demócrito a la Máquina de Dios” • Alumnos ISFD35 El átomo tiene un núcleo central en el que están concentradas la carga positiva y casi toda la masa. • Hay una zona exterior que a penas concentra masa y que esté muy lejos de la zona interior. • La carga positiva de los protones del núcleo se encuentra compensada por la carga negativa de los electrones, que están fuera del núcleo. • El núcleo contiene, por tanto, protones en un número igual al de electrones del átomo. • Los electrones giran a mucha velocidad alrededor del núcleo y están separados de éste por una gran distancia, al girar velozmente no precipitan contra este. • Está formado por una zona central que es llamada NÚCLEO y por una zona exterior, a la que él llama CORTEZA. De tal manera, que entre ésta y el núcleo, sólo hay vacío. La masa de protones y electrones no coincidía con la masa total del átomo; por tanto, Rutherford supuso que tenía que haber otro tipo de partículas subatómicas en el núcleo de los átomos. Estas partículas fueron descubiertas en 1933 por J. Chadwick. Al no tener carga eléctrica recibieron el nombre de neutrones. Los neutrones son partículas sin carga y de masa algo mayor que la masa de un protón. 32 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Modelo atómico o modelo nuclear: Después de esto Rutherford da su Modelo Atómico o modelo nuclear que establece que: Los átomos están formados por dos zonas: núcleo y corteza. El núcleo es donde se encuentra la carga positiva y la masa del átomo; protones y neutrones. En la corteza, zona exterior al núcleo donde se encuentran las cargas negativas girando a gran velocidad para no precipitarse contra el núcleo. Da lugar al Modelo Planetario de Átomo. Según este modelo los electrones están girando a gran velocidad a cualquier distancia del núcleo. Al ser el electrón una partícula cargada en movimiento, según la teoría electromagnética debería emitir radiación de forma continua por lo que daría lugar a espectros continuos. Por otro lado, el electrón emitiría energía, por tanto, la velocidad disminuirá y chocará sobre el núcleo desintegrándose. Hechos inexplicables: En primer lugar, para evitar que el núcleo sea destruido por la repulsión entre cargas positivas, tiene que admitir la existencia dentro del núcleo de una fuerza más intensa la llamada interacción nuclear fuerte. 33 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 En segundo lugar, el descubrimiento de los espectros atómicos y nuevas hipótesis, como la de Planck, dejan en evidencia hechos que no pueden ser explicados por medio de este modelo. Descubrimiento de los espectros atómicos: Un espectro es una representación gráfica de las intensidades de las radiaciones emitidas por un foco luminoso. Si el foco luminoso es el sol, resulta el espectro solar, cuyos colores van del rojo hasta el violeta. El espectro solar es un espectro continuo y nuestro ojo solo distingue las radiaciones visibles, pero existen otros (infrarrojas) que el ojo humano no las puede detectar. Si el foco luminoso en vez de ser el sol es un átomo excitado incandescente el resultado es un espectro atómico que se caracteriza por ser un espectro discontinuo. Esto quiere decir que está formado por una serie de líneas espectrales y unas zonas negras. Cada átomo tiene un espectro característico. 34 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 El que aparezcan zonas oscuras en los espectros atómicos indican que en la corteza del átomo existen zonas donde el átomo no emite energía. Para que un átomo emita energía tiene que estar excitado, es decir, que sus átomos se encuentren en órbitas de mayor energía de las que corresponden en estado fundamental. El hecho de que cada átomo tenga un espectro de rayas distinto y discontinuo debe esta relacionado con su estructura y el hecho por el cual la carga negativa del electrón en movimiento va perdiendo energía hasta caer contra el núcleo y haciendo que los átomos fuesen inestables y acabaran desintegrándose, son hechos que no podía explicar el modelo de Rutherford. Hipótesis de Planck: • Las experiencias que demuestran que el electrón no cae contra el núcleo, fueron realizadas por Planck en 1900 sobre la emisión y absorción de radiaciones de un cuerpo negro. Un cuerpo negro es aquel que tiene la propiedad de absorber o emitir todas las radiaciones que inciden sobre él, cualquiera que sea su frecuencia. Son cuerpos hipotéticos. Planck dio su hipótesis que es la siguiente: “la energía no puede ser absorbida en forma continua, sino en formas de cantidades definidas o paquetes de energía múltiplos de una unidad fundamental denominada cuantos” 35 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Cuando un electrón gira en su órbita, según las leyes de la física clásica, tendría que emitir al espacio energía en forma de ondas electromagnéticas. Para comprender esa pérdida de energía, tendría que ir acercándose paulatinamente al núcleo, por lo que volveríamos al modelo de Thomson. Las leyes de la física Clásica no sirven en el mundo del átomo, es decir, que un electrón cuando gira en su órbita, ni absorbe, ni emite energía, se encuentra en un ESTADO ESTACIONARIO DE ENERGÍA. La presencia de rayas concretas de un color concreto, indica que la energía del electrón también tiene valores concretos, por ello no puede girar en cualquier órbita, ya que entonces, su energía sería variable. Se plantea por ello la posibilidad de dotar la corteza del átomo de unos valores de energía y de órbita fijos, es decir, se propone ESTRUCTURAR LA CORTEZA ATÓMICA (realizada por BOHR). 36 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 MODELO ATÓMICO DE NIELS BOHR Su trabajo giró sobre el modelo nuclear del átomo de Rutherford, en el que el átomo se ve como un núcleo compacto rodeado por un enjambre de electrones más ligeros. El modelo de átomo de Bohr utilizó la teoría cuántica y la constante de Planck. El modelo de Bohr establece que un átomo emite radiación electromagnética sólo cuando un electrón del átomo salta de un nivel cuántico a otro. Este modelo contribuyó enormemente al desarrollo de la física atómica teórica. Su modelo tenía dos postulados, uno de ellos era relativo a la cuantificación de las órbitas de los electrones. Así, los primeros experimentos consistían en poner en evidencia esta cuantificación. Estos primeros experimentos usaban la luz, y a la época se sabía que esta estaba formada por "cuantos de energía". Sus postulados eran: 1) Sólo son posibles aquellas órbitas en las que el electrón tiene un momento angular que es múltiplo entero de h/(2 · p). Sólo hay unas pocas órbitas posibles, las cuales vienen definidas por los valores permitidos para un parámetro que se denomina número cuántico, n. 2) El electrón sólo se mueve en unas órbitas circulares "permitidas" (estables) en las que no emite energía (se deduce de las zonas negras). El electrón tiene en cada órbita una determinada energía, que es tanto mayor cuanto más alejada esté la órbita del núcleo. Para que el electrón no se precipite sobre el núcleo ni tampoco salga despedido de su órbita es necesario que su fuerza centrífuga se iguale a las fuerzas eléctricas. 3) La emisión de energía se produce cuando un electrón salta desde un estado inicial de mayor energía hasta otro de menor energía. El valor de esta energía se determina por la ecuación de Planck. 37 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 La diferencia de energía entre 2 órbitas disminuye a medida que nos alejamos del núcleo. La única posibilidad de que la energía de un electrón cambie es que varíe de órbita , cuando salta a una órbita superior, absorberá energía y cuando regrese a una órbita superior el tipo de energía absorbida puede ser cualquiera: calorífica, luminosa o eléctrica; pero cuando regresa a una órbita inferior, LA ENERGÍA DESPRENDIDA SIEMPRE ES LUMINOSA. Experiencia de energía de ionización: En 1914, Franck y Hertz, que trabajaban en las energías de ionización de los átomos, pusieron a punto una experiencia que usaba los niveles de energía del átomo de mercurio. Su experiencia sólo usaba electrones y átomos de mercurio, sin hacer uso de ninguna luz. Bohr encontró así la prueba irrefutable de su modelo atómico. Con el fin de poner en evidencia la cuantificación de los niveles de energía, utilizamos un tríodo, compuesto de un cátodo, de una rejilla polarizada y de un ánodo, que crea un haz de electrones en un tubo de vacío que contiene mercurio gaseoso. 38 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Midieron entonces la variación de la corriente recibida por el ánodo con respecto a la energía cinética de los electrones, y pudieron deducir las pérdidas de energía de los electrones en el momento de las colisiones. El conjunto del tríodo está contenido dentro de una cápsula de vidrio que contiene mercurio. El experimento pudo realizarse a diferentes temperaturas y es interesante comparar estos resultados con una medida a temperatura ambiente (el mercurio está entonces en el estado líquido). Una vez calentado a 630 K, el mercurio se vuelve gaseoso. Pero para evitar tener que alcanzar tal temperatura, se trabajo a una presión reducida dentro de la cápsula y se calienta entre 100 y 200 °C. Para que los electrones sean arrancados y para que tengan una velocidad bastante importante, se utilizó una tensión entre el cátodo y la rejilla, una tensión de aceleración. Los resultados de la experiencia • Para diferencias de potencial bajas - hasta 4,9 V - la corriente a través del tubo aumenta constantemente con el aumento de la diferencia potencial. Con el voltaje más alto aumenta el campo eléctrico en el tubo y los electrones fueron empujados con más fuerza hacia la rejilla de aceleración. • A los 4,9 voltios la corriente cae repentinamente, casi de nuevo a cero. • La corriente aumenta constantemente de nuevo si el voltaje se sigue aumentando, hasta que se alcanzan 9.8 voltios (exactamente 4.9+4.9 voltios). • En 9.8 voltios se observa una caída repentina similar. 39 “De Demócrito a la Máquina de Dios” • Esta serie de caídas en Alumnos ISFD35 la corriente para incrementos de aproximadamente 4.9 voltios continuará visiblemente hasta potenciales de por lo menos 100 voltios. Interpretación de los resultados Franck y Hertz podían explicar su experimento en términos de colisión elástica y colisión inelástica de los electrones. Para potenciales bajos, los electrones acelerados adquirieron solamente una cantidad modesta de energía cinética. Cuando se encontraron con los átomos del mercurio en el tubo, participaron en colisiones puramente elásticas. Esto se debe a la predicción de la mecánica cuántica que un átomo no puede absorber ninguna energía hasta que la energía de la colisión exceda el valor requerido para excitar un electrón que esté enlazado a tal átomo a un estado de una energía más alta. Con las colisiones puramente elásticas, la cantidad total de energía cinética en el sistema sigue siendo igual. Puesto que los electrones son unas mil veces menos masivos que los átomos más ligeros, esto significa que la mayoría de los electrones mantuvieron su energía cinética. Los potenciales más altos sirvieron para conducir más electrones a la rejilla al ánodo y para aumentar la corriente observada, hasta que el potencial de aceleración alcanzó 4.9 voltios. La energía de excitación electrónica más baja que un átomo del mercurio puede tener requiere 4,9 electronvoltios (eV). Cuando el potencial de aceleración alcanzó 4.9 voltios, cada electrón libre poseyó exactamente 4.9 eV de energía cinética (sobre su energía en reposo a esa temperatura) cuando alcanzó la rejilla. Por lo tanto, una colisión entre un átomo del mercurio y un electrón libre podía ser inelástica en ese punto: es decir, la energía cinética de un electrón libre se podía convertir en energía potencial excitando el nivel de energía de un electrón de un átomo de mercurio. Con la pérdida de toda su energía cinética, el electrón libre no puede superar el 40 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 potencial negativo leve en el electrodo a tierra, y la corriente eléctrica cae fuertemente. Al aumentar el voltaje, los electrones participan en una colisión inelástica, pierden su eV 4.9, pero después continúan siendo acelerados. De este modo, la corriente medida sube otra vez al aumentar el potencial de aceleración a partir de 4.9 V. A los 9.8 V, la situación cambia otra vez. Allí, cada electrón ahora tiene energía suficiente para participar en dos colisiones inelásticas, excitando dos átomos de mercurio, para después quedarse sin energía cinética. Ello explica las caídas de corriente observadas. En los intervalos de 4.9 voltios este proceso se repetirá pues los electrones experimentarán una colisión inelástica adicional. Conclusiones del modelo: Explicación del espectro atómico discontinuo Al saltar un electrón a una órbita superior, absorbe una cantidad fija de energía que coincida con la diferencia de energía entre las órbitas final e inicial. En tal situación, el electrón es inestable, por lo cual, regresará a su órbita inicial, devolviendo la energía en forma de luz. Esta luz, da origen a una raya en el espectro. Cuanto mayor el salto, mayor es la energía luminosa, por ello el color de la raya se va aproximando al VIOLETA. Cuando el salto electrónico ocurre entre órbitas consecutivas y cercanas, la luz emitida se acerca al ROJO, pero si hay mucha distancia entre órbitas, la energía del salto es mayor, y la luz se aproximará al VIOLETA. En el modelo de Bohr se dice que la energía de un electrón está cuantiada, es decir, sólo se permiten ciertos valores, que además, son siempre los mismos. Uno de los mayores éxitos del modelo de Bohr fue explicar correctamente los ESPECTROS ATÓMICOS, pero de cara a la química, su mayor contribución fue dar una explicación a la VALENCIA DE LOS ELEMENTOS. La distribución por capas de los electrones de un átomo de un elemento se conoce como estructura o configuración electrónica del elemento. 41 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 A los electrones que están situados en la última capa se les denomina electrones de valencia y, al nivel que ocupan, capa de valencia. Estos electrones son los responsables de las propiedades químicas de las sustancias. Correcciones al modelo de Bohr: números cuánticos. En el modelo original de Bohr, se precisa un único parámetro (el número cuántico principal, n), que se relaciona con el radio de la órbita circular que el electrón realiza alrededor del núcleo, y también con la energía total del electrón. Los valores que puede tomar este número cuántico son los enteros positivos: 1, 2, 3... El modelo atómico de Bohr solo permite explicar átomos que poseen únicamente un e- como por ejemplo el hidrógeno, pero no permite explicar átomos de más electrones. Para explicarlos Sommerfeld introdujo pequeñas variaciones a este modelo: • Las órbitas además de circulares pueden ser elípticas. • Para cada órbita n puede haber n subórbitas. n es circular y n 1 elípticas. Surge así la necesidad de otro nº cuántico que sirva para delimitar a la subórbita a la que pertenece el e-, el cual se denominó nº cuántico secundario L. Si n = 1, una órbita circular y no hay una órbita elíptica. A pesar de las modificaciones realizadas sobre el modelo atómico de Bohr no se podía explicar el espectro de un gran nº de átomos. Sin embargo, pronto fue necesario modificar el modelo para adaptarlo a los nuevos datos experimentales, con lo que se introdujeron otros dos números cuánticos para caracterizar al electrón: · Número cuántico magnético (m) · Número cuántico de espín (s) 42 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Nota: En el siguiente trabajo se realizará un análisis sobre el progreso científico desde el punto de vista de Lakatos y Kuhn. Para poder hacerlo, se acotó el análisis a un periodo de tiempo que va desde el año 1890 hasta el año 1960, que coincide con los descubrimientos que hicieron posible postular dos nuevos modelos atómicos. Los hechos que serán analizados, son los que se enumeran a continuación: § En 1896, Henri Becquerel descubre la radiactividad estudiando las emisiones radioactivas e identificó sus tres componentes principales: los rayos alpha, beta y gamma. Más tarde, en 1908, pudo determinar que las partículas alpha eran núcleos de Helio y las utilizó para bombardear láminas delgadas de metales. § Gracias a estos descubrimientos Ernest Rutherford, en 1911, fue quien experimentó bombardeando láminas de oro con partículas alpha provenientes de Polonio radiactivo y descubrió la existencia de un núcleo atómico a partir del cual planteó su modelo atómico y fue reconocido como padre de la física nuclear, aunque algunas cosas no podían ser explicadas mediante su modelo. § Fue en 1933 cuando el modelo recibe sus primeras modificaciones de la mano de James Chadwick quien descubre la existencia de neutrones en el núcleo atómico y resuelve uno de los interrogantes planteados al modelo de Rutherford, pero aún hay otros por resolver. § Era la teoría electromagnética, planteada por James Maxwell en 1859, un impedimento para aquel modelo dado que las observaciones y conclusiones del modelo no se respondían con dicha teoría. § También así lo era, el estudio de los espectros y aquel descubrimiento de Max Planck en 1900, quien postuló en su ley el primer peldaño para construir lo que luego fue la teoría cuántica, incompatible con el modelo atómico de Rutherford basado en física clásica. § Pocos años después del descubrimiento de Rutherford, en el año 1913, fue Niels Bohr quien basándose en el descubrimiento del 43 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 núcleo atómico plantea nuevas hipótesis, ahora si con cimientos cuánticos permitiendo que la teoría y la observación fueran de la mano. Fue él quien por primera vez habló de números cuánticos atómicos y estableció el número cuántico principal, dado que su modelo sólo era aplicable al átomo de Hidrógeno. § Gracias al descubrimiento de Bohr, los científicos James Franck y Gustav Hertz, en 1914, logran experimentar la cuantificación de la energía que fue realmente un hecho trascendental. § En 1957, Arnold Sommerfeld, amplia el modelo atómico de Bohr, aplicando un análisis relativista sobre la forma de las órbitas y descubre así la existencia de un segundo numero cuántico que llamo, numero cuántico secundario. Aunque pronto fue necesario modificar el modelo nuevamente adaptándolo a los nuevos datos experimentales y se introdujeron así los números cuánticos magnético y de spin. § De mas esta decir, que este modelo, fue el principio para el orígen de los modelos atómicos actuales, también llamados modelos cuánticos que quedan incompletos si tratan de ser explicados por la mecánica newtoniana mientras que pueden ser completamente explicados por la mecánica cuántica gracias a las ecuaciones que planteó el científico Edwin Schrödinger, en 1925, y que escapa a nuestro análisis dado que fue correctamente interpretada mucho después. 44 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA ATÓMICA ( Modelos de Rutherford y Bhor), SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) Rutherford realizó una experiencia para conocer la estructura atómica, empleando conocimientos aportados por H. Becquerel sobre radiactividad, a partir del bombardeo de partículas alpha (provenientes del polonio) a una lámina de oro1. Sus consecuencias observacionales2 fueron: • La mayoría de las partículas atravesaban la lámina sin desviarse, • Algunas partículas se desviaban, • Rara vez alguna partícula rebotaba. De la experiencia deduce3 que: • La materia está formada por huecos, • Debe haber concentración de carga positiva, dado que alguna vez se desviaban, • La masa también debe estar concentrada en alguna zona, puesto que rara vez chocaban y rebotaban y, • La carga negativa debería estar alrededor de las cargas positivas con el fin de mantener la materia neutra. Por lo que establece su teoría que postula lo siguiente: 1 “Método experimental” – página 30. “Dinámica de las partículas” – página 30. 3 ,“conclusiones”– página 31 y 32 2 45 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Como núcleo central de la teoría plantea que “El átomo es una esfera que en su mayor parte está vacía, por lo cual tiene un núcleo central” y como cinturón protector de la teoría agrega que: • En el núcleo se encuentran las cargas positivas y casi toda la masa, • El núcleo está rodeado por una zona exterior de carga negativa, y • En la zona exterior los electrones se encuentran girando velozmente. Esta teoría se propuso en 1911, a partir de ella, y por consiguiente del descubrimiento del núcleo atómico, se plantea un nuevo programa de investigación científica. Años después, con el avance de la ciencia, se descubren hechos que la teoría no puede explicar por lo que se modifica, dentro de la teoría, algún elemento para disolver la contradicción entre la misma y la observación en conflicto. De esta manera, en 1933, el descubrimiento del neutrón por J. Chadwick4 sirvió para modificar el cinturón protector de la teoría dado que la masa de protones y electrones no coincidía con la masa total del átomo. Por lo cual amplia uno de los enunciados diciendo que “en el núcleo se encuentran las cargas positivas y casi toda la masa dado que allí también se encuentran los neutrones que carecen de carga”. Una vez modificado el enunciado, los científicos obtienen nuevas consecuencias observacionales del programa y las confrontan con la experiencia. Cuando ocurre esto, que el programa evoluciona sin que medie necesariamente una falsación previa, se dice que está en marcha la heurística positiva del programa (que es un conjunto de indicaciones o sugerencias sobre cómo desarrollar o sofisticar el cinturón protector para que el programa evolucione). 4 “Conclusiones” – página 31 y 32. 46 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Más tarde, la teoría electromagnética5 pone en duda la predicción de que los electrones giran velozmente, ya que al ser una partícula cargada y en movimiento debiera emitir radiación en forma continua, lo que daría lugar a la formación de espectros atómicos continuos, y al emitir energía su velocidad debiera disminuir por lo cual acabaría chocando contra el núcleo. Rutherford evita una falsación previa a la teoría agregando la siguiente hipótesis ad hoc a su ultimo enunciado: “los electrones están girando a gran velocidad a cualquier distancia del núcleo por lo que no caen sobre él”. Por último, el descubrimiento de los espectros atómicos6, a partir del comportamiento dual de la luz, plantea que los átomos emiten radiación que es registrada como un espectro discontinuo (no continuo como hasta entonces se pensaba) lo que indica que en la corteza o zona exterior del átomo existen zonas donde el átomo no emite energía continuamente. Las herramientas de las que dispone Rutherford7, basadas en la Física Clásica Newtoniana, no le permiten explicar por qué las radiaciones de los átomos no resultan ser continuas. Este nuevo hecho hace imposible mantener la evolución del programa dado que existe un desconocimiento de la física Pre-cuántica y se plantean conflictos entre la teoría y lo observado. Entonces diremos que junto con la heurística negativa el programa se torna degenerativo. Es entonces, Planck8 quien plantea una hipótesis capaz de explicar la aparición de espectros discontinuos, él dice que “la energía no puede ser absorbida en forma continua sino en cantidades definidas o cuantos”. Estas nuevas ideas fueron incorporadas al mismo programa de investigación por Niels Bohr9 quien incorporó nuevas hipótesis, permitió descubrir nuevos 5 6 7 8 9 “Modelo atómico o modelo nuclear” – página 33. “Descubrimiento de espectros atómicos” – página 34. “Hechos inexplicables” – pagina 33. “Hipótesis de Planck” – página 35 “Modelo atómico de Niels Bohr” – página 37 y 38. 47 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 fenómenos, también nuevas consecuencias observacionales y confrontarlas con la experiencia, tornando el programa nuevamente progresivo. Se podría argumentar que la teoría cambia cuando cambia alguna parte de esta, pero en este caso se mantiene el mismo programa de investigación científica dado que el núcleo central de la teoría, que denota el descubrimiento del núcleo, permanece inalterable. Los conflictos entre la teoría y la observación sólo se plantean sobre la estructura y dinámica de la zona exterior compuesta por electrones por lo que sólo se modifica el cinturón protector. Bohr se basa en el modelo nuclear del átomo de Rutherford, utiliza la Física Cuántica y la Hipótesis de Planck para ampliar el cinturón protector de la teoría mediante la siguiente hipótesis10: “Un átomo emite radiación electromagnética sólo cuando un electrón salta de un nivel cuántico de mayor energía a uno de menor energía” y además agrega que “el electrón no se encuentra a cualquier distancia del núcleo sino que se mueve en orbitas circulares definidas en las que no emite energía”. Estos postulados condicen con lo observado por Franck y Hertz11 que trabajaron con la energía de ionización de los átomos usando los niveles de energía del átomo de mercurio y con el descubrimiento del espectro atómico discontinuo que postulaba Planck. Bohr explicó así el espectro atómico discontinuo, enumeró los niveles de energía y estableció para cada uno de ellos un número cuántico12. La limitación de la teoría de Bohr es que sólo es aplicable al átomo de hidrogeno, dado que utilizaba el número cuántico principal (n). Pronto fue necesario modificar el modelo para adaptarlo a los nuevos datos experimentales, es entonces cuando Sommerfeld13 modifica nuevamente el 10 11 12 13 “Sus postulados eran” – página 37. “Experiencia de energía de ionización – página 37 y 38. “Conclusiones del modelo” – página 39. “Correcciones al modelo de Bohr: números cuánticos” – página 42. 48 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 cinturón protector de la teoría agregando que “además de circulares, las orbitas pueden ser elípticas” y que “para cada orbita n existen suborbitas” planteando la existencia de otros números cuánticos. De esta manera, el programa de investigación evoluciona hacia el modelo cuántico actual, por medio de: modificaciones de hipótesis existentes; planteo de nuevas hipótesis; o agregado de hipótesis ad hoc; que amplían o sofistican el cinturón protector sin que medie una falsación previa al programa de investigación científica. • Según el desarrollo de las ciencias por Kuhn Teniendo en cuenta los conflictos que otras teorías atómicas anteriores no pudieron resolver, y en base a su experiencia, Rutherford plantea14: “El átomo no es macizo, está formado por huecos, en el centro tiene concentración de protones de cargas positivas y en la corteza electrones de carga negativa”. A partir del descubrimiento del núcleo atómico por Rutherford se establece un período de Ciencia Normal en el cual esta teoría se establece como válida, no se la cuestiona, y permite resolver los problemas que surgen de la investigación, llamados enigmas. Avanza la ciencia, algunos enigmas se muestran difíciles de resolver y resultan imposibles de explicar por medio de la teoría, entonces se convierten en anomalías. Las anomalías que acumuló la teoría fueron las siguientes15: 14 15 “Modelo Experimental” y “Conclusiones” – página 30, 31 y 32. “Modelo atómico o modelo nuclear” y “Hechos inexplicables” – página 33. 49 “De Demócrito a la Máquina de Dios” • Alumnos ISFD35 La masa del átomo no coincidía con la masa resultante de la suma de protones y electrones, • Los electrones girando velozmente acabarían cayendo sobre el núcleo, desintegrándose, y • Los átomos no emitían radiación de manera continua dando lugar a la formación de espectros continuos. Cuando la teoría no puede dar cuenta de varios problemas, es decir, ha acumulado anomalías, los científicos se vuelven críticos para con la teoría por lo cual entra en un periodo de crisis que desata una revolución científica caracterizada por el cambio de paradigma y que puede durar mucho tiempo. En este período se pone a prueba la teoría y se revisan los métodos experimentales. Este es un punto de inflexión importante en las teorías de los modelos atómicos, dado el descubrimiento del comportamiento dual de la luz, que permite desarrollar una Física Cuántica que replantea las hipótesis, los recursos y la metodología, dando lugar al reemplazo de un paradigma por otro. En este caso, pasaremos del paradigma de “modelo nuclear del átomo explicado por la física Newtoniana” al paradigma de “modelo nuclear del átomo explicado por la física Cuántica”. En la fase de puesta a prueba aparecen nuevos descubrimientos. Por un lado, Chadwick, demuestra la existencia de neutrones16 en el núcleo atómico; y por otro lado, las experiencias de Planck17, determinan la existencia de espectros discontinuos y la energía estacionaria del electrón. 16 17 “Conclusiones” – página 31. “Hipótesis de Planck” – página 32 y 33. 50 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Apoyándose en estos nuevos descubrimientos, Niels Bohr plantea una nueva teoría18 capaz de resolver los problemas experimentales19, ya sea las anomalías del modelo anterior y los nuevos enigmas que aparecerán. En su teoría plantea que “el átomo sólo emite radiación cuando el electrón salta de un nivel cuántico de mayor energía a uno de menor energía” dando como resultado un espectro atómico discontinuo y no continuo (soluciona la primer anomalía) y como “el electrón se encuentra en orbitas definidas y no emite energía continuamente” explica por qué no cae contra el núcleo (soluciona la segunda y tercer anomalía)20. Su teoría se establece como válida, es mejorada por Sommerfeld 21, ampliando su campo de aplicación a todos los átomos y no solo al de hidrogeno, de manera que es capaz de explicar los nuevos enigmas de la época. De esta manera, se alcanza una nueva cosmovisión compartida por todos los científicos, se establece una teoría central y se arriba a un nuevo período de ciencia normal. 18 19 20 21 “Modelo atómico de Niels Bohr” – página 37 y 38. “Experiencia de energía de ionización – página 38 y 39. “Conclusiones del modelo” – página 40. “Correcciones al modelo de Bohr: números cuánticos” – página 42. 51 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Bibliografía y Sitios WEB: § Ball David W (2004), Físicoquímica, México, Editorial Thomson Paraninfo S.A., primera edición (capítulo 9 y 11). o http://rabfis15.uco.es/Modelos%20At%c3%b3micos%20.NET/M odelos/MAtomicos.aspx o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv a_materia/curso/materiales/atomo/modelos.htm o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv a_materia/curso/materiales/atomo/mod_ruther.htm o http://concurso.cnice.mec.es/cnice2005/93_iniciacion_interactiv a_materia/curso/materiales/atomo/mod_bohr.htm o http://www.quimicaweb.net/grupo_trabajo_fyq3/tema4/index4.ht m o http://www.monografias.com/trabajos11/hisqui/hisqui.shtml o http://www.monografias.com/trabajos14/modeloatomico/modelo-atomico.shtml o http://www.monografias.com/trabajos34/instrumentallaboratorio/instrumental-laboratorio.shtml 52 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “TEORIA DEL FLOGISTO” Arreceigor, Verónica. Rodriguez, Cristina. 53 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRONOLOGÍA HISTÓRICA § Los primeros que se preguntaron sobre la composición de la materia fueron los filósofos griegos del año 600 a.C.Tales sugirió el agua, Anaximandro el aire y Heráclito el fuego. § En el año 445 a.C. Empedocles sugirió que los 4 elementos, Tierra, Agua, Aire y Fuego, eran necesarios para conformar la materia .Dentro de este sistema el proceso de combustión fue descrito como la lucha entre los 4 elementos y la victoria transitoria del fuego. § Años 384-322 a.C. Tiempos de Aristóteles, la teoría de los 4 elementos ya había sido suficientemente refinada de modo que cada elemento se asociaba con diferentes propiedades .La combustión se explicaba como la salida del elemento fuego cuya tendencia natural era la de ascender, dejando las cenizas o tierras abajo. Estas ideas se mantuvieron durante la Edad Media. § Las ideas griegas se incorporaron con profusión en la visión medieval del mundo y fueron asumidas especialmente por los alquimistas. Los alquimistas identificaron el vapor seco y el vapor húmedo, a los que ya se había referido Aristóteles, con el azufre y el mercurio respectivamente. Así se desarrollo la teoría de que todos los metales contienen mercurio y azufre. § Siglo VIII d.C. Javir Hayyan, el fundador de química islámica, atribuyo las diferencias entre los metales a las diferentes cantidades de azufre que contenían. Se considero al azufre como el principio inflamable y se lo utilizo como explicación adecuada para la combustión o calcinación de los metales. La combustión se ve como la emisión inflamable de azufre; esta seria la base de las ideas que se desarrollarían posteriormente. § La hipótesis de que algo se escapaba durante la combustión fue planteada por primera vez, en el año 1669, por el alemán J.J. Becher. Para Becher, los cuerpos estaban constituidos por 3 elementos: la 54 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 tierra, el agua y el aire. De estos tres elementos, el aire no podía participar en las reacciones y el agua tenía cualidades muy específicas. Por tanto, la multiplicidad de las sustancias existentes en la naturaleza se debía a las diferencias entre las distintas tierras: la vítrea, la grasa y la fluida. Según Becher durante la combustión se perdía el principio inflamable que era la tierra grasa o terra pinguis. § Esta concepción fue desarrollada, en 1731, por G.E.Stahl .Para Stahl la tierra grasa que se escapaba durante el proceso era el flogisto (del griego inflamable). Además las sustancias combustibles contenían flogisto y las sustancias no combustibles, por el contrario, carecían de flogisto o estaban desflogisticadas. Stahl fue un observador perspicaz y argumento que la calcinación de los metales seguía un proceso similar al de la combustión. Los metalúrgicos sabían desde hacia siglos que una manera de extraer metal de un mineral consistía en calentarlo con carbón vegetal. Se creía que el carbón aportaba el calor y que también protegía al metal para que no se quemara. Stahl reviso estos presupuestos y postulo que el carbón sumistraba el flogisto necesario para convertir el mineral en metal. § Su gran contribución fue relacionar la combustión con otros procesos como la fermentación o con la calcinación de los metales .Al calentar un metal como el hierro o el plomo se producía una sustancia de aspecto terroso y sin ninguna de las características metálicas (brillo, ductilidad, etc.) que se denominaba habitualmente cal metálica, que en la alquimia se denomina sal. Se conocía desde hacia tiempo que algunas de estas cales metálicas podían ser transformadas de nuevo en los metales de partida. Stahl explico este proceso suponiendo que los metales estaban formados por una y un principio inflamable que denomino flogisto, por lo que la calcinación , es decir, la formación de una cal , se podía explicar como un desprendimiento de flogisto .El proceso inverso ,la reducción de la cal a metal , se explicaba como una adición de flogisto 55 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 1) VAN HELMONT (1577-1644), médico belga, profundamente religioso y un gran investigador -es notable su investigación acerca del crecimiento de un pequeño sauce, que duró cinco años- que combate los cuatro elementos de ARISTOTELES, eliminando el fuego y la tierra, que inventa la palabra gas y al que debemos los estudios sobre el gas silvestre (gas carbónico); y LEMERY (1645-1715) que escribe su voluminoso Cours de Chymie en el que describe las distintas operaciones de la Química. Se debe a GEORG EMST STAHL (1660-1734), químico y médico alemán, la teoría del flogisto, que aunque falsa, tiene no obstante el mérito de ser la primera teoría capaz de coordinar el conjunto de los fenómenos esenciales de la combustión y de la reducción. STAHL basa su teoría en las ideas del alquimista alemán J. J. BECHER (1635-1682), el cual, al admitir el elemento terroso, el elemento combustible y el elemento metálico no hace más que desarrollar la vieja noción de los tres elementos cuyo origen debe buscarse en las «exhalaciones» de ARISTÓTELES; un claro ejemplo de la pervivencia de las ideas. La teoría del flogisto, conocida también como «sublime teoría», supone que toda sustancia combustible, tal como un metal, contiene un «principio inflamable», denominado posteriormente, flogisto; en la combustión se desprende el flogisto con acompañamiento de luz y calor y queda un residuo, la “ceniza” o “cal” del cuerpo combustible. Cuanto más inflamable es un cuerpo tanto más rico es en flogisto. El proceso de combustión puede expresarse en la forma simplificada siguiente: Metal (en la combustión) à Cal + Flogisto El principal interés de la teoría está en que explica el fenómeno inverso de la combustión, la reducción, pues si se calienta la cal (las cenizas metálicas) con una sustancia rica en flogisto, tal como el carbón, ésta cede su flogisto a la cal y el metal se revivifica. Esto es, abreviadamente, Cal + Carbón à Metal Así, por ejemplo, el plomo calentado en el aire se transforma en un compuesto amarillo, el litargirio; el plomo es litargirio más flogisto. El carbón, arde y casi no deja cenizas; es flogisto casi puro. Si se calienta litargirio con 56 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 carbón recupera la cantidad precisada de flogisto y se convierte de nuevo en plomo metálico. Varios metales tratados por diversos ácidos desprenden el mismo gas, el aire inflamable (nuestro hidrógeno), que era así considerado como el flogisto común a todos los metales. El negro de humo era imaginado como flogisto puro. Varias dificultades se presentaron a la teoría del flogisto. Se sabía, que al calcinar un metal y formarse su cal aumentaba el peso, esto es, la pérdida del flogisto era acompañada por un aumentó de peso, y también que el aire era necesario para la combustión. El primer hecho pudo explicarse mediante la hipótesis fantástica adicional de que el flogisto tenía un peso negativo, y el segundo al suponer que un medio era necesario para absorber el flogisto análogamente a como una esponja absorbe el agua, si bien no se comprendía la razón de que el aire residual ocupase un volumen menor que el aire primitivo. La teoría del flogisto, ejemplo claro del carácter provisional de las teorías científicas, pudo servir de guía a los grandes investigadores del siglo XVIII cuya labor experimental constituye la base de la Química como ciencia. Citaremos unos pocos nombres. 2) El químico inglés STEPHEN HALES (1667-1761) a principios del siglo XVIII, al recoger gases sobre el agua. M.W. LOMONOSSOFF (1711-1765), químico ruso, realiza experimentos sobre la calcinación de los metales en vasos cerrados, con empleo sistemático de la balanza; establece la constancia de la materia en los procesos naturales, atribuye la combustión a una combinación del cuerpo con el aire y explica las propiedades de los cuerpos a partir de la existencia de átomos y moléculas (1743). 3) JOSEPH BLACK, (1728-1799), profesor de química e investigador inglés, descubre el gas carbónico al que llamó «aire fijo» por ser fijado por la cal y el primer “aire artificial” identificado por los químicos. Sus estudios cuantitativos acerca de los carbonatos son modelo de lógica y unidad y 57 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 sirvieron para dar al mundo científico una idea clara de la naturaleza de la combinación química. RUTHERFORD (1749-1819) fue el descubridor del nitrógeno 4) T.OLAF BERGMANN (1734-1784), químico, matemático y mineralogista sueco, edifica las bases del análisis químico, reconoce el carácter ácido de una disolución de gas carbónico y tiene del aire una concepción exacta al considerarlo una mezcla de tres fluidos, el ácido aéreo (gas carbónico), el aire viciado (nitrógeno) y el aire puro (oxígeno). 5) KARL WILHELM SCHEELE (1742-1786), químico sueco, es el investigador más extraordinario de todos los tiempos. Sus experimentos con el dióxido de manganeso le llevan al descubrimiento del oxígeno (algo antes que PRIESTLEY, si bien lo publicó posteriormente) y del cloro -al que llamó «espíritu de sal desflogisticado»-; estudió el primero diversos ácidos como el fluorhídrico, tartárico, oxálico, cianhídrico y molíbdico, aisló el gas sulfhídrico y la arsenamina, e investigó la naturaleza de numerosos compuestos. El nombre de SCHEELE ha quedado unido al arsenito de cobre, que se conoce como verde de Scheele, y en el mineral scheelita (wolframato cálcico). En su Tratado elemental del Aire y del Fuego indica que el aire es una mezcla de dos gases distintos, el «aire ígneo» y «el aire viciado». 6) JOSEPH PRIESTLEY (1733-1804), teólogo unitario inglés, no fue químico de profesión, pero, hábil experimentador, desarrolló y perfeccionó la técnica de preparación, recogida y manipulación de los gases. Demostró que las plantas verdes convertían el aire respirado en aire respirable, preparó y estudió numerosos gases (cloruro de hidrógeno, amoníaco, dióxido de azufre, óxidos nítrico y nitroso, peróxido de nitrógeno, fosfamina, etileno, etc.'), investigó el nitrógeno, y en 1 de: agosto de 1774 al concentrar mediante una potente lente los rayos solares sobre el óxido mercúrico obtuvo el oxígeno, su mayor descubrimiento. Su tenaz adhesión a la teoría del flogisto le impidió progresar en la interpretación de sus valiosas investigaciones, y así designó el oxígeno como «aire desflogisticado». 7) Henry CAVENDISH (1731-1810), aristócrata inglés, dueño de una gran fortuna, dedicó toda su vida a la Química. Se ha dicho de él que fue «el más 58 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 rico de todos los sabios y el más sabio de todos los ricos». Fue el primero que utilizó la cuba de mercurio, y al hacer actuar el ácido sulfúrico. y el ácido clorhídrico sobre el hierro, el cinc y el estaño descubrió, en 1766, el hidrógeno, gas ya entrevisto por PARACELSO, al que llamó «aire inflamable». Al medir la densidad comprobó en cada caso que se trataba del mismo gas, y al quemarlo en el aire ordinario y en el oxígeno encontró, con sorpresa, que se formaba agua y que las proporciones en que dichos gases se combinaban eran de dos volúmenes de aire inflamable por un volumen de aire desflogisticado. La síntesis del agua realizada en 1781 constituye una fecha señalada en la historia de la Química. En su análisis del aire halló un 20,8% de oxígeno, valor muy próximo al verdadero, y sospechó la existencia del argón. Investigó también en el campo de la Física y fue el primero en determinar la densidad de la Tierra, encontrando el valor de 5,48, notablemente exacto. CAVENDISH, químico flogista, no supo comprender la importancia de sus investigaciones acerca de la síntesis del agua. 59 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL FLOGISTO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) FENÓMENO: § COMBUSTIÓN PROGRAMA DE INVESTIGACIÓN: § FLOGISTO NUCLEO FIRME: § SUSTANCIA QUE SE LIBERA CUANDO ARDEN LOS CUERPOS CINTURÓN PROTECTOR: § EL FLOGISTO POSEE LEVEDAD. § LA EMISION DE FLOGISTO INCREMENTA LA DENSIDAD DE UNA SUSTANCIA. § SE PRODUCE UN INCREMENTO O ADICION SECUNDARIA A PARTIR DEL AIRE A MEDIDA QUE EL FLOGISTO SALE. § LAS PARTICULAS DE FUEGO SON CAPACES DE ATRAVESAR LAS PAREDES DEL CRISTAL DE UN CONTENEDOR CALIENTE ADHIRIENDOSE A LA SUSTANCIA QUE ARDE. § LOS OBJETOS ARDEN MEJOR EN PRESENCIA DE AIRE DESFLOGISTICADO. 60 “De Demócrito a la Máquina de Dios” HEURÍSTICAS POSITIVAS DEL Alumnos ISFD35 PROGRAMA POSTULANDO LA EXISTENCIA DEL FLOGISTO § Permitió proponer una explicación razonable sobre la conversión de las menas minerales en metal, el primer gran descubrimiento químico del hombre civilizado. § En la década de los setenta era casi universalmente aceptada por los químicos, desde el momento en que parecía explicar tantas cosas y tan claramente. § Al principio del siglo XVIII, los químicos no cuestionaban que la combustión era la fuga de algo hacía el aire, esto se evidenciaba con la oscilación de las llamas. § Todas las sustancias combustibles contienen flogisto. § Las sustancias no combustible contienen poco o ningún flogisto como ocurre después del desflogisticación. § El éxito de la notable rapidez con que se aceptó y desarrolló la teoría del FLOGISTO, era que existía en el siglo XVII un vacío científico muy grande y el racionalismo tan en boga, necesitaba explicar una serie de hechos experimentales que aparentemente no se justificaban de otra manera. 61 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 HEURÍSTICAS NEGATIVAS DEL PROGRAMA POSTULANDO LA EXISTENCIA DEL FLOGISTO § La naturaleza misma del flogisto conducía a diferentes interpretac iones. § Robert Boy le había demostrado en 1672 que no s e podía realizar la combustión en el v ac ío. § El papel exc lus iv amente mec ánico que los stahlianos le atribuían al aire repres entaba un problema. § ¿Todos los tipos de aire jugaban el mis mo papel? § La princ ipal dificultad cons is tía en que los metales aumentaban de peso des pués de la c ombus tión o de la ¿calc inación? § ¿Cómo reconciliar el aumento de peso c on la liberac ión de algo durante la combustión? § Esta dificultad conducirá a Lavoisier a dudar de la teoría y a rec hazarla. § Para Boy le, son las partículas de fuego las que, al atravesar el rec ipiente penetrando por los poros, c aus an el aumento de peso. § Guyton de Morv eau, colaborador de Lavoisier, formulará al princ ipio una ex plicación del mismo tipo: “El flogis to es más ligero que el aire”, lo demues tra manifies tamente la c onfus ión que exis tía entre la densidad y el pes o. § Lavoisier relata sus experimentos s obre la combustión del azufre y del fós foro y demuestra que el aumento de peso de la materia s ólida se debe al hecho de que una c antidad de aire haya sido fijada por el sólido. § La reducción de la litargia (óx ido de plomo, PbO) en un rec ipiente cerrado, que permite el pas o de la c al metálica al metal, es tá ac ompañada por una liberac ión c ons iderable de aire. § La naturaleza de ese aire era desconoc ida y Lavoisier la lla maba “parte de aire que se fija”. 62 “De Demócrito a la Máquina de Dios” § Alumnos ISFD35 A base de medir s istemátic amente los pesos, con una precisión desconocida en la époc a (Lavoisier c ontaba con unas balanzas), demuestra que el aumento en el pes o del metal calcinado es igual al peso del aire absorbido y c onc luye que s olamente una parte del aire se puede combinar con los metales o s erv ir para la respiración. § El aire deja de ser un elemento. § Lavoisier: el aire “puro”, al que luego llamará “aire inminentemente res pirable”, más tarde “principio ox igeno”, y después oxígeno. § Esto último es una lástima, pues oxígeno significa “el que engendra ác idos”. § Lavoisier pensaba que todos los ác idos contienen oxígeno, lo cual dará origen a una terrible confus ión. § También, en 1774, el inglés Robert Priestley (1733-1804) obtendrá un gas insoluble en el agua que mantiene c on v iv ac idad la combustión al calentar óxido rojo de merc urio, HgO. § Cree reconoc er el N2O (protóx ido de nitrógeno), que había obtenido el año anterior al reaccionar NO2 con limadura de hierro. § Lo llamo “aire desflogisticado”, es decir, aire que puede aprisionar al flogis to de los cuerpos c ombus tibles . § Cas i en la mis ma época, otro químic o partidario del flogis to, Carl Wilhelm Scheele (1742-1786), aísla un gas que luego se llamara ox ígeno al desc omponer óxido de manganeso. § Sus experiencias no se public an hasta 1777, y en el los demues tra que el aire es tá c ompuesto de dos fracciones: el “aire corrupto” o “aire viciado”, y el aire “puro” o “aire de fuego”. § El oxígeno se desc ubre en 1774, pero no s e carac teriza. § Lavoisier retoma los experimentos de Priestley , balanza en mano, y calentando óxido de merc urio en pres enc ia de carbono. § Ahí descubre que una parte del gas formado es soluble en agua, el llamado “aire fijo”, CO2, y que la otra parte, ins oluble en agua, ac tiv a la combustión y es el mis mo gas que s irve para la c alc inación de los metales. 63 “De Demócrito a la Máquina de Dios” § Alumnos ISFD35 El gas que no es “aire fijo” mantiene mejor la c ombus tión que el aire atmos férico. § Que este gas es el res ponsable del aumento de pes o de los metales durante la calcinac ión. § Para Lavoisier, la combustión c ons is te en la absorc ión de un gas, llamado por Scheele, “aire de fuego”, por Pries tley, “aire desflogisticado” y por él mis mo “aire in minentemente res pirable”. 64 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA FORMULADA POR LAVOISIER, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) FENÓMENO: § COMBUSTIÓN PROGRAMA DE INVESTIGACION: § DESCUBRIMIENTO DEL O2 NUCLEO FIRME: § PRESENCIA DE O2 DURANTE LA COMBUSTION CINTURON PROTECTOR: § CUANDO EL CARBON VEGETAL ENTRA EN REACCIÓN CON UN ÓXIDO O MINERAL METÁLICO, EL CARBÓN REACCIONA CON LA PARTE EMINENTEMENTE RESPIRABLE DE LA ATMOSFERA PARA PRODUCIR AIRE FIJO. § NO TODOS LOS OXIDOS CONTIENEN O2. 65 “De Demócrito a la Máquina de Dios” HEURISTICAS POSITIVAS DEL Alumnos ISFD35 PROGRAMA POSTULANDO LA EXISTENCIA DEL O2 Dentro del nuevo esquema de Lavoisier, el agua podía interpretarse como un compuesto de aire inflamable y oxigeno .Para Lavoisier esto parecía quedar confirmado además por el hecho de que al hacer pasar vapor de agua a través de hierro caliente se producía la cal (oxido) y el gas inflamable (hidrogeno). En términos modernos: 4H2O+ 3FE•FE3O4 +4H2 Una ves que Lavoisier comprendió que el agua era un compuesto de hidrogeno y oxigeno, fue capaz de explicar convincentemente la producción del hidrogeno a partir del ataque de un metal por un acido. El hidrogeno procedía del agua en la solución acida. El proceso se explicaba mediante 2 fases: Metal + (hidrógeno • óxido + hidrogeno + Oxigeno) Oxido del metal + ácido • sal La composición del agua acabaría finalmente impulsando la teoría del oxigeno, porque, en ultima instancia, esta teoría resulto capaz de explicar la reacción entre metales y ácidos al menos también como lo hacia la teoría del flogisto. Además de esta nueva interpretación, a partir de esta teoría, se llego al reconocimiento de que la combustión, la calcinación y la respiración exigen consumo de o2. 66 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Otra cuestión fue el reconocimiento de la necesidad de realizar medidas precisas en química y el establecimiento de la conservación de la materia como parte esencial de un sistema químico. Una de las principales razones por las que la teoría del oxigeno acabo ganando la partida fue por su capacidad para dar cuenta de cada vez mas reacciones químicas, sin acumular supuestos arbitrarios e hipótesis ad hoc. HEURISTICAS NEGATIVAS DEL PROGRAMA POSTULANDO LA EXISTENCIA DEL O2 § Las ideas de Lavoisier no supusieron el final del flogisto en 1777, año en el que identifico, la importancia del oxigeno, debido a que la emisión de aire inflamable cuando los metales eran atacados por los ácidos era explicada mejor por medio de la teoría del flogisto que haciendo uso del nuevo esquema conceptual. § Cavendish, fue durante mucho tiempo partidario del flogisto. Conocía las ideas de Lavoisier pero no encontró diferencias sustanciales entre estás y las teoría del flogisto en su nueva versión. 67 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL FLOGISTO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN CIENCIA NORMAL La teoría de la combustión de Stahl establecía que cuanto más flogisto tenía una sustancia más combustible era. Así por ejemplo, un papel arde porque contiene flogisto, sin embargo sus cenizas desprovistas de dicha sustancia no pueden arder. En este esquema la combustión de una sustancia suponía la perdida de flogisto que se transfería al aire. Cuanto más flogisto tuviese una sustancia mejor ardía. La teoría del flogisto ganaba adeptos y hacia mediados del siglo XVIII era ampliamente aceptada por los químicos, sin embargo había una dificultad que tanto Stahl como sus discípulos no pudieron explicar. La combustión de la madera, con la subsiguiente perdida de flogisto, producía en cenizas de peso inferior a aquella; Sin embargo, la calcinación- hoy podríamos decir la oxidación-de los metales dando lugar a la formación de la correspondiente cal –que análogamente Stahl interpretaba como una perdida de flogistoresultaba en un aumento de peso. ¿Había entonces dos tipos de flogisto: el de la madera y sustancias afines cuyo peso era positivo y el de los metales cuyo peso era negativo? ENIGMAS Los enigmas son problemas que los científicos tratan de resolver, con la teoría vigente. Los enigmas que surgieron en el periodo donde se aceptaba la teoría del flogisto fueron que a través de múltiples observaciones y numerosos experimentos habían puesto de manifiesto que el aire era imprescindible 68 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 para la combustión y la oxidación, y que la llama de una vela se extinguía rápidamente en un espacio cerrado .Tales hechos, no fueron especialmente difíciles de incorporar a la vigente teoría del flogisto: el aire se veía como el receptor del flogisto que , cuando, se saturaba, acababa inhibiendo la posterior emisión de este e impedía la combustión .Por otra parte una, respuesta ingeniosa a la disminución del volumen del aire después de la combustión, consistía en afirmar que el flogisto que se escapaba dañaba la elasticidad del aire. Otro enigma fue explicar el aumento de peso que experimentan los metales cuando son quemados en el aire, Guyton lo explico manifestando que el flogisto poseía levedad. Si algo que posee esta capacidad sale de un objeto, el objeto debería hacerse mas pesado. En 1781 Cavendish hizo explotar una mezcla de hidrogeno y aire ordinario y observo dos hechos importantes: el primero fue que la “elasticidad” del aire se reducía; el segundo, fue que observo gotas de agua en el contenedor .Analizo las gotas y llego a la conclusión de que el agua era un compuesto de aire inflamable y aire desflogisticado. Otro de los enigmas fue explicar la emisión de hidrogeno producida durante el ataque de los metales por los ácidos. Cavendish propuso que se emitía el mismo peso de aire inflamable si se usaba acido clorhídrico o sulfúrico, entonces el aire inflamable, y no el acido, debía estar presente en el metal. Otro gran defensor de la teoría del flogisto fue Priesley que murió defendiendo esta teoría, antes de morir dejo una demostración que apoya su creencia: “Tan pronto como el minio (cal de plomo) se secaba por medio del calor al que se exponía, observe que primero se ponía negro y luego fluía como plomo perfecto, también constate que al mismo tiempo que el aire (inflamable) disminuya de manera importante, el agua ascendía dentro del recipiente…. no me cabía duda de que, en realidad, la cal estaba absorbiendo algo del aire , y el efecto generado era la conversión de la cal en metal; y por ello lo que se absorbía no podía ser otra cosa que aquello a lo que los químicos le habían dado el nombre de flogisto”. 69 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Las conclusiones de Priesley son: Cal de plomo + aire inflamable • plomo metálico (Flogisto) Más tarde Priesley reconocería la formación de agua durante el proceso, pero la relegaría a un mero producto secundario. ANOMALÍAS El punto de partida de la creación científica es la detección de anomalías. En algunos momentos determinados, los científicos advierten que la naturaleza viola las expectativas generadas por el paradigma que gobierna la ciencia normal. Por ejemplo, en el siglo XVIII el sueco Carl Wilhelm Scheele (17421786), el inglés Joseph Priestley (1733-1804) y el francés Antoine Laurent Lavoisier (1743-1794) advirtieron que los fenómenos de combustión no podían explicarse sosteniendo que las materias combustibles eran ricas en flogisto y que perdían esta substancia al arder, tal como establecía la teoría dominante de George Ernest Stahl (1660-1734). La anomalía fue resuelta cuando Lavoisier estableció claramente, siguiendo algunas sugerencias de Priestley, que en la combustión no se pierde flogisto sino que se gana una parte del aire, a saber, el oxígeno. Tal como señala I. Bernard Cohen, en Revolution in Science (1985), la ecuación ceniza + flogisto = metal fue sustituida por la nueva ecuación ceniza = metal + oxígeno. Este descubrimiento de una nueva teoría de la combustión permitió a Lavoisier reformular la química, produciendo un cambio de paradigma y, con ello, una revolución científica. 70 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRISIS En el siglo XVII con el desarrollo de la bomba de aire y otros numerosos artefactos neumáticos, los químicos llegaron a comprender, cada vez mejor, que el aire debía ser un ingrediente activo de las reacciones químicas. Pero con pocas excepciones, los químicos continuaron creyendo que el aire era el único tipo de gas. Hasta 1756, cuando Joseph Black demostró que el aire fijo (CO2) se distinguía claramente del aire normal, se creía que dos muestras de gas eran sólo diferentes por sus impurezas. Después del trabajo de Black, la investigación de los gases se llevó a cabo rápidamente, principalmente por Cavendish, Priestley y Scheele quienes juntos, desarrollaron una serie de técnicas nuevas, capaces de distinguir una muestra de gas de otra. Todos esos hombres, desde Black hasta Scheele, creían en la teoría del flogisto y la empleaban a menudo en el diseño y la interpretación de sus experimentos. En realidad, Scheele produjo oxígeno por primera vez, mediante una cadena compleja de experimentos destinados a deflogistizar el calor. Sin embargo, el resultado neto de sus experimentos fue una variedad de muestras de gases y de propiedades de estos tan complejas, que la teoría del flogisto resultó cada vez menos capaz de hacer frente a la experiencia de laboratorio. Aunque ninguno de esos químicos sugirió que era preciso reemplazar la teoría, fueron incapaces de aplicarla de manera consistente. Para cuando Lavoisier inició sus experimentos con el aire, durante los primeros años de la década de 1770, había casi tantas versiones de la teoría flogística como químicos neumáticos. Esta proliferación de versiones de una teoría es un síntoma muy usual de crisis. Lavoisier, estaba también muy interesado en explicar el aumento de peso qué experimentaba la mayoría de los cuerpos cuando se queman o se calientan. Si las reacciones químicas podían alterar el volumen, el color y la textura de los ingredientes, ¿por qué no podían modificar también el peso? No siempre se consideraba que el peso era la medida de la cantidad de materia; además, el aumento de peso mediante el calentamiento continuaba 71 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 siendo un fenómeno aislado. La mayoría de los cuerpos naturales (p. ej. la madera) pierden peso al ser calentados, como diría más tarde la teoría del flogisto. Sin embargo, durante el siglo XVIII, esas respuestas inicialmente adecuadas para el problema del aumento de peso se hicieron cada vez más difíciles de sostener. En parte debido a que la balanza se utilizaba cada vez más como instrumento ordinario de química y en parte porque el desarrollo de la química neumática hizo posible y conveniente retener los productos gaseosos de las reacciones, los químicos descubrieron muchos otros casos en los que el calentamiento iba acompañado por un aumento de peso. Pero si el problema del aumento de peso no condujo al rechazo, sí llevó a un número cada vez mayor de estudios especiales en los que dicho problema tenía una gran importancia. Como los problemas de la química neumática, los del aumento de peso estaban haciendo que resultara cada vez más difícil saber qué era la teoría del flogisto. Aunque todavía era creído y aceptado como instrumento de trabajo, un paradigma de la química del siglo XVIII estaba perdiendo gradualmente su status único. LA REVOLUCIÓN CIENTÍFICA La revolución científica comienza cuando un sistema de pensamiento se hace insostenible y da paso a un conjunto de ideas nuevas que establecen toda una disciplina sobre una nueva base. El principal detractor de la teoría del flogisto fue Lavoisier que a partir de sus experiencias y descubrimientos termino destronando al flogisto y dio paso al O2. Ciertas anomalías , como por ejemplo , la del químico francés Bayeu que se da cuenta de que al calentar la cal mercúrica se produce mercurio metálico y de que, a diferencia de otros óxidos, esto sucede en ausencia de carbón .Bayeu piensa que el aire que emana es “aire fijo” (CO2). Este hecho planteaba problemas a la vigente teoría del flogisto, ya que de acuerdo con ella, se pensaba que el carbón era imprescindible para suministrar el flogisto al oxido y convertirlo así en un metal. Pero en el año 1778 Lavoisier publica 72 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 que cuando el carbón vegetal entra en reacción con un oxido o mineral metálico no es el carbón el que suministra el flogisto, sino que el carbón reacciona con la parte eminentemente respirable de la atmósfera para producir aire fijo. Interpretación según la teoría del flogisto: Oxido + carbón (ø) • metal Interpretación de Lavoisier: Cal + carbón + aire eminentemente • metal + aire fijo respirable Otro de los descubrimientos que impulsaron la teoría del O2 fue conocer como estaba compuesta el agua. Dentro del nuevo esquema de Lavoisier el agua podía explicarse como un compuesto de aire inflamable y O2. De esta manera Lavoisier pudo explicar la producción del hidrogeno a partir del ataque de un metal por un acido. En esta revolución científica existieron además varias etapas y descubrimientos que llevaron al cambio de paradigma, entre ellas podemos enunciar las siguientes: § Mayor precisión en los métodos cuantitativos y aplicación de la ley de conservación de la masa para compensar las reacciones químicas. § La definición precisa de elemento químico, compuesto y mezcla. § El abandono de la idea de aire como elemento, la distinción entre diferentes tipos de aire o gases y la comprensión de que el aire podía participar y de hecho participa, en las reacciones químicas. 73 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 EXPERIENCIAS (1) Para VAN HELMONT, estas sustancias parecidas al aire, sin volumen ni forma determinados, eran algo semejante al «chaos» griego: la materia original, informe y desordenada, a partir de la cual (según la mitología griega) fue creado el universo. Van Helmont aplicó a los vapores el nombre de «chaos», que pronunciado con la fonética flamenca se convierte en gas. Este término se aplica todavía a las sustancias parecidas al aire. Van Helmont llamó al gas que obtuvo de la madera «gas silvestre» («gas de madera»). Era el que actualmente llamamos dióxido de carbono. El estudio de los gases, la forma más sencilla de materia, fue el primero que se prestó a las técnicas de medición precisa: sirvió de camino al mundo de la química moderna (2) HALE Los vapores formados como resultado de una reacción química pudieron conducirse, a través de un tubo, al interior de un recipiente que se había colocado lleno de agua y boca abajo en una jofaina con agua. El gas burbujeaba dentro del recipiente, desplazando el agua y forzándola a través del fondo abierto. Al final, Hales obtuvo un recipiente del gas o gases formados en la reacción. Hales mis mo no distinguió entre los diferentes gas es que preparó y confinó, ni tampoco es tudió sus propiedades, pero el s olo hecho de haber ideado una téc nic a sencilla para retenerlos era de la mayor i mportancia. (3) JOSEPH BLACK El químico escocés Joseph Black (1728-1799) dio otro importante paso adelante. 74 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 La tesis que le mereció una graduación en Medicina en 1754 trataba sobre un problema químico (era la época en que la medicina y la mineralogía estaban estrechamente interrelacionadas), y publicó sus resultados en 1756. Lo que hizo fue calentar fuertemente piedra caliza (carbonato cálcico). Este carbonato se descompuso, liberando un gas y dejando cal tras de sí. El gas liberado pudo recombinarse con el óxido de calcio para formar de nuevo carbonato cálcico. El gas (CO2) era idéntico al «gas silvestre» de Van Helmont, pero Black lo llamó «aire fijado», porque cabía combinarlo («fijarlo») de tal manera que formase parte de una sustancia sólida. Los descubrimientos de Black fueron importantes por varias razones. En primer lugar, mostró que el dióxido de carbono puede formarse calentando un mineral, lo mismo que quemando madera; de este modo se estableció una importante conexión entre los reinos animado e inanimado. En segundo lugar, demostró que las sustancias gaseosas no sólo son liberadas por los sólidos y líquidos, sino que pueden combinarse con ellos para producir cambios químicos. Este descubrimiento quitó a los gases mucho de su misterio y los presentó más bien como una variedad de materia que poseía propiedades en común (al menos químicamente) con los sólidos y líquidos más familiares. Por otro lado, Black demostró que cuando el óxido de calcio se abandona en el aire, vuelve lentamente a carbonato cálcico. De esto dedujo (correctamente) que hay pequeñas cantidades de dióxido de carbono en la atmósfera. 75 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 He aquí la primera indicac ión clara de que el aire no es una s us tancia simple y que, por lo tanto, pese a la concepción griega, no es un elemento según la definición de Boyle. Consiste en una mezcla de por lo menos dos sustancias diferentes, el aire ordinario y el dióxido de carbono. En 1772 el químico escoses Daniel Rutherford informó sobre los efectos de una vela encendida en in deposito cerrado. Al cabo de un rato, la vela se apaga y no se podía encender otra en ese depósito. En aquella época se sabía que las velas al arder producían bióxido de carbono, y que nada podía arder en este gas. Por lo tanto, se concluía que la vela encendida gastaba el aire y lo reemplazaba por dióxido de carbono. Rutherford concluyo que tenían un gas que era parte importante del aire, pero que no, era su totalidad, que no era bióxido de carbono pero que tampoco permitía que la vela ardiese. (3) BERGMAN des arrolló una teoría para explicar porque una sustancia reacc iona con otra, pero no con una tercera. Supuso la ex istenc ia de «afinidades» (es decir, atracc iones ) en divers o grado entre las s ustanc ias. Preparó esmeradamente unas tablas donde se registraban las diversas afinidades; es tas tablas fueron muy famosas en vida de él y aún v arias décadas después. 76 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 (4) SCHEELE Combus tión de hidrógeno en aire: ex perimento de Sc heele. El hidrógeno se genera en la botella A. Sumergida en la tina de agua caliente B. La flama arde en el interior del matraz inv ertido, D. El agua sube dentro del matraz. Obtención de aire empíreo de Scheele. (5) JOSEPH PRIESTLE La fermentación del grano produce dióxido de carbono, que Priestley podía así obtener en abundancia para sus experimentos. Recogiendo dióxido de carbono sobre agua, observó que una parte se disolvía y daba al agua un agradable sabor ácido. Era lo que en la actualidad llamamos «agua de soda». Y como sólo se necesita añadir esencia y azúcar para producir bebidas gaseosas, Priestley puede considerarse como el padre de la moderna industria de refrescos. Priestley empezó a estudiar otros gases a comienzos de la década 1770-1779. En esa época sólo se conocían tres gases diferentes: el aire mismo, el dióxido de carbono de Van Helmont y Black, y el hidrógeno de Cavendish. Rutherford añadiría el nitrógeno como cuarto gas. Priestley, por su parte, procedió a aislar y estudiar algunos otros gases. 77 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Su experiencia con el dióxido de carbono le había enseñado que los gases pueden ser solubles en agua y, para no perderlos en sus experimentos, intentó recogerlos sobre mercurio. Por este método logró recoger y estudiar gases como el óxido nitroso, amoníaco, cloruro de hidrógeno y dióxido de azufre (para darles sus nombres actuales), todos los cuales son demasiado solubles en agua para resistir el paso a su través. En 1774, el uso del mercurio en su trabajo con los gases dio lugar al descubrimiento más importante de Priesley. El mercurio cuando se calienta en el aire, forma un «calcinado» de color rojo ladrillo (que ahora llamamos óxido de mercurio). 78 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Priestley pus o algo de es te c alcinado en un tubo de ensayo y lo calentó con una lente que conc entraba los rayos del sol sobre él. El c alcinado se transformó de nuev o en mercurio, que aparecía como bolitas brillantes en la parte s uperior del tubo de ensayo. Ade más , la descompos ición liberaba un gas de propiedades muy extrañas . Los c ombus tibles ardían antes y con más brillo en ese gas que en el aire. Un rescoldo de madera introducido en un recipiente que contuviese dicho gas ardía con llama. Priestley trató de explic ar este fenómeno rec urriendo a la teoría del flogis to. Puesto que los objetos ardían tan fácilmente en este gas , tenían que s er capac es de liberar flogis to con extraordinaria facilidad. Así, Priestley llamó a es te nuevo gas «aire des flogisticado». Sin e mbargo, poc os años después fue rebautizado como ox ígeno, nombre que aún se c ons erv a. Realmente, el «aire des flogis tic ado» de Pries tley parecía s er el opuesto al «aire flogisticado» de Rutherford. Un ratón moría en este último, pero era particularmente activo y juguetón en el primero. Priestley probó a respirar algo de ese «aire desflogisticado», y se s intió «ligero y cómodo». (6) HENRY CAVENDISH En 1766, Henry Cavendish fue el primero en reconocer el hidrógeno gaseoso como una sustancia discreta, identificando el gas producido en la reacción metal - ácido como "aire inflamable" y descubriendo que la 79 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 combustión del gas generaba agua. Cavendish tropezó con el hidrógeno cuando experimentaba con ácidos y mercurio. Aunque asumió erróneamente que el hidrógeno era un componente liberado por el mercurio y no por el ácido, fue capaz de describir con precisión varias propiedades fundamentales del hidrógeno. Tradicionalmente, se considera a Cavendish el descubridor de este elemento. 80 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 BIBLIOGRAFÍA § Cartwright, John, Del flogisto al oxígeno, La Orotava, Tenerife, Fundación Canaria Orotava de Historia de la Ciencia. § E.H.Flichman y otros, (Edición, 1. Año de Publicación, 1998) Las raíces y los frutos. Eudeba Paginas Web § http://thales.cica.es/rd/Recursos/rd99/ed99-0314-01/portada.htm § http://aitri.blogspot.com/2007/09/la-teora-del-flogisto.html § http://www.cuentometro.com.ar/826.htm 81 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 82 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “TEORÍAS DEL CALOR” Godoy, Mercedes. Román, Giselle. 83 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRONOLOGIA HISTÓRICA PLATÒN: “TEORÍA DE LOS CUATRO ELEMENTOS” Tomaba al fuego como el elemento más sencillo (se asociaba al tetrahedro). El fuego tenía la capacidad de desarmar a los demás elementos. En la idea de Platón se ve un rasgo físico-matemático; plantea la conexión entre las propiedades materiales y las transformaciones de la materia con relaciones numéricas y geométricas. ALQUIMISTAS: CIENCIA DEL FUEGO; “El fuego cambia las cosas” El fuego y el calor asociado a él, transformaban las cosas. Se producían diluciones, dilataciones, fusiones, evaporaciones, etc. Se toma al calor como fuente de cambios. LAPLACE: (*3 ) Toma al calor como “fluido imponderable”. Se encuentra fuera de la sistematización matemática. Las manifestaciones del calor se deben a un fluido llamado calórico (Teoría del calórico) STAHL: (1967) “TEORÍA DEL FLOGISTO”: (*1) Postula que debería existir por un lado un fuego material que se manifiesta en la llama y el calor, en una combustión. Y por otro lado habría un fuego principio, un elemento imponderable e inasible que contenía los elementos susceptibles de arder. Este elemento, el flogisto, se liberaría por acción del calor sobre el cuerpo. Así, un metal estaría formado por flogisto y cal, bajo la acción del calor el flogisto se liberaba y quedaba la cal, considera que las cales son elementos y los metales, compuestos de cal y de flogisto. 84 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 * Fines del siglo XVIII LAVOISIER: (*4) “los metales son sustancias simples que por acción del fuego, se unen al oxígeno y forman óxidos.” Lavoisier piensa en el fuego desde una posición crítica al flogisto, desconfiando de su existencia. Le molesta que todo en química, se explique en términos de flogisto, cuando no había ningún instrumento capaz de recogerlo ni medirlo. Sin embargo, no luchará abiertamente contra él hasta 1783, cuando ya conoce la composición del agua y puede así, elaborar una teoría más completa sobre los elementos, prescindiendo finalmente del flogisto. Realiza una nueva teoría sobre el oxígeno, la cual lo lleva a rechazar al flogisto y a considerar que las cales son compuestos y los metales, elementos. Considera que en la reacción química que ocurre, los elementos se conservan, y esta conservación se detecta en base a una balanza. Es así que mediante este instrumento, comparó las relaciones estequiométricas que ocurrió en la reacción química de oxidación. • Principios del siglo XIX FOURIER: “Ley de transmisión del calor” Consideraba la transmisión del calor como irreversible; el flujo de calor entre dos cuerpos es directamente proporcional a la diferencia de temperatura entre ambos y sólo puede ir en un sólo sentido. Llegó a esta conclusión, luego de frotar en diferentes oportunidades, cuerpos a distintas temperaturas y comprobar la transferencia de calor entre ambos. 85 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 1824: CARNOT: (*2) Trataba de determinar la producción de energía mecánica a partir del calor en las máquinas. En la máquina de vapor, el calor fluía de una región de mayor temperatura (la caldera) a una región de menor temperatura (el condensador), generándose trabajo mecánico mediante el cilindro y el pistón en el proceso. Consideró que el rendimiento se debía a la diferencia de calor entre la caldera y el condensador. No consideró la pérdida de calor que ocurría en el proceso, esta consideración fue hecha por Clausius un tiempo después. Para obtener sus conclusiones, construyó la máquina de vapor que se propone en el siguiente esquema: Máquina de vapor: Calor Evaporación AGUA VAPOR Expansión TRABAJO Se extrae calor y se condensa Se bombea el agua Al final de la caldera MAYER: Su objetivo era determinar la relación existente entre el calor, la energía mecánica y la energía química. Observó: que la sangre venosa de sus pacientes era más roja en los trópicos que en las latitudes. 86 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Supuso: El exceso de oxígeno procedía de la disminución de combustión de alimentos como consecuencia de la menor demanda de calor corporal. Concluyó: calor, energía mecánica y energía química eran intercambiables. JOULE: (*5) “Teoría mecánica del calor”; Trabajo mecánico podía convertirse en calor Experiencia: utilizó pesas que al caer hacían girar paletas en el agua. El aumento de la temperatura del agua indicaba la cantidad de calor obtenido de las pesas. Energía eléctrica calor HELMHOLTZ (1847): Enuncia el primer principio de la termodinámica; la energía total del universo es constante y sólo puede haber conversiones de formas de energía. 87 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL CALÓRICO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) Al considerar las ideas relacionadas al calor de Platón y los Alquimistas, puede destacarse que el núcleo central de la teoría es el fuego. No existían experiencias precisas, ya que se basaban en la observación de la naturaleza. De Platón y los Alquimistas a la llegada del flogisto (*1), se produjo una modificación- evolución del programa de investigación, ya que como se menciona con anterioridad, en primer lugar sólo existe la observación de la naturaleza, mientras que la metodología de la teoría del flogisto, se incluyen métodos de experimentación con instrumental específico (por ejemplo, el uso de balanzas para determinar las relaciones estequiométricas). Al llegar a la idea del flogisto, se amplía la teoría, agregándose una hipótesis ad hoc, sin modificar su núcleo central. Es decir, se modificó algo del resto para que el programa de investigación científica siga funcionando. Ante la falsación de que los residuos de materia pesaban más que las materias originales, mediante la intervención del fuego y el calor (atribuido al flogisto) se modificó algo que no fue la parte del núcleo central del programa para que éste pueda predecir lo observado y de esta forma desaparezca la falsación. El cinturón protector del programa fue la hipótesis de la existencia del flogisto. Se produjo un proceso de heurística negativa del programa, que modificó un enunciado de la teoría con el fin que desaparezca la falsación, pero conduciendo a la formación del enunciado que compone el cinturón protector, impidiendo modificar el núcleo central. *1: Teoría del flogisto, pág 1-2 88 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Lavoisier, produce la falsación de la teoría del flogisto (véase pág 2, experiencia de Lavoisier) y se realiza una nueva modificación del cinturón protector de la teoría central, esta vez, para negar por completo la existencia del flogisto. A partir de aquí, se agregan distintas hipótesis ad hoc que tienden a explicar fenómenos auxiliares al núcleo central de la teoría (como la forma de transmisión del calor, la relación entre calor y trabajo, la relación entre trabajo y la energía mecánica y química, etc) En Carnot (*2) puede verse un cambio de metodología, ya que cambia la forma de realizar las experiencias en cuanto al uso de instrumental específico y moderno, además de tomar en cuenta la aparición de la física calórica. (*2) experiencia de Carnot, pag. 2-3 89 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL CALÓRICO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN Al analizar el principio de las ideas del calor, se evidencia un primer paradigma. En este período de ciencia normal, se obtiene el conocimiento a partir de la observación pasiva; es decir, se observa solamente lo que la naturaleza muestra. No se fuerzan situaciones que la naturaleza aún no mostró. En síntesis, no se confeccionan experimentos sobre situaciones posibles pero nuevas. No se llega a una observación experimental. La hipótesis que planteaba este paradigma era que: “el fuego es un elemento sencillo que cambiaba las cosas”. Al tomar al calor como fluido, surgen una serie de refutaciones a la sencilla teoría planteada en el primer paradigma. En primer lugar se trató de explicar al calor en base a teorías matemáticas; Laplace (*3) desarrolló una teoría matemática de las fuerzas intercospusculares, para aplicarse a fenómenos térmicos. Sin embargo, el calor no podía ser explicado en base a consideraciones mecánicas; se suponía su existencia como “fluido imponderable” que estaba fuera de las consideraciones matemáticas. La influencia del método Newtoniano hizo que se renunciase a explicar la naturaleza de estos fluidos. A partir de aquí se diferencia el método de observación, pasando a ser éste, experimental. El elemento fuego de la cosmología clásica y el calor, ese fluido imponderable, eran difíciles de encajar en la nueva física. Para intentar solucionar esto, el médico alemán George Stahl (*1) planteó en 1967 su teoría del flogisto: por un lado habría un fuego material que se manifiesta en la llama y en el calor, cuando hay una combustión, y por otro habría un fuego- principio, un elemento imponderable e inasible que contendrían todos los compuestos susceptibles de arder. (*3) ideas de Laplace; pag 1; (*1) Teoría del flogisto, pág 1-2 90 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Este elemento, el flogisto, se liberaría por acción del calor sobre el cuerpo. Así, un metal estaría formado por flogisto y una tierra o cal; bajo la acción del calor o del fuego el flogisto se liberaba y quedaba la cal (óxido). En esencia, era la vieja doctrina de que las cosas tienen cuerpo y espíritu, que podrían separarse por procedimientos pirotécnicos. Curiosamente, los residuos de materia o “cuerpos muertos” pesaban más que las materias originales; la explicación se daba suponiendo que los “espíritus” tenían peso negativo. Stahl determina la no coincidencia del resultado experimental con lo que indica la consecuencia deducida a partir de la hipótesis planteada por la teoría del primer paradigma. Este problema surgido, puede se llamado por Kuhn, enigma. Y ya que no se puede resolver por el paradigma vigente, constituye una anomalía. La existencia de estas anomalías motivó la desconfianza de este científico respecto de la teoría que se había utilizado hasta ese momento. Algo no funcionaba como la teoría indicaba y los cambios necesarios no eran pequeños. Este hecho que puso en duda lo establecido hasta el momento, plantea la posibilidad de revisión de los fundamentos aceptados y comienza una crisis científica. La teoría del flogisto, constituye un segundo paradigma en la evolución de la teoría calórica según Kuhn. Previo a la teoría del flogisto, el científico Scheele considera que las cales son elementos y los metales, compuestos de cal y de flogisto; pero lo hace de manera innovadora, puesto que a partir de numerosos experimentos, concluye que el aire y el fuego no son elementos. Lavoisier (*4) lo hace en el marco de su nueva teoría sobre el oxígeno, que pronto lo lleva a rechazar el flogisto y que considera que las cales son compuestos y los metales, elementos. Ambos científicos consideran que el calor es una sustancia, pero para Lavoisier es una sustancia simple y para Scheele, una sustancia compuesta. Para Scheele: cal de mercurio y calor forman mercurio y aire de fuego. El calor es, por tanto, un compuesto de aire de fuego y flogisto; la 91 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 reacción consiste en la unión del flogisto y la cal para formar el metal mercurio, quedando libre el aire vital. (*4) ideas de Lavoisier; pág 2 Para Lavoisier, la cal esta formada de metal y de la base oxígeno. Al calentarla, el calor se une a la base oxígeno y forma oxígeno gas, dejando el mercurio libre. Como vemos, los dos científicos representan la reacción de una manera muy similar. Para ambos los elementos se conservan y esta conservación debería destacarse mediante la balanza. Pero una lectura detallada de la obra escrita de ambos científicos nos muestra que difieren en la manera de representarse su acción y, también, en sus objetivos. Scheele quiere saber que es el fuego y su relación con el aire. Actúa sobre los fenómenos que estudia según el estilo propio de la química: analiza lo que tiene antes y después de la reacción, reconoce las sustancias nuevas, hace inferencias respecto a la composición y a las propiedades de los cuerpos. Lavoisier, en cambio, se pregunta sobre los aires y sobre la causa de su elasticidad, que reacciona con el calor que supuestamente es uno de sus componentes. Actúa sobre los fenómenos utilizando instrumentos que permiten cuantificar y según un estilo propio de su profesión de gestor, haciendo balances cuantitativos que recuerden el debe y el haber de los libros contables. En este momento se evidencia una nueva crisis, ya que la teoría del flogisto no puede explicar varios problemas. Lavoisier se vuelve crítico en cuanto a la teoría en cuestión, en este momento comienza un nuevo proceso de revolución científica. La experiencia realizada por Lavoisier constituye una práctica científica extraordinaria. Los métodos experimentales utilizados por Scheele se consideran inadecuados y las suposiciones más básicas se cuestionan. (*4) ideas de Lavoisier 92 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Se da a lugar a una etapa de crisis que lleva a una nueva revolución científica donde se revisan todos los supuestos que se tenían en la etapa de ciencia normal anterior. La cosmovisión compartida por todos los científicos en el segundo paradigma entra en crisis. Puede verse, una dificultad de comunicación ocasionada por la diferencias de opiniones entre ambos científicos; como consecuencia del hecho reconstruido desde ambas perspectivas es muy diferente el tipo de lenguaje. Ambos científicos podrían comunicarse, puesto que están viviendo en la misma época y ambos participan de culturas semejantes; pero para ello hace falta voluntad de ponerse en la piel del otro. En el escrito de Lavoisier ocurre lo contrario: la obra de Scheele es juzgada desde una perspectiva que no le corresponde y de ella se critica todo lo que difiere sin hablar de sus otras posibles aportaciones. No se puede evitar pensar que la crítica no se ha elaborado para informar a la academia sobre un texto de un químico notable, sino solo para destacar la obra propia. Scheele en cambio, fue sensible a la crítica de Lavoisier y se mostró dispuesto a revisar sus ideas. Su muerte prematura le impidió participar plenamente en el debate sobre el flogisto. La propuesta de Lavoisier cambia algunos de los supuestos aceptados en el período anterior y explica lo que aquello no pudo explicar. La comunidad científica se inclina a favor de este nuevo paradigma y comienza a trabajar de acuerdo a los nuevos supuestos, la revolución científica ha terminado y comienza un nuevo período de ciencia normal. Puede decirse que hasta esta época, las innovaciones técnicas introducidas en la ingeniería y en la industria en general, no dependieron gran cosa del contenido de la ciencia hasta entonces conocido. Persistía aquella distinción entre técnicos y filósofos, entre ingenieros y hombres de ciencia. El desarrollo de la máquina de vapor, que supuso el inicio de la era 93 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 industrial fue realizado por técnicos, al margen de los científicos contemporáneos. Algo empieza a cambiar: los ingenieros franceses se ocupaban primordialmente de la conexión entre los efectos térmicos y mecánicos. En 1824 Sadi Carnot (*2), un ingeniero militar francés, publicó sus “reflexiones sobre potencia motriz del fuego” en la que trataba de analizarlos factores determinantes de la producción de energía mecánica apartir del calor en la máquina de vapor y en las máquinas en general. Carnot hizo notar que en la máquina de vapor el calor fluía desde una región de alta temperatura a una de baja temperatura, generándose trabajo mecánico mediante el cilindro y el pistón durante el proceso. Carnot consideraba que la máquina de vapor era análoga a otro motor primitivo, la rueda hidráulica: “podemos comparar exactamente la potencia motriz del calor con la caída del agua. La fuerza motriz de una caída de agua depende de la altura y de la cantidad de fluido; la fuerza motriz del calor depende de la cantidad de calórico empleado y lo que podemos llamar su altura de caída, es decir, la diferencia de temperatura entre caldera y condensador”. Carnot, equivocadamente, creía que no se perdía ningún calor en el proceso, aunque acertó en la consideración de que el rendimiento de una máquina sólo dependía de las temperaturas de los focos. Su aportación inició el pasaje de información entre científicos y técnicos, que caracterizaría al siglo XIX. Entramos ahora en una época en la que se afirma el concepto de energía, inexistente en todo el desarrollo newtoniano. Mayer, un médico naval alemán, observó que la sangre venosa de sus pacientes era más roja en los trópicos que en las latitudes. Supuso que este exceso de oxígeno procedía de la disminución de combustión de alimentos como consecuencia de la menor demanda de calor corporal. (*2) experiencia de Carnot; pág 2 94 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 El fenómeno parecía apoyar la opinión de que el calor del cuerpo y la energía mecánica de los músculos provenía de la energía química de los alimentos. Concluyó que calor, energía mecánica y energía química eran intercambiables. Este trabajo fue reconocido cuando Joule (*5) demostró que el trabajo mecánico podía convertirse en calor; también comprobó que la energía eléctrica podía convertirse en calor, y viceversa. Esto aportó pruebas definitivas a cerca de la conversión de una forma de energía en otra. Correspondió a Helmholtz, otro médico alemán, establecer en 1847 de forma explícita lo que más tarde se llamaría primer principio de la termodinámica: “la energía total del universo es constante, y solo puede haber conversiones de una forma de energía en otras”. En 1850 la ley de la conservación de la energía proporcionó un nuevo marco a la teoría física, basado en la concepción mecánica de la naturaleza, que rechazaba la existencia de formas anómalas de materia (fluidos imponderables) y suponía que las partículas en movimiento de la materia ordinaria debían ser consideradas la base de cualquier planeamiento teórico. Los problemas físicos de la ley, el calor y el trabajo, eran conceptualizados de modo que se les hacía susceptibles de análisis matemático, y de esa manera se impulsaba la unidad de la física. La entrada del calor en la física matemática hizo que, desde mediados del siglo XIX se desarrollase un gran interés de las medidas precisas del calor involucrado en diferentes tipos de procesos. Surge así, la calorimetría, impulsada por la exigencia del conocimiento de las propiedades térmicas de los materiales empleados en las máquinas térmicas. Regnaul, por encargo del gobierno francés, desarrolló una serie de técnicas calorimétricas para estudiar las propiedades del agua, y otras sustancias de interés ingenieril. El desarrollo de la termoquímica supuso otro gran impulso a la ciencia de medida del calor. (*5) experiencia de Joule; pág 4 95 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 En la segunda mitad del sigo XX, los avances de nuevos materiales, la electrónica y la informática supusieron el perfeccionamiento de los métodos existentes y el desarrollo de otros más amplios, precisos y fáciles de utilizar. Este último cambio de paradigma se debe básicamente a la modificación de las técnicas y métodos de experimentación utilizados por los científicos mencionados en la evolución del concepto de calorimetría. El hecho de que se relacione el calor con disciplinas como la mecánica y la química, determinó un avance dentro de la ciencia. Esta hipótesis sigue vigente en las leyes de la termodinámica y constituye un período de ciencia normal al que llamaremos nuevo paradigma. Este determina los mecanismos de acción en la búsqueda de las experiencias, los tipos de soluciones y el planteo de problemas a resolver y encarar. Se respetan pautas que guían el desarrollo e la ciencia, siguiendo el paradigma vigente. Todo el desarrollo visto dentro de este paradigma constituye la deducción de hipótesis auxiliares dado que expresa principios que ya estaban contenidos en las premisas centrales; no se generan novedades inesperadas, sino que se fortalece el paradigma. (*5) experiencia de Joule; pág 4 96 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 BIBLIOGRAFÍA § EDMINISTER, Joseph; (1977); Termodinámica; México; Libros McGraw-Hill § MERCE, izquierdo (1989); Revista Alambique ; España § SANDFOI, John; (1987) Máquinas Térmicas; Buenos Aires; Editorial universitaria de Buenos Aires 97 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 98 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “TEORÍA DEL ÉTER” Bañon, Paula L. Galletta, Andrea F. Kaliski, María Helena 99 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRONOLOGÍA HISTÓRICA Como sustancia, el Éter ya era postulado en épocas presocráticas (antes del siglo V de nuestra era), como uno de los cinco elementos de la naturaleza: tierra, agua, fuego, aire, Éter. En las creencias griegas el Éter era una sustancia brillante que respiraban los dioses, en contraste con el pesado aire que respiran los mortales. TALES DE MILETO (624-547 a.C) Fue el primer filósofo griego que intentó dar una explicación física del Universo, para él todo nacía del agua, la cual era el elemento básico del que estaban hechas todas las cosas, pues se constituye en vapor, que es aire, nubes y Éter. PARMÉNIDES (SigloV a.C) Concibió el modelo de los cascarones esféricos rodeando a una tierra central y estática. La capa más alejada denominado Olimpos, seguido por una capa formada por un elemento sutil: el Éter. DEMÓCRITO (460-370 a.C.) Investigaba sobre los fenómenos lumínicos. La luz consiste en un choro sucesivo de partículas. ARISTÓTELES (384-322 a.C.) El éter era el elemento material del que estaba compuesto el llamado mundo supralunar, mientras que el mundo sublunar está formado por los famosos cuatro elementos: tierra, agua, aire y fuego. 100 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 A diferencia de éstos, el éter es para Aristóteles un elemento más sutil y más ligero, más perfecto que los otros cuatro. HERÓN (20- 62 a.C.) y PTOLOMEO (90- 168) estudiaban los fenómenos de propagación de la luz como la refracción y reflexión. ABU ALI AL-HASSAN IBN AL HAYTTHAM (965- 1040) Considera que los rayos luminosos se propagan en línea recta desde el objeto hasta los ojos. También estudiaba los fenómenos de propagación de la luz como la refracción y reflexión. SNELL (1591- 1626) Formula la ley de la refracción. DESCARTES (1596- 1650) Publica la ley de Snell. FERMANT (1601-1665) Se opone a la teoría corpuscular y sostiene que la luz se transmite en un medio etéreo. GRIMALDI (1618- 1665) Sostiene que la luz es un movimiento ondulatorio. 101 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 HOOKE (1635-1703) Mediante el estudio del fenómeno de interferencia de la luz demuestra lo postulado por Grimaldi. NEWTON (1642- 1727) Teoría corpuscular: supone que la luz está formada por partículas materiales, que llamó corpúsculos que son lanzados gran velocidad por los cuerpos emisores de luz. Permite explicar fenómenos como - La propagación rectilínea de la luz en el medio. - La reflexión - La refracción HUYGENS (1629- 1695) El mayor logro de Huygens fue el desarrollo de la teoría ondulatoria de la luz, descrita ampliamente en el Traité de la lumière (1690), y que permitía explicar los fenómenos de la reflexión y refracción de la luz mejor que la teoría corpuscular de Newton. Sin embargo la autoridad intelectual de Newton hizo que su postura prevaleciera sobre la teoría ondulatoria de la luz hasta muchos años después de su muerte. YOUNG (1772- 1829) Mediante la experiencia de la doble rendija identificó el fenómeno de difracción de la luz y en 1800 se establece la Teoría ondulatoria de la luz, ya que los resultados no podían explicarse mediante la teoría corpuscular. 102 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 FRESNEL (1788- 1827) Demostró que el movimiento ondulatorio de la luz es transversal. FIZEAU (1819-1896) Calculó la velocidad de la luz en el aire (1849) La aceptación de la teoría ondulatoria de la luz llevaba consigo la aceptación de un medio material que soportara dichas ondas y que llenara todo el espacio: el Éter. Las vibraciones transversales solo pueden propagarse mediante sustancias sólidas, por lo que era difícil imaginar un éter lo suficientemente sólido y rígido para que permitiera las ondas transversales y a su vez que posibilitase el movimiento de los cuerpos celestes inmersos en el Éter. Por otra parte ésta hipótesis del Éter sugería que la velocidad de la luz que midiera un observador en movimiento respecto al éter debería verse afectada por ese movimiento. MICHELSON Y MORLEY En 1887 realizaron un experimento con el que esperaba encontrar una variación de la velocidad de la luz debido a la variación del movimiento de la tierra respecto al Éter. Lo que encontraron fue que la velocidad de la luz era la misma en todas las experiencias realizadas. Ésta experiencia demostraba la constancia de la velocidad de la luz en todas direcciones independientemente del estado de movimiento del receptor y ponía en tela de juicio la hipótesis del Éter; por lo tanto ésta cae y se asume la idea de que en el espacio interestelar hay vacío total. 103 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ALBERT EINSTEIN A pesar que en un principio basó sus teorías en un Éter gravitacional, responsable de la gravedad y los efectos físicos, en 1905 abandonó esta idea, y basó su teoría de la relatividad en la idea de que la luz puede propagarse en el vacío libre de Éter. Sus trabajos han favorecido la investigación de la antigravedad o materia oscura, una energía invisible que “empuja” al universo en expansión. MILLER En 1930 demostró que el éter es un fenómeno real que interactúa sutilmente con la materia. Los descubrimientos de Miller resultaban incómodos para la ciencia: no se podía refutar, pero eran imposibles de admitir ya que socavaban la teoría de la relatividad. REICH A partir de la investigación de Miller entre 1940 y 1950 documentó la existencia de una nueva y única forma de energía que denominó Orgón con propiedades similares al éter de Miller. La energía orgánica es el medio de transmisión de las ondas electromagnéticas y juega un papel fundamental en la dinámica planetaria. HIGGS Propone la existencia del campo de Higgs, que pernearía todo el universo y que estaría formado por una partícula cuya existencia aun no ha sido probada directamente: el bosón de Higgs, que fue predicho por primera vez en 1960 y cuyo efecto sería que las partículas se comportaran como dotadas de masa debido a la interacción con partículas elementales y consigo 104 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 mismo. De esta forma ésta partícula es el peldaño más pequeño de materia que podemos encontrar. La materia oscura, según la hipótesis original, es una masa necesaria para mantener unidas las galaxias que giran rápidamente. Ésta materia la constituye una partícula todavía no identificada que prácticamente no interaccionas ni con la luz ni con la materia normal. Por otra parte, la energía oscura es necesaria para explicar la recientemente descubierta aceleración de la expansión del universo. Supuestamente existe en todo el espacio y ejerce una presión que contrarresta la gravedad. ZHAO Unifica la materia oscura y la energía oscura proponiendo la existencia de un fluido oscuro el cual podía expandirse pero también condensarse alrededor de las galaxias para ayudar a mantenerlas unidas. Según Zhao el fluido nos rodea pero no afecta al movimiento de la Tierra ni de los otros planetas, pero si afecta la velocidad a la que pueden rotar las galaxias. Estado actual (2008) Se espera que el Gran Colisionador de Hadrones (LCH o “Maquina de Dios”) compruebe la hipótesis de Higgs, haciendo colisionar haces de partículas relativamente pesadas (protones) y a partir de esos choques se produciría una lluvia de nuevas partículas de energía extremadamente alta. Entre ellas quizás se encuentren algunas cuya existencia no halla sido comprobada, como por ejemplo la tan buscada partícula o bosón de Higgs. El nombre de la máquina hace referencia a los Hadrones porque los protones que entran en choque son un tipo de Hadrón. 105 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA EVOLUCIÓN HISTÓRICA DE LA TEORÍA DEL “ETER”, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) Metodología de los programas de investigación científica. La sucesión de teorías constituye un programa de investigación, el cual está compuesto por un núcleo central y un cinturón protector del programai (que es el conjunto de enunciados que se pueden modificar). Puede ocurrir que las predicciones no coincidan con lo observado y esto puede deberse a que no existen técnicas de observación adecuadas para poder apreciar ciertos fenómenosii; o que se esté ante una falsación. Si sucede esto la teoría no es desechada, sino que se modifica dentro de la teoría algún elemento. Se busca modificar algo que no sea parte del núcleo central (ya que de esta forma se estaría abandonando la teoría), sino algo del resto para que el programa siga funcionando, es decir, se intenta modificar el cinturón protector del programaiii. Cuando un científico modifica el cinturón protector del programa, para mantener a este en caso de una falsación, está realizando una heurística negativa del programa. Busca, con este proceso, que desaparezca la falsación modificando algún enunciado de la teoría pero sin alterar el núcleo centraliv. Por el contrario, un programa de investigación puede evolucionar, a través de modificaciones en el cinturón protector, sin que exista una falsación previa. Esta es una tarea habitual de científico, agregar nuevas hipótesis que permiten profundizar o explicar fenómenos hasta el momento no explicados. De este modo se procede según una heurística positiva del programa v. 106 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 En el caso de que un programa incorpore nuevas hipótesis para evitar falsaciones pero los fenómenos predichos no ocurren, el programa se ha tornado degenerativovi. En cambio, si al agregar una hipótesis en un programa de investigación, este permite descubrir nuevos fenómenos, el programa es progresivo. Cuando un programa se torna degenerativo y además aparece un programa progresivo que pueda reemplazarlo, el primero es dejado de ladovii. 107 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Notas aclaratorias 2 Por ejemplo cuando Hooke (1635 - 1703) propuso que la luz era un movimiento vibratorio del medio (el Éter), pero al no poder observarlo se instala luego (junto a Newton) la teoría corpuscular de la luz; más tarde con Young (1773 - 1829) se comprueba el fenómeno de difracción (con el experimento de la doble rendija) y se establece la teoría ondulatoria. 3- 4 Una vez aceptada la teoría ondulatoria de la luz, se acepta la teoría del Éter, ya que las ondas necesitan de un medio en el cual se puedan propagar. Sin embargo, las vibraciones transversales (como la de la luz) sólo ocurren en medios sólidos y si el Éter fuera sólido impediría el movimiento de los cuerpos celestes. Entonces se buscó investigar al Éter para descubrir sus propiedades y aceptar que era lo suficientemente sólido para transmitir ondas pero blando y “etéreo” para que los cuerpos celestes se puedan mover. 5 Fresnel (1788 - 1853) defensor de la teoría ondulatoria, demostró que el movimiento de la luz no era longitudinal (como el sonido), sino transversal. Foucault (1819 - 1868) demostró que la velocidad de la luz en el agua es menor que en el aire. Actualmente “la maquina de Dios” busca encontrar la partícula no identificada para fortalecer la teoría de la materia oscura. 6 Michelson y Morley, en 1887 buscaron, mediante experiencias, encontrar las propiedades del Éter. Entre otras buscaban determinar la propiedad que permitiera explicar que el Éter es sólido y blando a la vez, de manera tal, que permite propagar las ondas transversales y permite también el movimiento de los cuerpos celestes. Los resultados obtenidos no eran los esperados y no hubo más remedio que descartar la teoría del Éter. 7 A partir de los resultados de las experiencias de Michelson y Morley, se dejó de lado la teoría del Éter y también la naturaleza ondulatoria de la luz. Entonces cobra importancia la naturaleza corpuscular de la luz y se instala la teoría del vacío total en el universo. Sin embargo era innegable la naturaleza ondulatoria de la luz, ya que habían muchas experiencias que la demostraban. Surgió entonces, la teoría electromagnética y la naturaleza dual de la luz. 108 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Luego se sostuvo que el vacío total no existe y que el universo está inmerso en alguna “sustancia” dotada de cualidades físicas. Desde 1933 se habla de materia y energía oscura para referirse a esta sustancia. Actualmente Zhao propone unificar la materia oscura con la energía oscura en el “fluido oscuro”. Se están realizando experimentos para hallar consecuencias observacionales que permitan corroborar esta hipótesis y adoptar así un nuevo programa de investigación. Aunque a su vez otra corriente de científicos está realizando pruebas para confirmar la existencia de la materia oscura. Programa de investigación Núcleo Central Cinturón protector § Éter luminífero En el espacio interestelar hay presencia de Éter liminífero § § § § § Vacío Total En el espacio interestelar hay Vacío total § § § § § § Materia oscura En el espacio interestelar hay Materia oscura (o masa invisible) § § § § § La luz es una onda y necesita de un medio para propagarse. Reflexión, refracción e interferencia. Velocidad de la luz (en Éter mas lento que en aire) Propagación de la luz: ondas transversales. Viento del Éter Teoría corpuscular de la luz. Teoría de la relatividad. La velocidad de la luz es constante. Propagación de la luz en el vacío. Es una masa oscura que sirve para mantener unidas las galaxias. Esta formada por una partícula no identificada que no interacciona con la luz ni con la materia (WIMP o Bosón de Higgs). Energía que empuja la expansión del universo. Presión que contrarresta la gravedad. La energía oscura es similar a un fluido, con alta densidad se comporta como materia. Teoría de la relatividad Fluido oscuro no afecta el movimiento de los planetas, pero si el de las galaxias Las galaxias se alejan entre sí, cada vez más rápido. 109 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA EVOLUCIÓN HISTORICA DE LA TEORÍA DEL “ÉTER”, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR KHUN Sostiene que los alcances científicos se producen en períodos de revolución científica, en el que las anomalías de los períodos de ciencia normal se han vuelto insostenibles y es necesario cambiar de paradigma. Un paradigma es una realización científica universalmente reconocida que, durante cierto tiempo, proporciona modelos de problemas y soluciones a una comunidad científica. Kuhn describe el desarrollo de la ciencia a través del tiempo y las actividades que realizan los científicos en distintas etapas. 1- Pre-ciencia: es una etapa en la cual se sostienen distintas teorías que compiten entre sí, para explicar los mismos hechos vii. Cuando una de las teorías triunfe sobre las otras, ya que es capaz de explicar más fenómenos o de manera mas acertada, comenzará la etapa siguientevii. 2- Ciencia Normal: un grupo de científicos comparten un paradigma y examinan la realidad a través de él, resolviendo los problemas principales que se le presentanvii. Cuando un problema se puede resolver recibe el nombre de enigmavii, en caso contrario se le denomina anomalía. Cuando una anomalía es sustancial, es decir que no puede obviarse porque contradice al paradigma dominante, se dice que éste entró en crisis vii, también ocurre esto cuando una teoría ha acumulado muchas anomalías. 110 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Las anomalías pueden surgir por fallas al articularse la teoría con las hipótesis auxiliares o con las demás teorías. Si esto no ocurre la teoría gana credibilidad. 3- Crisis: momento en el cual los científicos dudan de algunos puntos de la teoría y plantean la revisión de estosvii. 4- Revolución científica: la anomalía provoca un estado de crisis tan importante que el paradigma sobre el que se asentaba la ciencia normal resulta insostenible. Se cuestiona el paradigma sostenido hasta ese momento, se revisan todos los supuestos que se tenían en la etapa anterior, tanto los referentes como las hipótesis utilizadas. Se pone a prueba toda la cosmovisión. Así, los científicos abandonan el antiguo paradigma para reemplazarlo por uno nuevo. La revolución científica puede durar mucho tiempo ya que los científicos no pueden identificar cuál es el paradigma más acertadovii. Cuando un paradigma triunfa sustituye a los anteriores. De esta forma, este implica una reconstrucción de las bases sobre las que se asentaba la ciencia, se llega así a una nueva ciencia normal vii. 111 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 NOTAS ACLARATORIAS vii Actualmente se sostiene que existe la materia oscura, que es una masa oculta que se estima necesaria para mantener unidas las galaxias que giran rápidamente. Esta materia la constituye una partícula todavía no identificada que prácticamente no interacciona con la luz ni con la materia normal. Además otra corriente de científicos propone la existencia de energía oscura, necesaria para explicar la aceleración de la expansión del universo, supuestamente existe en todo el espacio y ejerce una presión que contrarresta la gravedad. Zhao propone en cambio, la teoría del “fluido oscuro”, éste podría expandirse en general pero también podría condensarse alrededor de las galaxias para ayudar a mantenerlas unidas. El fluido de Zhao o el fluido oscuro puede comportarse como materia oscura si alcanza una densidad lo bastante alta Naturaleza corpuscular y ondulatoria de la luz; triunfa la teoría ondulatoria de la luz con la experiencia de la doble rendija. vii A partir de los resultados de las experiencias de Michelson y Morley, se dejó de lado la teoría del Éter y también la naturaleza ondulatoria de la luz. Entonces cobra importancia la naturaleza corpuscular de la luz y se instala la teoría del vacío total en el universo. vii Éter luminífero, los fenómenos que explica (lo relacionado con la naturaleza ondulatoria de la luz) reflexión, refracción, interferencia, velocidad de la luz, viento del Éter. vii Si la luz es una onda transversal necesitaría un medio sólido para propagarse por lo que se acepta la teoría del Éter. El cual tendría propiedades muy especiales, seria sólido y rígido para transmitir las ondas pero blando y etéreo para que los cuerpos celestes se puedan mover. La velocidad de la luz cambia según el medio, esto fue comprobado empíricamente por lo que las consecuencias observacionales coinciden con la hipótesis (Arago). vii Michelson y Morley, en 1887 buscaron, mediante experiencias, encontrar las propiedades del Éter. Entre otras buscaban determinar la propiedad que permitiera explicar que el Éter es sólido y blando a la vez, de manera tal, que permite propagar las ondas transversales y permite también el movimiento de los cuerpos celestes. 112 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Los resultados obtenidos no eran los esperados , se produce de esta manera una anomalía sustancial, y no hubo mas remedio que descartar la teoría del Éter. vii Teoría del vacío total, esta teoría debió descartarse ya que se demostró que la luz necesita un medio para propagarse; las experiencias demostraban que la luz se comportaba como partícula y como onda a la vez vii Ídem nota 1 vii El paradigma del Éter luminífero fue derrotado por la teoría del vacío total del universo y a su vez, éste fue derrotado por el paradigma de la materia oscura. 113 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 BIBLIOGRAFÍA § Jackson W. M. (1957) El tesoro de la juventud, Barcelona, Ediciones Selectas. § Kaku, M. (2004) Einstein`s cosmos How Albert Einstein's Vision Transformed Our Understanding of Space and Time, publicado por W. W. Norton. Traducido por Víctor Zabalza de Torres, publicado por Antoni Bosch editor. Barcelona, España. § Rutz mARTINE J. (2003), Fisica y química, Mad- eduforma, España, 1º Edición. § Sepulveda Soto A. (2003) Los conceptos de la física: evolución histórica Universidad de Antioquia, Colombia, Imprenta Universidad de Antioquia, 2º Edición. Sitios Web: § www.astroseti.org.- Schirber, M. (11-Feb-2008), New Cosmic Theory Unites Dark Forces, Traducido para Astroseti.org por Marisa Raich (26-Feb-2008) § www.clarín.com- Galarza, E. (07-Sep-2008), La "máquina de Dios", lista para revelar los secretos del Universo. § www.masalladelaciencia.es- Herranz, I. (2008), ¿Existe el éter?, Más Allá de la Ciencia Nº 220, Barcelona, MC Ediciones. § www.encyclopedianomadica.org/Spanish/eter.php - “Breve historia del concepto éter” (2005) § www.fisicanet.com- (2008), “La luz y la óptica geométrica” 114 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 “TEORÍA DEL ENLACE QUÍMICO” Eghi, Mariana. Recalde, Guadalupe 115 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 CRONOLOGÍA HISTÓRICA Desde el momento que se pensó que algunas de las partículas que componían las sustancias estaban formadas por átomos unidos, empezó a existir inquietud sobre la manera en que los átomos se unían para formar compuestos y la capacidad de enlazarse de los átomos de cada elemento. A principios del siglo XIX, los científicos William Nichilson y Humphy Davy propusieron en forma independiente una hipótesis que sugería que la unión H2de los átomos que forman los compuestos se debía a fuerzas de naturaleza eléctrica.1 Años más tarde, la hipótesis propuesta por Nichilson y Davy fue reemplazada por la hipótesis propuesta por John Dalton la cual describió a los átomos como partículas materiales indivisibles que tenían unos puntos de unión, por medio de los cuales se ligaban, unos con otros, para formar todos los compuestos presentes en la naturaleza. De acuerdo con su teoría atómica, los puntos de unión variaban considerablemente de un elemento a otro, siendo esto característico de los átomos de cada elemento. Los átomos de hidrógeno parecían tener un solo tipo de unión, mientras que los de oxígeno parecían tener dos, usualmente, y los de carbono cuatro. Algunos elementos tenían una capacidad variable `para unirse, dependiente del otro elemento con el cual se uniera.2 En esa misma época en la que Dalton propuso su hipótesis, el químico Jöns Berzelius presentó una hipótesis correspondiente a la Teoría electroquímica o electrovalente formulada por él mismo, la cual consideraba que cada átomo tiene dos polos de signos contrarios, pero predomina uno. Así clasificaba a los elementos como electropositivos o electronegativos según predominara el polo positivo o negativo del átomo. Siguiendo su línea de pensamiento la fuerza atractiva entre los átomos enlazados era un resultado de la atracción de los polos predominantes de cada átomo. O sea, consideraba que las uniones químicas eran consecuencia de la atracción eléctrica entre las partículas de carga opuesta. Esta teoría explica el enlace entre un elemento metálico y otro no metálico. Esta teoría pudo dar 116 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 respuestas a las preguntas de los científicos de la época y tuvo más peso que las hipótesis propuestas por Dalton,3 El período de vida de tal teoría, a pesar de sus sugerentes bases, fue relativamente fugaz al no poder explicar la existencia de las agrupaciones atómicas (moléculas) estables constituidas por átomos de igual naturaleza como N2, H2 (concebidas por Avogadro) y por tanto de la misma predominante polaridad. Por ello se la descartó y se propuso otra teoría de enlace, con base exclusivamente experimental, de forma que se consideró que cada no metal tenía cierto número de enlaces potenciales que podían utilizar total o parcialmente. Es como si los átomos tuviesen un cierto número de ganchos con los que forman los enlaces, al unirse a los ganchos de otros átomos. La capacidad de combinación de un elemento viene dada por el número de ganchos que posee. En 1813, Thomas Thomson sugirió que la única manera de explicar esta permanencia de los compuestos químicos se debía, exclusivamente, a que un número determinado de los átomos de un elemento se unían con un número determinado de los átomos de otro elemento. Esta hipótesis modificó la hipótesis de Berzelius acerca de la forma de unión de los átomos, reemplazando el concepto de los ganchos que poseen los átomos para unirse por el de puntos físicos indivisibles rodeados de esferas de atracción y repulsión que se encuentran en los átomos.4 La hipótesis de que los átomos se unen mediante esferas de atracción y repulsión no duró mucho tiempo, ya que en 1852 fue descartada por el concepto de atomicidad, desarrollado por Edward Frankland que investigó sobre las propiedades de los compuestos organolépticos. El concepto de atomicidad se refirió a la capacidad de combinación de los átomos de cada elemento en comparación con la del Hidrógeno que siempre es uno. Agregó una nueva hipótesis sobre la electronegatividad de los elementos nombrándolos como elementos electronegativos o electropositivos. 5 Con el descubrimiento del electrón en 1897, por J. J. Thomson se desarrolló un modelo atómico en el cual los electrones se encontraban distribuidos en capas en anillos concéntricos alrededor del centro de la esfera de carga 117 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 positiva, y únicamente los del anillo más externo estarían involucrados en un enlace, incluso, concluyó que debería haber una repetición periódica de las estructuras de los anillos más externos y que los gases nobles deberían tener este anillo completo. Este modelo y lo que implicaba, permitió un gran avance en las ideas respecto del enlace químico6 al cambiar las hipótesis sobre la atomicidad fija propuestas por Frankland, por la hipótesis que sugirió Richard Abegg en 1904. Esta hipótesis tiene más sustento que la anterior ya que se basa en que las uniones que se producen entre los átomos se deben a los electrones, y que las propiedades químicas de los elementos dependen de la disposición de sus electrones y que estos sirven como “lazo de unión” entre un átomo y átomo. Otra hipótesis que se sugirió fue la que también propuso Abegg, la cual estableció que cada elemento tiene una valencia (+) y una contravalencia (-), cuya suma siempre debe ser ocho, para parecerse a los átomos estables de los gases nobles.7 Abbeg murió en 1910 en un accidente de globo, y no vio como sus ideas fueron desarrollándose. A partir de este momento, se entiende por valencia de un átomo el número de electrones de su capa más externa. Más tarde, el científico Paul Drude sugirió que el número de valencia de Abbeg era el número de electrones que tenía el átomo para enlazarse y el de contravalencia era el número de electrones de otros átomos que aquel podía remover o atraer más firmemente hacia sí. El concepto de valencia, ampliado más tarde, por Alfred Werner, cuando propuso una hipótesis que se basaba en la anterior, en la que asumía que las fuerzas de enlace de un átomo brotaban del centro del átomo, atrayendo uniformemente en todas las direcciones, y se expresaba con un número dado de líneas, igual a la valencia; Werner asumió que las fuerzas de enlace estaban distribuidas en u7na superficie esférica. Diferenció entre valencias primarias y secundarias, siendo las primeras las que tienen los átomos o grupos de átomos que se presentan como iones, y las segundas aquellas cuyo contenido de energía es menor que el de las primarias, pero que no difieren mucho de ellas, que producen complejos atómicos que no presentan iones independientes como el agua o el amoníaco. Werner llamó número de coordinación al número de 118 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 átomos o grupo de éstos que se pueden unir en una primera esfera con un átomo de un elemento que funciona como centro. Las hipótesis se fueron reemplazando hasta el momento, porque no tuvieron consenso por los científicos de época.8 En 1916 se propusieron más hipótesis al sugerir que los electrones de valencia se transfieren desde un átomo electropositivo a uno electronegativo para formar iones con estructura electrónica de gas noble. Esta hipótesis desarrollada por el científico Albrecht Kossel se basó en la teoría de Abbeg, la cual permitió la introducción al campo de la química del concepto de electrovalencia y permitió entender más claramente como ocurre la unión iónica,9 Por la misma época, Gilbert N. Lewis (1916) estableció una hipótesis de la teoría del enlace químico por compartición de pares de electrones y explicó la diferencia esencial entre una molécula polar y una no polar. En la primera, uno o más electrones son atraídos con suficiente fuerza para lograr que se desplacen de su lugar original en el átomo, produciéndose en la molécula un dipolo de alto momento electrónico y llegando, en un caso extremo, a pasar completamente al otro átomo, caso en el cual se forman iones; mientras que en una molécula no polar los electrones permanecen en su posición original, igualmente compartido pos los dos átomos.10Es importante comentar que, tres años antes de la publicación del artículo que se mencionó, Lewis (1913) en otro artículo propuso que se clasificaran los compuestos químicos como polares y no polares, en vez de cómo inorgánicos y orgánicos, aduciendo que las dos clasificaciones estaban relacionadas, ya que los compuestos orgánicos son no polares, mientras que la mayoría de los inorgánicos son más o menos polares. Sin embargo, aclaró que existen compuestos inorgánicos no polares y compuestos orgánicos con cierta parte de la molécula polar. En su artículo de 1916, Lewis dio a conocer su teoría de la estructura atómica externa, la teoría del cubo, en la cual presentó los electrones de la capa más externa del átomo que debían ser máximo ocho (utilizando la ley de valencia de Abbeg), en las aristas de un cubo. Con este modelo pudo 119 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 representar átomos de diferentes elementos y, también moléculas sencillas, en las cuáles dos cubos compartían uno o más electrones. No tuvo problema para explicar la diferencia entre los compuestos polares y no polares, con su modelo de los cubos: los enlaces en los cuales un electrón puede ser propiedad común de las capas atómicas de dos átomos diferentes (lo que luego se conoció como enlace covalente) y los compuestos muy polares, en los cuales un átomo tiende a ceder los electrones, formando iones positivos mientras que el otro átomo recibe los electrones, formando iones negativos. Explicó, luego, la atracción eléctrica de los iones de carga contraria para formar sólidos. Pudo explicar el enlace doble, pero le quedó imposible explicar el triple. Aseguró que esta propuesta la tenía desde 1902, no con el ánimo de reclamar prioridad sobre otras teorías, sino para reforzar que la suya fue desarrollada independientemente de esas otras. Lewis (1916) utilizó el concepto de Kernel, significando con este el número de cargas positivas en el núcleo del átomo que neutralicen las cargas de los electrones de la última capa. Postuló que un grupo de 8 electrones en la capa más externa es muy estable; en el caso del átomo de neón, con un kernel de 8 cargas positivas, tiene 8 electrones en la capa externa, mientras que un ión fluoruro, con ocho electrones en la capa externa (-8), tiene un kernel de + 7, lo que hace que se le asigne un “número polar” de – 1. el ión na+, sin electrones en su capa externa de un kernel de + 1, tiene un número polar de + 1. Propuso usar los signos de kernel, en vez del símbolo ordinario del elemento, rodeando cada símbolo con un número de puntos igual a la valencia del átomo. Así pudo escribir las fórmulas estructurales de la siguiente manera: H:H, H:Ö:H, :Ï:Ï:.En 1919 la teoría del átomo cúbico de Lewis fue utilizada y aceptada por la comunidad científica de la época, hasta que luego fue ampliada, por no responder a todas las inquietudes de los científicos por la Teoría del Octeto de Valencia desarrollada por Irving Langmuir, quien agregó la siguiente ecuación: e = 8n-2p, en la cual e es el número total de valencias (electrones en la capa externa) de los átomos de la molécula, n es el número de octetos y p el número de pares de electrones comprometidos en un enlace. Irving Langmuir modificó una hipótesis sobre 120 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 la teoría de valencia hasta ese momento como el número de electrones que tenía el átomo para enlazarse. Al proponer que se definiera valencia como número de pares de electrones que un átomo dado comparte con otros, y en vista de que la palabra valencia se usaba para expresar cosas diferentes, recomendó usar la palabra covalencia, origen del término covalente.11 Los físicos mantuvieron mucho tiempo sin reconocer la importancia de la teoría de enlace de Lewis objetando, principalmente, el que Lewis parecía limitar a los electrones a una posición fija, además de que el par de electrones compartido, según ellos no tendría suficiente fuerza para mantener unidos a los átomos. Sin embargo, cuando Lewis publicó su libro “Valence and the Structure of Atoms and Molecules”, en 1923, mostró ideas completamente consistentes con las de los físicos. Todas las teorías desarrolladas alrededor del concepto de valencia, hasta ese momento, no tenían en cuenta los principios de la mecánica cuántica. Consideraban el átomo tal como lo describió Bohr en su modelo (1913) en el cual los electrones giraban alrededor del núcleo en diferentes órbitas. La publicación de la ecuación de Schrödinger, se aplicó a los electrones implicados en la formación de enlaces covalentes para calcular las estructuras más estables, y constituyó una nueva hipótesis. Esta ecuación fue aceptada por los científicos de la época, al poder dar respuesta a muchos interrogantes y condujo al cambio del concepto de órbita por el de orbital, para referirse a una función de onda que relacionara aun electrón simple con un átomo o una molécula. Este cambio que fue introducido por los científicos, sigue vigente puesto que, desde la mecánica cuántica, se vio que era imposible conocer el recorrido de un electrón alrededor del núcleo que permitiera especificar una órbita. Luego de una publicación realizada por los físicos alemanes Walter Heitler y Fritz London, en 1927, en la cual desarrollaron la que después llamaron teoría del enlace de valencia, se reemplazó la teoría del octeto de Langmuir, Esta nueva teoría sigue vigente y es desde ese momento aceptada y utilizada por los científicos para poder explicar de qué forma se unen los átomos para formar compuestos. El conocimiento de la ecuación de 121 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Schrödinger permitió construir una función de onda para la molécula de Hidrógeno, desde las funciones de onda de los dos átomos separados. La utilización de la función de onda por parte de los científicos de la época permitió incorporar otra nueva hipótesis al encontrar que la energía relacionada con un enlace covalente era de dos tipos: energía culómbica y energía de intercambio.12 La teoría del enlace de valencia propuesta anteriormente, fue utilizada por Linus Pauling en ese mismo año para trabajar sobre la molécula de Hidrógeno, lo que le permitió publicar dos artículos sobre su trabajo (Pauling 1928). También publicó una serie de artículos llamado “The Nature of Chemical Bond”, que introdujo nuevos conceptos como el de resonancia, electronegatividad relativa, enlace iónico y enlace covalente y del cual se publicó un capítulo en el Journal of A merican Chemical Society (Pauling 1932).sobre el mismo tema, y junto con otros científicos publicó más adelante, otros artículos relacionados con el enlace químico y las estructuras de los compuestos, proponiendo la teoría del orbital molecular para explicar los enlaces, la cual como se mencionó anteriormente, fue muy bien aceptada por la comunidad científica. Por la cantidad y calidad de los trabajos de Linus Pauling en este campo del saber, se le reconoce el haber transformado el campo de la química al introducir las teorías de la mecánica cuántica en el concepto de enlace químico, aunque no fue el primero en tener este interés.13 122 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL ENLACE QUÍMICO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTA POR LAKATOS ( PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA) Haciendo referencia al desarrollo de las ciencias según Lakatos, notamos que se mantiene el núcleo central gracias al aporte de las hipótesis auxiliares. El Núcleo central es el siguiente: los átomos se mantienen unidos. Las hipótesis auxiliares del programa de investigación son las siguientes: • Los científicos Nichilson y Davy sugirieron que las fuerzas químicas eran de naturaleza eléctrica.1 • Teoría atómica de Dalton.2 • Teoría electrovalente o electroquímica: Berzelius sugirió que cada átomo tenía dos polos de signos contrarios. 3 • T. Thomson sugirió que un número determinado de un elemento se unía con un número determinado de otro elemento. 4 • Teoría de la atomicidad: según Frankland, la atomicidad es la capacidad de combinación de los átomos de cada elemento.5 • Modelo atómico de Thomson.6 • Teoría de valencia: según Abbeg, la valencia es el número de electrones de su capa más externa.7 • Werner sugirió una hipótesis sobre valencias primarias y secundarias.8 • Concepto de electrovalencia: según Kossel, implica la trasferencia de electrones desde un átomo electropositivo a otro negativo.9 • Teoría del enlace químico por compartición de pares de electrones de Lewis.10 • Teoría del octeto de valencia: según Langmuir, la valencia es el número de pares de electrones comprometidos en un enlace para llegar a la configuración externa más estable (8 electrones en el último nivel).11 123 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 APORTES DE LA MECÁNICA CUÁNTICA • Teoría del enlace de valencia de Heitler y London. Esta teoría utiliza la función de onda para la molécula de Hidrógeno aplicando la ecuación de Schrödinger.12 • Teoría del orbital molecular de Pauling.13 Estas hipótesis que conducen a una heurística positiva hacen que el programa de investigación sea progresivo. 124 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 ANÁLISIS DE LA TEORÍA DEL ENLACE QUIMICO, SEGÚN LA LECTURA ACERCA DEL DESARROLLO DE LA CIENCIAS PROPUESTO POR KHUN Teniendo en cuenta el desarrollo de las ciencias según Kuhn, observamos un período de preciencia desde los comienzos, en donde los científicos intentan continuamente comprender de qué manera se unen los átomos. Durante este período, los científicos toman y descartan hipótesis para resolver enigmas y para comprender en una forma más razonable y fehaciente cómo ocurre el enlace entre los átomos. PERÍODO DE PRECIENCIA: A principios del siglo XIX los científicos comenzaron a cuestionarse sobre la manera en que los átomos se unían entre sí para formar compuestos. En 1800, Nichilson y Davy, determinaron que las fuerzas químicas que unían a los átomos eran de naturaleza eléctrica.1 Años más tarde, la hipótesis propuesta por Nichilson y Davy fue reemplazada por la hipótesis propuesta por John Dalton.2 En el año 1810, con la aparición de la teoría electrovalente de Berzelius3 se pudo explicar el enlace entre un elemento metálico y otro no metálico, lo que no puede explicar es la existencia de agrupaciones atómicas (moléculas) estables constituidas por átomos de igual naturaleza, por lo tanto es descartada y reemplazada por otra teoría de enlace. En 1813, Thomas Thomson sugirió una hipótesis para explicar la permanencia de los compuestos químicos. 4 Desde los comienzos del estudio del enlace químico hasta la actualidad, que no se han presentado anomalías. Durante este período los científicos solo han propuesto hipótesis para la resolución de enigmas junto a la articulación con otras teorías. La hipótesis de que los átomos se unen mediante esferas de atracción y repulsión no duró mucho tiempo, ya que en 1852 fue descartada por el concepto de atomicidad, desarrollado por Edward Frankland.5 125 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 Mientras los químicos creían que los átomos eran esferas rígidas fue posible admitir que cada átomo tuviera algo parecido a uno o más ganchos que les permitieran unirse a otros átomos para formar moléculas. Pero eso fue aceptado por los científicos hasta que en 1897, J.J. Thomson propuso un modelo atómico cuyo núcleo estaba rodeado de una corteza electrónica.6 A partir de ese momento los electrones comenzaron a tener protagonismo, lo cual le permitió a Richard Abbeg proponer una hipótesis para explicar la forma en que los átomos estaban unidos.7 El concepto de valencia fue ampliado más tarde por Alfred Werner, cuando propuso una hipótesis que se basaba en la anterior.8 El desarrollo del modelo planetario del átomo de Rutherford y las modificaciones realizadas por Bohr constituyen las nuevas bases sobre la que se desarrollan las hipótesis de Kossel y Lewis, que sirvieron para resolver enigmas,9 y 10 las cuales formaron parte de otras hipótesis.11 La utilización de la función de onda por parte de los científicos de la época, permitió incorporar otras nuevas hipótesis para la resolución de enigmas.12 y 13 En el desarrollo del enlace químico no se identifican períodos de ciencia normal, ni mucho menos crisis. Lo que se presenta es un período de preciencia, en donde los científicos proponen continuamente hipótesis que den cuenta de la existencia del enlace entre los átomos, estas hipótesis son cuestionadas continuamente ya que la comunidad científica del momento intenta dar respuesta a determinados problemas que surgen de sus cuestionamientos sobre la unión de los átomos Al no conformarse, la comunidad científica del momento, con las teorías vigentes de la época, proponen nuevas hipótesis para consolidar la idea de la unión entre los átomos. Desde que fue concebida la Teoría del Enlace de Valencia, todavía no se han presentado otras hipótesis que la refuercen o la cuestionen. Esta es la teoría aceptada por los científicos de la época actual y los mismos se manejan con ella. Por eso podemos decir que la teoría del enlace se encuentra en un período de ciencia normal. 126 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 127 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 128 “De Demócrito a la Máquina de Dios” Alumnos ISFD35 129