lunes, 13 de diciembre de 2010

Tercera Ley de la Termodinámica


Resumen:mar2008

Tercera Ley de la Termodinámica Es posible relacionar la entropía con el modelo molecular de los estados de la materia, es decir si pensamos que en el estado gaseoso las moléculas están en constante aumento, en el líquido solo se mueven entre ellas y en el sólido las partículas solo vibran, entonces podemos intuir que: S(gases) > S(líquidos) > S(sólidos) Si observamos que la tendencia de la entropía está relacionada con el estado de agregación del sistema (orden) y sabemos que éste está relacionado con la temperatura, entonces tendrá que existir una temperatura a la cual los cristales tendrán una entropía nula. Se enuncia la tercera ley de la termodinámica como: Tercera Ley: "La entropía de los cristales perfectos de todos los elementos y compuestos es cero en el cero absoluto de temperatura" Al hablar de cristales estamos relacionando la tercera ley con los cambios orden-desorden. De esta forma cualquier sustancia a una temperatura mayor que 0ºK tendrá un valor positivo de entropía. Como la entropía es una función de estado, entonces el cambio de entropía en una reacción química vendrá dado por la diferencia entre la entropía de los productos (estado final) y los reactivos (estado inicial) DS = å S(productos) - å S(reaccionantes) Un poco de historia: Formulación de la Tercera Ley Walther Hermann Nernst (1864-1941) encontró que al disminuir la temperatura y acercarse al cero absoluto, el calor específico de las sustancias disminuye continuamente. Desde luego, al llegar a estas temperaturas las sustancias están en la fase sólida. No existe ninguna sustancia que a estas temperaturas sea gas o líquido. De estos resultados Nernst formuló en 1906 la tercera ley de la termodinámica, que se refiere a las propiedades termodinámicas de las sustancias en la cercanía del cero absoluto de temperatura. Una consecuencia de la tercera ley es que el calor específico de todas las sustancias se anula al llegar su temperatura a ser cero grados absolutos, es decir a -273ºC.
Tercera Ley de la Termodinámica Publicado originalmente en Shvoong: http://es.shvoong.com/exact-sciences/physics/1738111-tercera-ley-la-termodin%C3%A1mica/

La muerte del Universo

El físico y astrónomo inglés sir James Jeans escribió sobre la muerte final del universo, que él denominó "muerte térmica", a comienzos del siglo XX : "La segunda ley de la termodinámica predice que sólo puede haber un final para el universo, una "muerte térmica" en la que la temperatura es tan baja que hace la vida imposible". Toda la energía tenderá a acabar en la forma más degradada, la energía térmica; en un estado de total equilibrío termodinámico y a una temperatura cercana al cero absoluto, que impedirán cualquier posibilidad de extracción de energía útil. Será el desorden más absoluto (la máxima entropía) del que ya no se podrá extraer orden (baja entropía).

En esta "muerte térmica" del universo, el factor más importante lo marcará la segunda ley de la termodinámica, que afirma que cualquier proceso crea un incremento neto en la cantidad de desorden o entropía del universo. Esta ley que rige para el universo entero es una parte cotidiana de nuestras vidas. Al echar leche en una taza de café, por ejemplo, el orden que representaba las dos tazas separadas de café y leche se ha transformado en un desorden representado por una mezcla aleatoria de café y leche. La tendencia a mezclarse es la más natural (aumento de desorden o entropía), lo contrario, el desmezclarse es practicamente imposible y necesitaría de una serie de procesos que tomarían orden del entorno para devolver más desorden. Al final el resultado total sería más desorden, aunque en una región limitada podríamos haber obtenido más orden.

La entropía esta aumentando incesantemente en las estrellas tanto como en nuestro planeta. Esto significa que, con el tiempo, las estrellas agotarán su combustible nuclear y morirán, convirtiéndose en masas muertas de materia nuclear. El universo se oscurecerá a mediad que las estrellas, una a una, dejen de centellear. Todas las estrellas se convertirán en agujeros negros, estrellas de neutrones o estrellas enanas frías (dependiendo de su masa) en menos de 1024 años a medida que sus hornos nucleares se apaguen. En menos de 1032 años, según las Teorías de Gran Unificación (GUT) los protones y los neutrones probablemente se desintegraran, por ser inestables en grandes escalas de tiempo. Eso significa que toda la materia tal como la conocemos, nuestros cuerpos, la Tierra o el sistema solar se desintegrará en partículas más pequeñas tales como electrones y neutrinos.

Despues de un periodo, practicamente inimaginable en nuestra escala temporal, de 10100años (un gugol)(***) la temperatura del universo se acercará al cero absoluto, pero incluso en un universo desolado y frío, a temperaturas próximas al cero absoluto, existe una última fuente remanente de energía: los agujeros negros. Según Hawking, no son completamente negros, dejan escapar energía lentamente al exterior. En este futuro distante, podrían ser preservadores de la vida porque evaporarían energía lentamente. Las civilizaciones inteligentes, se reducirían a patéticos y míseros puestos fronterizos agarrándose a un agujero negro.

Pero ¿y después de 10100años, cuando los agujeros negros en evaporación hayan agotado la mayor parte de su energía?. Esta cuestión puede carecer de sentido con el conocimiento actual. Los astrónomos John D. Barrow de la Universidad de Sussex y Joseph Silk de la Universidad de California en Berkeley indican que la teoría cuántica, en esta escala de tiempo tan formidable, deja abierta la posibilidad de que nuestro universo pueda pasar, por ejemplo, por una especie de efecto túnel a otro universo. En esta escala de 10100años ya no puede descartarse este tipo de raros sucesos cuánticos cósmicos.


Estos astrónomos añaden, en plan optimista:"Donde hay teoría cuántica hay esperanza. Nunca podemos estar completamente seguros de que esta muerte térmica tendrá lugar porque nunca podemos predecir con completa certeza el futuro de un universo mecanocuántico; pues en un futuro cuántico infinito todo lo que puede suceder, llegará a suceder".







(***) Este valor sólo es comprensible en una comparación a escala logarítmica, en que convertimos el 10 en 1, el 1000 en 3, ó el 10.000 en 4. En esa escala la edad de un niño de 10 años, sería a la edad del universo actual, como esta sería al valor de un gugol.






Fuente:"Hiperespacio", de Michio Kaku.CRÍTICA, Barcelona. 1996. Un libro que no sólo es tan divertido como un relato de ciencia ficción, sino mucho más fantástico.Es como un anticipo de la ciencia que nos deparará este siglo XXI. Escrito por el Dr. Kaku de la City University de Nueva York.

Termodinámica práctica

(Aparecida en la revista Piel de Leopardo)


La mayor parte de los estudiantes redactó su respuesta basándose en la Ley de Boyle: el gas se enfría cuando se expande y se calienta cuando se
comprime, o alguna variante.

Una excepción fue la siguiente:

Primero, necesitamos saber cómo varía en el tiempo la masa del Infierno. Así, necesitamos conocer la frecuencia con la que las almas entran en él y la frecuencia con la que salen. Podemos asumir sin ninguna duda que, una vez que un alma ha entrado en el Infierno, no sale nunca más. Así pues, no hay frecuencia de salida.

Para calcular cuántas almas entran en el Infierno, es necesario tener en cuenta a las distintas religiones que postulan su existencia. Algunas afirman que, alguien no pertenece a ella, va al Infierno. Por lo que, debido a que hay más de una de estas religiones, y tomndo en consideración que nadie pertenece a más de una religión al mismo tiempo, podemos afirmar que toda la gente y todas sus almas van al Infierno. Dadas las tasas de natalidad y mortalidad la conclusión es que el número de almas que ingresan en el Infierno crece exponencialmente.

Ahora observamos la variación del volumen del Infierno toda vez que, siguiendo la Ley de Boyle, para que la temperatura y la presión infernales permanezcan invariables, su volumen se tiene que expandir según se va poblando de almas. Esto nos da dos posibilidades:

1.- Si el Infierno se expande a una velocidad más baja que la frecuencia a la que entran las almas, su temperatura y presión se incrementarán hasta que reviente;

2.- Pero si el Infierno se expande a una velocidad mayor que la frecuencia de entrada de almas, su temperatura y presión caerán hasta que se congele.

Ahora, si aceptamos el postulado enunciado por nuestra compañera Rocío López en el primer año de carrera, que decía algo así como: El Infierno se congelará antes de que yo me acueste contigo, y dado el hecho de que todavía no lo he conseguido, el enunciado número dos no puede ser correcto, por lo que la respuesta es: El infierno es exotérmico.

El alumno obtuvo nota máxima. Rocío López no lo felicitó

Termodinámica del aire: Como meter un huevo en una botella


Si encendemos una cerilla y la introducimos en una botella de cristal y colocamos un huevo duro (pelado) sobre la boca de la botella para taparlo, al cabo de unos segundos ocurrirá lo siguiente:

Al calentarse el aire que está contenido en la botella, las moléculas que constituyen el aire (nitrógeno 78%, oxígeno 21%, etc.) se mueven de una forma más frenética (teoría cinética de los gases) por lo que si confinan en un recinto cerrado, ejercerán mayor presión sobre las paredes del recinto. En el caso del aire que estaba dentro de la botella, al no estar confinado, se escapa al exterior, para mantener así la presión constante en el interior. Cuando la boca de la botella se tapa con el huevo, que posee una gran flexibilidad por estar cocido, la pequeña llama se apaga (combustión del oxígeno del interior) con lo que la temperatura comienza a descender, disminuyendo la presión del aire al estar contenido en un volumen constante.

Como consecuencia de la menor presión del aire del interior de la botella, el aire del exterior ejerce una presión sobre el huevo haciendo que éste se introduzca por su flexibilidad. Una vez que el huevo está dentro de la botella y la boca de la botella está libre, las presiones se igualan.

domingo, 12 de diciembre de 2010

Cap. 12 - Segunda ley de la termodinámica

primera ley de termodinamica-itsta.wmv

En el experimento de Joule se determina el equivalente mecánico del calor, es decir, la relación entre la unidad de energía joule (julio) y la unidad de calor caloría.

Descripción.

Un recipiente aislado térmicamente contiene una cierta cantidad de agua, con un termómetro para medir su temperatura, un eje con unas paletas que se ponen en movimiento por la acción de una pesa, tal como se muestra en la figura.


La versión original del experimento, consta de dos pesas iguales que cuelgan simétricamente del eje.

La pesa, que se mueve con velocidad prácticamente constante, pierde energía potencial. Como consecuencia, el agua agitada por las paletas se clienta debido a la fricción.

Si el bloque de masa M desciende una altura h, la energía potencial disminuye en Mgh, y ésta es la energía que se utiliza para calentar el agua (se desprecian otras pérdidas).

Joule encontró que la disminución de energía potencial es proporcional al incremento de temperatura del agua. La constante de proporcionalidad (el calor específico de agua) es igual a 4.186 J/(g ºC). Por tanto, 4.186 J de energía mecánica aumentan la temperatura de 1g de agua en 1º C. Se define la caloría como 4.186 J sin referencia a la sustancia que se está calentando.
1 cal=4.186 J

Conservacion de la energía, 1° ley de la termodinamica

Influencia del mar en el clima


El mar, las zonas de agua en general, tienen un efecto regulador del clima local y hasta zonal. La causa es que el agua absorbe y desprende calor a diferente ritmo que las rocas. El calor específico es la capacidad de una roca (o cualquier otra sustancia) para almacenar energía en forma de calor. Las rocas absorben y desprenden calor muy rápidamente. El agua, por el contrario, lo hace con mayor lentitud. De esta manera, se establece una diferencia de temperatura en la costa, entre las zonas de tierra y las de agua. Esta diferencia provoca vientos locales, las brisas marinas. Durante el día la tierra está más caliente, y el aire que hay sobre ella asciende, dejando sitio para el aire más fresco que sopla del mar. Durante la noche el mar está más caliente, y el aire que hay sobre él asciende, dejando sitio para el aire más fresco que sopla de tierra.

Pero la influencia del mar no se limita a los vientos locales diarios. Durante todo el año el mar se comporta como un regulador de la temperatura. En las épocas de calor el agua absorbe grandes cantidades de energía. El proceso de evaporación es muy intenso, lo que hace que se reduzca la temperatura del aire. Las temperaturas medias cerca del mar son más suaves que en el interior. Durante la épocas frías, por el contrario, el calor acumulado en el agua del mar se va desprendiendo, templando la temperatura del aire. En este proceso la evaporación y la condensación del agua es fundamental, por lo que la humedad relativa del aire en la zonas costeras es superior a las del interior de los continentes. Esta influencia del mar puede llegar muchos kilómetros tierra adentro, gracias al movimiento de las masas de aire.

La temperatura del mar no siempre tiene que ver con el calor absorbido por el agua en el lugar concreto donde se encuentra. Las corrientes marinas lo transportan de un sitio a otro. Es bien conocido que la corriente del Golfo transporta el calor del trópico hasta la Europa del norte, y que gracias a él son habitables latitudes que en otros continentes están cubiertas por el hielo. En general, las corrientes marinas que circular desde latitudes tropicales hacia las polares son cálidas y húmedas, mientras que las que circulan desde las latitudes polares hacia las tropicales con frías y secas.

Pero la atmósfera y el océano se comportan como un conjunto mucho más allá de lo que se puede comprobar a primera vista. El intercambio de calor tiene una dimensión planetaria, de tal manera que se regulan mutuamente. Los vientos provocan el movimiento de las olas, que oxigenan el mar.

Dependiendo de las variaciones de las corrientes marinas el clima de las distintas regiones en las que influye puede variar de manera importante. En este sentido el fenómeno más conocido y estudiado es El Niño, o mejor dicho el ENOS (El Niño-Oscilación Sur). El fenómeno de El Niño se produce por la variaciones en la corriente cálida ecuatorial del Pacífico. Esta, normalmente, circula desde las costas de Perú hasta las de Indonesia, empujada por los alisios. Así, de las costas peruanas se «retira» la humedad, haciendo de ellas uno de los lugares más áridos del planeta, y la llevan a Indonesia, uno de los lugares más lluviosos de la Tierra. Los alisios son los suficientemente fuertes como para garantizar este recorrido, que sin ellos no se produciría. Pero los alisios no soplan con la misma velocidad en todo momento y todos los años. Cada cierto tiempo la velocidad se reduce y las masas de aire húmedo no son capaces de llegar a Indonesia. Además, el anticiclón del Pacífico sur reduce su potencia. En estas circunstancias el tipo de tiempo se invierte. En las costas americanas entran grandes cantidades de masas de aire húmedas que provocan grandes lluvias, mientras que, al mismo tiempo, a Indonesia llegan masas de aire secas, y no se producen las lluvias monzónicas; situación que repercute en todo el Sudeste Asiático.

HISTORIA DEL CALOR


El Calor fue una incógnita para el hombre durante mucho tiempo donde por supuesto hubo de ser también un dios de la antigüedad.

Inicialmente se creía que era algo que estaba dentro de las cosas y así es como al romper una piedra, esta liberaba cierta cantidad de calor.

Posteriormente la teoría del Flogisto, propuesta por J. J. Becher en el sigo XVII, y popularizada por Georg Ernst Stahl, donde planteaba el calor de una forma muy particular que al menos explicaba algunos fenómenos:




Los metales y en general todas las sustancias combustibles contienen una sustancia que carece de peso, tal sustancia es la llamada flogisto.

los metales y en general todas las sustancias combustibles contienen una sustancia que carece de peso, tal sustancia es la llamada flogisto.

El primero que puso de relieve los errores de la teoría fue Lomonosov quien formuló mucho antes que Lavoisier la obtención de los metales y los principios que regían la combustión.

La primer mención del calor como una entidad física definida que puede medirse como una cantidad, fue de un médico escocés llamado James Black (1728-1799). Planteaba el calor como un fluido que llamó "calórico", capaz de penetrar todos los cuerpos materiales aumentando su temperatura. Definió la unidad de calor como la cantidad necesaria para elevar la temperatura de una libra de agua un grado Farenheit (actualmente caloría=calor capaz de elevar un grado centígrado la temperatura de un gramo de agua).

Además de la definición original de "caloría" introdujo la noción de capacidad calorífica y de calor latente.

Para Lavoisier (Tratado Elemental de Química, 1789) las moléculas de todos los cuerpos de la naturaleza están en un estado de equilibrio entre la atracción que tiende a aproximarlas y la acción del calórico que tiende a separarlas; según su mayor o menor cantidad de calórico los cuerpos son gases, líquidos o sólidos.

El calórico se haría visible en las llamas, formadas en su mayor parte por el calórico desprendiéndose de los cuerpos. Las distintas sustancias presentan distintas solubilidades para el calórico, lo que explicaba la variación del calor específico entre las sustancias.

La teoría del calórico fue ampliamente aceptada, e incluso explicaba los experimentos de Joule sobre la equivalencia entre calor y energía, diciendo que al frotar o taladrar un cuerpo se rompen vesículas microscópicas que contienen el calórico que, así se libera produciendo el calor. Pero éste fue el comienzo de la pérdida de adeptos de una teoría que cada vez presentaba más problemas, como la masa nula del calórico.

El calor es movimiento, y esta idea se le ocurrió a un soldado profesional, Benjamin Thomson nacido en Massachussetts, y fue desarrollada por experimentos realizados en una fábrica de cañones.

En su artículo en London Philosophical Transactions (1799) escribía:"¿Qué es el calor? No puede ser una sustancia material. Me parece difícil, si no absolutamente imposible, imaginarme que el calor sea otra cosa que aquello que en este experimento (perforación del cañón) estaba siendo suministrado continuamente al trozo de metal cuando el calor aparecía, a saber, movimiento."

Las ideas de Thomson fueron desarrolladas varias décadas después por el físico alemán Julius Robert Mayer en su artículo "Observaciones sobre las fuerzas de la naturaleza inanimada, publicado en 1842.

Mayer dispuso un experimento en una fábrica de papel donde la pulpa contenida en una gran caldera era removida por un mecanismo movido por un caballo. Pero quien, finalmente, llegó a medir el equivalente mecánico del calor por un método parecido fue el inglés James Prescott Joule.

Joule estableció que hay una proporcionalidad directa entre el trabajo realizado y el calor producido. En 1843, al anunciar el resultado de sus estudios, escribía: "El trabajo realizado por un peso de una libra que desciende 772 pies en Manchester, elevará la temperatura de una libra de agua en un grado Farenheit". Esta es la cifra que, expresada en estas u otras unidades, se usa ahora universalmente siempre que se ha de traducir la energía térmica en energía mecánica o viceversa.

A partir de ahí, en la segunda mitad del siglo XIX, comenzó el estudio de la comprensión de las leyes que permiten transformar la energía mecánica en calorífica y viceversa por científicos tan relevantes como el físico alemán Rudolph Clausius y el inglés Lord Kelvin.

Finalmente quedaron establecidas la primera y la segunda ley de la termodinámica, o estudio de la circulación de la energía calorífica y de cómo produce movimiento.
Anomalía del agua

El agua fría pesa más que el agua caliente, y por ello se hunde al fondo en un recipiente. Pero entonces ¿por qué se congela primero el agua de la superficie de un lago? La mayoría de materias se expanden al calentarse y se contraen al enfriarse. Pero el agua no siempre se comporta así, sólo a temperaturas entre su punto de ebullición (100°C) y cuatro grados Celsius. Por debajo de los cuatro grados o, para ser más precisos, entre el punto de congelación (0°C) y cuatro grados, el agua se dilata de nuevo al enfriarse. Esto ocurre porque tiene una densidad mayor a cuatro grados Celsius que a una temperatura inferior. Y esto a su vez significa que cuando se enfría a cuatro grados cada vez pesa más, pero si se sigue enfriando, hasta los cero grados, vuelve a pesar menos. Cuando la capa superficial de un lago se enfría en invierno, esta agua se va hacia la profundidad. El agua más caliente sube y también se enfría. El agua fría y caliente va cambiando de lugar hasta que la temperatura de todo el lago ha llegado a los cuatro grados Celsius. Si el agua de la superficie se enfría aún más, pesa menos y no se hunde. A cero grados Celsius se congela en forma de hielo, mientras que el agua más profunda sigue estando a cuatro grados. El hecho de que el agua sólo se contrae hasta que llega a una temperatura de cuatro grados y se vuelve a dilatar si se sigue enfriando se conoce como la anomalía del agua, y es el motivo por el cual el agua puede estar más caliente en profundidad del lago que en la superficie.
La escala Kelvin de temperaturas

La ecuación de un gas ideal es pV=nRT, donde

*

p es la presión
*

V el volumen
*

n el número de moles
*

R la constante de los gases R=8.3143 J/(K mol)
*

T la temperatura.

Si hacemos una gráfica del producto pV en función de la temperatura obtenemos una línea recta, que intersecará el eje X en el valor T=-273ºC. Si empleamos distintos gases pero con el mismo número n de moles, obtendremos la misma línea. Pero si el número n de moles es distinto obtendremos otra línea distinta que interseca al eje X en el mismo valor de T=-273ºC.


En vez de grados centígrados es por tanto, más conveniente usar una nueva escala de temperaturas, denominada escala Kelvin, de modo que a la temperatura centígrada -273ºC le corresponde el cero de la nueva escala.

Si t es la temperatura en grados centígrados, la correspondiente temperatura T en la escala Kelvin será.
T(K)=t(ºC)+273.

Ningún sistema puede tener una temperatura negativa ya que el producto pV es siempre positivo. A la temperatura 0 K un gas que ocupa un volumen V ejercerá una presión nula p=0 sobre las paredes del recipiente que lo contiene. Como la presión se debe a los choques de las moléculas con las paredes del recipiente, en el cero absoluto de temperatura cesará el movimiento de las moléculas que ya no ejercerán fuerzas sobre las paredes del recipiente.

domingo, 5 de diciembre de 2010

Movimiento Armonico Simple

Medida del módulo de elasticidad

Módulo de elasticidad

Un hilo metálico sometido a un esfuerzo de tracción sufre una deformación que consiste en el aumento de longitud y en una contracción de su sección.

Supondremos que el aumento de longitud es el efecto dominante, sobre todo en hilos largos y de pequeña sección. Estudiaremos el comportamiento elástico de los hilos, aquél en el que existe una relación de proporcionalidad entre la fuerza F aplicada al hilo y el incremento DL de su longitud o bien, entre el esfuerzo F/S y la deformación unitaria DL/L0.

Donde S es la sección del hilo S=p r2, y Y es una constante de proporcionalidad característica de cada material que se denomina módulo de elasticidad o módulo de Young


Representando el esfuerzo en función de la deformación unitaria para un metal obtenemos una curva característica semejante a la que se muestra en la figura.

Durante la primera parte de la curva, el esfuerzo es proporcional a la deformación unitaria, estamos en la región elástica. Cuando se disminuye el esfuerzo, el material vuelve a su longitud inicial. La línea recta termina en un punto denominado límite elástico.

Si se sigue aumentando el esfuerzo la deformación unitaria aumenta rápidamente, pero al reducir el esfuerzo, el material no recobra su longitud inicial. La longitud que corresponde a un esfuerzo nulo es ahora mayor que la inicial L0, y se dice que el material ha adquirido una deformación permanente.

El material se deforma hasta un máximo, denominado punto de ruptura. Entre el límite de la deformación elástica y el punto de ruptura tiene lugar la deformación plástica.

Si entre el límite de la región elástica y el punto de ruptura tiene lugar una gran deformación plástica el material se denomina dúctil. Sin embargo, si la ruptura ocurre poco después del límite elástico el material se denomina frágil.

En la figura, se representa el comportamiento típico de esfuerzo - deformación unitaria de un material como el caucho. El esfuerzo no es proporcional a la deformación unitaria (curva de color rojo), sin embargo, la sustancia es elástica en el sentido que si se suprime la fuerza sobre el material, el caucho recupera su longitud inicial. Al disminuir el esfuerzo la curva de retorno (en color azul) no es recorrida en sentido contrario.

La falta de coincidencia de las curvas de incremento y disminución del esfuerzo se denomina histéresis elástica. Un comportamiento análogo se encuentra en las sustancias magnéticas.
Puede demostrarse que el área encerrada por ambas curvas es proporcional a la energía disipada en el interior del material elástico. La gran histéresis elástica de algunas gomas las hace especialmente apropiadas para absorber las vibraciones.

lunes, 11 de octubre de 2010

Cap4 Sistema de Particulas 99-123

Cap 3 Trabajo(W) y Energia(E) 68-84

Cap 2 1- dinamica de una particula

Premio Nobel de Física fue ganado por científicos que descubrieron material con un lápiz y cinta adhesiva

Andre Geim y Konstantin Novoselov, de la Universidad de Machester hallaron el grafeno, una sustancia del carbono que apunta a revolucionar la electrónica
(Foto: University of Manchester)


Estocolmo (Reuters). Dos científicos de origen ruso recibieron el martes el premio Nobel de Física 2010 por demostrar el comportamiento de una sustancia de carbono de un solo átomo de grosor, con implicaciones en áreas que van desde la física cuántica hasta la electrónica de consumo.

*Andre Geim y Konstantin Novoselov *dirigieron experimentos con grafeno, una nueva forma de carbono que es el material más delgado y fuerte conocido.

LA PRINCIPAL RAZÓN
“Ya que es prácticamente transparente y un buen conductor, el grafeno es apropiado para producir pantallas táctiles transparentes, paneles de luz y quizás incluso células fotoeléctricas”, dijo el comité.

Geim, de 51 años, es un ciudadano holandés, mientras que Novoselov, de 36, tiene la doble nacionalidad ruso-británica. Ambos trabajan en la University of Manchester.

COMO SI NADA
Geim, en una conferencia de prensa telefónica, dijo que no esperaba el premio y que no dejaría que la noticia cambiara su rutina.

“Mi plan para hoy es ir a trabajar y terminar unos papeles que no terminé esta semana”, dijo. “Voy a seguir como antes”, agregó.

La pareja extrajo el material súper delgado de una pieza de grafito como la que se encuentra en los lápices comunes, usando cinta adhesiva para obtener una lámina de un átomo de grosor.

“El jugueteo es una de sus peculiaridades, uno siempre aprende algo en el proceso y, quién sabe, incluso podrías hacerte rico”, dijo el comité en su comunicado.

MICROSCÓPICO
Un milímetro de grafito se compone de 3 millones de capas de grafeno apiladas unas sobre otras, aunque se sostienen juntas débilmente, dijo la academia.

“Cualquiera que ha escrito algo con un lápiz normal ha experimentado esto y es posible, cuando lo hicieron, que una única capa de átomos, el grafeno, terminara sobre el papel”, agregó.

El material es casi completamente transparente, pero sin embargo tan denso que ni siquiera el átomo de gas más pequeño puede pasar a través de él. También conduce la electricidad tan bien como el cobre.

SALTO CU
ÁNTICO
La academia dijo que el grafeno ofreció a los físicos la capacidad de estudiar materiales bidimensionales con propiedades únicas e hizo posible experimentos que pueden dar un nuevo giro a la disciplina de la física cuántica.

“También una gran variedad de aplicaciones prácticas ahora parecen posibles, incluida la creación de nuevos materiales y la manufactura de productos electrónicos innovadores”, dijo.

Mencionando algunas aplicaciones posibles, la academia indicó que se esperaba que los transistores de grafeno fueran mucho más rápidos que los de silicio actuales y produjeran computadoras más eficientes.

EL PREMIO
El galardón dotado con 10 millones de coronas suecas (1,5 millones de dólares), concedido por el Comité Nobel para Física en la Real Academia Sueca de las Ciencias, fue el segundo de los premios de este año, después del de Medicina otorgado el lunes a Robert Edwards.

Thomson Reuters predijo en el 2008 que Geim y Novoselov serían probables ganadores.

David Pendlebury, de Thomson Reuters, hace predicciones todos los años basándose en índices de citas, comprobando la frecuencia con la que los estudios publicados de un investigador en particular se usan como base para los trabajos de otros investigadores.

Fuente:ElComercio.pe

Un pequeño asteroide rozará mañana la Tierra


Tiene menos de 10 metros de diámetro y pasará a sólo 38.000 kilómetros, la altura a la que orbitan los satélites meteorológicos
11.10.10 - 20:03 - EL CORREO.COM | BILBAO Imprimir



2010 TD54, un asteroide de menos de 10 metros de diámetro, pasará mañana a las 12.25 horas a sólo unos 38.000 kilómetros de la Tierra. La roca se acercará a nuestro planeta hasta una altura próxima a la que orbitan los satélites meteorológicos y de telecomunicaciones, y una décima parte de la distancia que nos separa de la Luna.
Descubierto el sábado, 2010 TD54 no supone, por su pequeño tamaño, ningún peligro para el ser humano. “La probabilidad de impacto con la Tierra es una entre un millón y, aunque eso ocurriera, no es lo suficientemente grande como para atravesar la atmósfera terrestre y llegar al suelo”, ha explicado Donald Yeomans, director del Programa de Objetos Cercanos a la Tierra de la NASA.
El riesgo de que el pequeño asteroide dañe algún satélite es también próximo cero. “Las probabilidades de que choque contra alguno son más o menos las mismas de que dos motas de polvo elegidas al azar colisionen dentro de un estadio de fútbol americano”, indica en su ‘blog’ el astrónomo Phil Plait.

Fuente

Cap 1 cinematica de una particula 1-31-2010 i

jueves, 7 de octubre de 2010

Richard Phillips Feynman

Richard Phillips Feynman, está considerado como uno de los más importantes científicos de la historia de la Humanidad y ha sido uno de los más populares físicos del siglo XX.

Feynman, nació en la ciudad de New York, EE.UU., el 11 mayo 1918. Su niñez y juventud la pasó en el barrio Far Rockaway en Manhattan, y cuando tenía cerca de 10 años, comenzó a comprar viejas radios para coleccionar sus dispositivos y componentes eléctricos con el objeto de utilizarlos en su «laboratorio personal» y, con tan solo 12 años, ya era capaz de arreglar los desperfectos de las radios de su vecindario. Feynman, a través del desarrollo de una serie de entretenidas ilustraciones describió los acontecimientos que le fueron ocurriendo desde su niñez y durante su vida profesional. Un trabajo autobiográfico que primero fue conocido como la colección Surely You're Joking, Mr. Feynman! Y luego, como The Meaning of It All: Thoughts of a Citizen Scientist and Tuva or Bust!: Richard Feynman's Last Journey.

Finalizada su enseñanza media, Feynman entró a estudiar al Instituto de Tecnológico de Massachusetts (MIT) y, posteriormente a la universidad de Princeton, en donde rindió su tesis de doctorado en física teórica en el año 1942, teniendo como profesor guía a John Wheeler. Su tesis se trató sobre las ondas avanzadas, que se pueden describir como la teoría de las ondas electromagnéticas que viajan «hacia atrás» en el tiempo. Su primera conferencia en Princeton sobre el tema concertó gran interés y una amplia audiencia, en la cual se encontraban nada menos que Einstein, Pauli y von Neumann. Pauli, en esa ocasión, hizo el siguiente comentario:
No pienso que esta teoría pueda ser correcta...
Después de terminar su doctorado, Feynman se fue a la universidad de Cornell en 1945 como profesor de física teórica. Allí, se juntó con Hans Bethe y ambos fueron reclutados para participar en el desarrollo de el proyecto Manhattan. Movilizado y mientras se construía el laboratorio secreto en Los Álamos, Feynman se burló de la disciplina de los militares con una serie de bromas y de raros y prácticos trucos. Estaba empecinado en demostrar la inseguridad de las cajas fuertes de Los Álamos donde se guardaban los planos de la bomba atómica. Sus conclusiones sobre la inseguridad de las cajas las expuso en sus ilustraciones ¡ Surely You're Joking, Mr. Feynman ! Mientras Feynman trabajaba en Los Alamos, su esposa enfermó y murió.

Feynman 1

Terminada la guerra, Feynman fue contratado como profesor visitante en la universidad de Río de Janeiro, Brasil. Posteriormente, en el año 1950, fue nombrado profesor titular de la cátedra de física teórica en el California Institute of Technology, pero dado su encanto por el Brasil una de las «condiciones» que puso para su nombramiento fue la de retornar como visita a ese país antes de ocupar el cargo. En realidad, no comenzó realmente a dictar sus clases en Caltech hasta 1951. Mientras que en el Brasil, Feynman dio, durante diez meses, conferencias sobre el electromagnetismo, al mismo tiempo que se preparaba para desfilar en una escuela de samba de Copacabana en Río de Janeiro.

Al siguiente año, después de haber regresado a Caltech, Feynman volvió a poner su atención en la electrodinámica cuántica, desarrollando con mucho éxito las reglas que deben ser obedecidas por las teorías de campo cuánticas. Durante su trabajo, descubrió la forma de renormalizar la teoría de la electrodinámica cuántica. Junto a lo anterior, inventó los llamados «diagramas de Feynman» para representar sumas de interacciones. Trabajó también en mecánica estadística, en particular en fenómenos de bajas temperaturas como los que presenta helio líquido. Por todas estas contribuciones y, especialmente, por la de la renormalización de la electrodinámica cuántica, Feynman compartió el premio Nobel de 1965 de física con Shin-Ichiro Tomonaga y Julian Schwinger, quienes también contribuyeron a formular el proceso de renormalización de la teoría. Feynman también aportó importantes fundamentos a la teoría de las interacciones nucleares.

DIAGRAMA DE FEYNMAN

Para visualizar y describir las interacciones electrodinámicas cuánticas, Feynman introdujo una forma de dibujos esquemática e ingeniosa conocida como el diagrama de Feynman. En tal diagrama, todas las partículas son representadas por líneas. Con líneas rectas se representan los fermiones y con las onduladas los bosones (a excepción del bosón de Higgs , que es representado generalmente por una línea discontinua, y de los gluones, que son representados generalmente por los lazos).
El diagrama ilustrado arriba corresponde a dos electrones. Cada electrón es representado por una línea recta, que intercambian un fotón (virtual) que después es repelido por otro.

Richard Feynman era poseedor de una vocación innata por la docencia. Como pedagogo siempre estaba buscando la forma de explicar de manera simple lo complicado. Por lo mismo buscaba dictar los cursos de primer año, generalmente desdeñados por sus colegas. Así surgieron los textos «The Feynman's lectures on physics» en los cuales buena parte de la física es recreada o repensada. Además de estos y otros libros científicos de nivel general, publicó una cantidad importante de artículos técnicos sobre sus trabajos de investigación.

Como profesor y científico, la principal preocupación de Feynman siempre estuvo centrada en los sistemas educativos orientados a la física. Durante su visita al Brasil, evaluó el sistema educativo brasileño, escribiendo un ensayo y dando una conferencia sobre él en el último semestre académico del año 1950. También, durante dos años, fue miembro del consejo para la evaluación de libros de matemáticas y de física para las escuelas públicas primarias y secundarias de California. Perfeccionó y fortaleció las enseñanzas de física de pregrado en Caltech, donde sus experiencias que tuvo en sus cuatro años como académico allí fueron recopiladas y editadas en los tres volúmenes de «The Feynman's lectures on physics», que se ha convertido en una inspiración para los estudiantes de física desde que Feynman también publicó un número de popularizaciones de la física, incluyendo QED: The Strange Theory of Light and Matter (La extraña teoría de la luz y de la materia).

Después de la explosión en vuelo del trasbordador de la NASA Challenger, en 1986, Feynman fue designado para participar en el consejo que investigó las causas del desastre. Con su tradicional estilo directo, carente de majaderías, Feynman cortó con la burocracia e identificó la causa del desastre como la falta de un sello anillo (o'ring) en el launch-pad de bajas temperaturas de la nave, incluso remojó un o'ring similar en cubos de hielo de agua delante de otros miembros del comité para probar su conclusión.

En los comienzos de la década de 1980, Feynman desarrolló un cáncer abdominal. Después de una lucha de cinco años, sucumbió en Los Angeles el 15 de febrero de 1988, dos semanas después de dictar su última exposición como docente: su postrera clase versó sobre la curvatura espaciotemporal. Durante su vida, Feynman recibió numerosos meritorios premios, incluyendo el Premio Albert Einstein (1954, Princeton) y el Premio Lawrence (1962). Fue también miembro de la sociedad de física americana, de la asociación americana para el adelanto de la ciencia, la National Academy of Sciences, y fue elegido como miembro extranjero de la Royal Society, Londres (Gran Bretaña) en 1965.