jueves, 4 de diciembre de 2014

Nuevas moléculas para mejorar los dispositivos de memoria

Investigadores de las universidades de Glasgow y Rovira i Virgili informan en la revista Nature cómo diseñar y fabricar dispositivos de memoria basados en moléculas de óxido y metal: los polioxometalatos. La nueva técnica permite reducir el tamaño de las celdas de datos y aumentar el almacenamiento de información, y se podría implementar en memorias flash a escala nanométrica.

La denominada memoria flash es una forma de almacenamiento electrónico de datos que se utiliza en dispositivos como los teléfonos inteligentes y tarjetas de memoria, pero se está llegando a los límites de la cantidad de datos que se pueden 'comprimir' en los chips convencionales.
Ahora un nuevo enfoque presentado en la revista Nature por científicos de la Universidad de Glasgow (Reino Unido) y la Universidad Rovira i Virgili (URV) basado en moléculas puede reducir el tamaño mínimo de las celdas de datos y podría implementarse en dispositivos con memorias flash a escala nanométrica.

Para ver más haz click aquí

Los científicos del CERN observan dos nuevas partículas bariónicas


 
Los investigadores del experimento LHCb del Laboratorio Europeo de Física de Partículas (CERN) han descubierto dos nuevos bariones, un tipo de partículas cuya existencia se había predicho pero que hasta ahora no se habían encontrado. Su nombre, Xi_b'- y Xi_b*.
"Es un resultado emocionante. Gracias a la excelente capacidad de identificación de hadrones del LHCb, único entre los experimentos del LHC, hemos sido capaces de identificar una señal muy clara sobre el fondo", explica Steven Blusk, de la Universidad de Siracusa (EE UU). "Esto demuestra, una vez más, la sensibilidad y la precisión del detector LHCb".

Los bariones (del griego βαρύς, barys, “pesado”) son una familia de partículas subatómicas formadas por tres quarks. Los más representativos, por formar el núcleo del átomo, son el neutrón y el protón; pero también existe otro gran número de bariones, aunque éstos son todos inestables. El nombre de barión se debe a que se creyó, cuando fue descubierto, que poseía una masa mayor que otras partículas.

domingo, 2 de noviembre de 2014

Físico español quiere formar parte del proyecto Mars One

705 candidatos que se disputan las 24 plazas para el plan que pretende establecer una colonia en Marte en el 2025.



José Vicente Díaz, físico de nacionalidad española, está dispuesto a tomar un viaje de ida pero no de vuelta a Marte.
El famoso proyecto Mars One está reclutando a voluntarios para establecer una colonia humana en Marte. Y, ¿por qué iba a querer alguien viajar a Marte para no volver jamás? Según Díaz, "Para pasar a la Historia, poder estudiar ese planeta y contribuir al avance en la Tierra con nuestras investigaciones". Y nada menos que 202.000 personas en todo el mundo quieren formar parte del proyecto y enviaron su solicitud a la fundación de Mars One, que tiene su base en Holanda.

Tras varios procesos de selección, la lista se ha reducido a 705 personas. José Vicente Díaz cuenta que para apuntarse al proyecto, primero tuvo que enviar su currículo y un vídeo de 40 segundos donde exponía por qué quería ir a Marte y por qué se consideraba un buen candidato. También rellenó un test psicológico. Después de esto, solo quedaron 1.050 candidatos. Lo siguiente fue enviar un certificado médico. Se descartaron más candidatos hasta llegar a 705. Mars One informó de que 17 de los voluntarios tienen nacionalidad española.

Según el calendario de Mars One, en 2015 habrán sido seleccionados los 24 voluntarios que, a partir de 2024 irán viajando a Marte en varias fases. Antes tendrán que ser sometidos a un entrenamiento de ocho años para así llegar a convertirse en astronautas.

Díaz se muestra muy entusiasmado con la idea, ya que es un apasionado de la astrofísica y fundador de una empresa de divulgación, Experiencias astronómicas. Supo que su única oportunidad de convertirse en astronauta era este proyecto, así que tras algunas dudas iniciales y el miedo de no volver a la Tierra (pues preferiría un viaje de vuelta), decidió apuntarse.

domingo, 12 de octubre de 2014

Nuevo sistema de detección de meteoroides en el Observatorio de Calar Alto

Este nuevo sistema, colocado en la Sierra de los Filabres, Almería, motoriza el cielo durante toda la noche para identificar la entrada de meteoroides en la atmósfera.


Entre 40.000 y 80.000 toneladas de meteoroides (fragmentos de cuerpos celestes), son interceptados por la Tierra cada año. Algunos se desintegran en la atmósfera, mientras que otros alcanzan la superficie terrestre.
El Observatorio de Calar Alto ahora cuenta con una estación de detección de meteoroides formada por cinco cámaras CCD de alta sensibilidad. La identificación de los meteoroides es inmediata.
Anteriormente, en este observatorio, ya se habían detectado bólidos gracias a las cámaras de vigilancia externa, pero esto es un avance mucho más importante.
Esta nueva estación trabaja en conjunto con otras siete estaciones del proyecto SMART en Andalucía y Castilla la Mancha, y también junto al resto de estaciones de la Red Española de Investigación sobre Bólidos y Meteoritos.
Gracias a los equipos CCD, la órbita que siguen los meteoroides, puede ser calculada. Esto nos permitirá saber de qué objetos del sistema solar proceden.
Además, si impactan contra el suelo, se podrán recuperar debido a que estos equipos determinan en qué lugar han caído los meteoroides.
Y no solo eso, sino que se podrá obtener el espectro de emisión de los bólidos (por el uso de redes de difracción que descomponen la luz que desprenden estos cuerpos al desintegrarse en la atmósfera terrestre). Gracias a esto, se puede determinar su composición química.

domingo, 5 de octubre de 2014

Un estudio británico destaca los análisis nanométricos de la Universidad de Zaragoza


La Real Sociedad de Química de Inglaterra destaca en una publicación una técnica desarrollada en la Universidad de Zaragoza para detectar y caracterizar nanomateriales en el medio ambiente. El método ayudará al control de nanopartículas de origen natural y artificial en suelos, aguas naturales y alimentos.



La Universidad de Zaragoza es la primera institución de España y la séptima del mundo, solo superada por seis centros de Estados Unidos, que más aportaciones ha realizado al desarrollo de nuevas técnicas que ayuden a la detección y caracterización de nanomateriales en el medio ambiente, según el Journal of Analytical Atomic Spectrometry de la Real Sociedad de Química de Inglaterra.
Este destacado posicionamiento se debe a los avances conseguidos por el Grupo de Espectroscopía Analítica y Sensores (GEAS) del Instituto de Investigación en Ciencias Ambientales de Aragón (IUCA), que dirige el catedrático Juan Ramón Castillo. El equipo desarrolló el año pasado una técnica pionera, denominada Single Particle Analysis–ICP–Mass Spectrometry, que permite determinar el tamaño, forma, y composición química de nanopartículas presentes en medios biológicos vegetales y animales, suelos, aguas naturales, alimentos, entre otros, tanto de procedencia natural como artificiales.
Han logrado por primera vez caracterizar el tamaño, forma y composición química de una sola nanopartícula con instrumentación convencional
Su principal aportación es que ha logrado por primera vez, mediante instrumentación convencional, como es un espectrómetro de masas inorgánico, caracterizar el tamaño, forma, y composición química de una única nanopartícula. Este avance ha alcanzado una enorme repercusión mundial, ya que hasta el momento este tipo de estudios se realizaban a partir de la suspensión de una determinada concentración de nanopartículas sin diferenciar.
Este sistema ayudará a conocer mejor los efectos de estos nanomateriales, ya que cada vez es más frecuente su utilización en productos cotidianos en alimentos, fármacos, cosméticos, ropa, electrónica, construcción, aditivos en combustibles fósiles, etc. De hecho, es tal su presencia, que ya son considerados por la Environmental Protection Agency (USA) y por la Unión Europea como contaminantes emergentes medioambientales.
Hasta ahora el trabajo en el campo de los nanomateriales se realizaba a partir de una caracterización, bien visual, mediante microscopios muy potentes, o a través de un análisis químico, pero de una población con un considerable número de nanopartículas sin diferenciar.
Además, esta técnica puede aplicarse de la misma manera tanto en nanopartículas naturales o artificiales, ayudando a avanzar en el conocimiento de los nanomateriales, que han generado avances en ámbitos como la electrónica, biomedicina, alimentación, o la construcción de edificios.

jueves, 25 de septiembre de 2014

Investigaciones: ¿Existen satélites de satélites?

La respuesta es no, o al menos este suceso no se produce en nuestro sistema solar, para que un satélite sea capaz de orbitar a otro planeta es imprescindible que la atracción que sufre el satélite orbitante por parte del satélite del planeta sea mayor que la que sufre por causa del planeta central. 
En el caso de nuestro sistema solar un ejemplo lo podemos ver con planetas con muchos satélites como es el caso de Júpiter, Júpiter, posee 4 lunas o satélites Galileanos, lo que quiere decir que tienen forma esférica, elemento esencial para que pueda existir un satélite orbitando en él. Los 4 satélites Galileanos son Ío, Europa, Ganímedes y Calisto. 
Sin embargo, Júpiter posee además otros satélites de formas irregulares cuyo origen es desconocido por completo, aún así, existe la posibilidad que estos pequeños satélites estuvieran orbitando en un principio alrededor de estos planetas Galileanos ya sea porque surgieron de los propios planetas al producirse un choque con algún cuerpo celeste (meteoros, asteroides, cometas...) o porque algún cuerpo celeste quedara atrapado en su fuerza gravitatoria. 
Lo que si se conoce es que si estos pequeños satélites estaban orbitando alrededor de los satélites Galileanos, actualmente ya no lo hacen. La explicación más sensata proviene de que en un determinado punto de la orbita alrededor de los planetas Galileanos los pequeños satélites fueran atraídos con mayor fuerza por Júpiter, pasando a orbitar alrededor del planeta principal.


En conclusión podemos determinar que es posible que un satélite orbite alrededor de otro satélite siempre y cuando el satélite principal sea Galileano, es decir, esférico, y que la fuerza que el satélite ejerce sobre el satélite más pequeño sea mayor que la que con el planeta central pueda atraerlo en cualquier punto de su orbita alrededor del satélite

miércoles, 24 de septiembre de 2014

Investigaciones: ¿Quién fue Johannes Kepler?

Johannes Kepler fue un científico alemán de principios del S.XVII reconocido principalmente por descubrir las tres leyes referentes al movimiento de los planetas sobre su órbita alrededor del Sol.

Kepler nació en Würtemburg, la actual Alemania, el 27 de diciembre de 1571 en el seno de una familia protestante. A pesar de ser un niño con escasa y débil salud, fue brillante e impresionaba a todos con sus facultades matemáticas, y sus padre le hicieron despertar el interés por la astronomía.

Tras estudiar en los seminarios de Adelberg y Maulbronn, Kepler ingresó en la Universidad de Tubinga (1588). Allí, comienza primeramente por estudiar la ética, la dialéctica, la retórica, griego, el hebreo, la astronomía y la física, y luego más tarde la teología y las ciencias humanas. Cuando aún se creía en el sistema geocéntrico de Ptolomeo, que afirmaba que la Tierra estaba inmóvil y ocupaba el centro del Universo, y que todo giraba a su alrededor, su profesor de matemáticas, el astrónomo Michael Maestlin, le enseñó el sistema heliocéntrico de Copérnico que se reservaba a los mejores estudiantes. Kepler se convirtió en un copernicano convencido y discípulo de Maestlin. Sin embargo, en 1594, interrumpió su carrera teológica al aceptar una plaza como profesor de matemáticas en el seminario protestante de Graz.



La primera etapa en la obra de Kepler se desarrolló durante sus años en Graz. Se centró en los problemas relacionados con las órbitas planetarias, así como en las velocidades variables con que los planetas las recorren, y partió de la concepción pitagórica según la cual el mundo se rige en base a una armonía preestablecida. Tras intentar una solución aritmética de la cuestión, creyó encontrar una respuesta geométrica relacionando los intervalos entre las órbitas de los seis planetas entonces conocidos con los cinco sólidos regulares. Juzgó haber resuelto así lo que él denominó un "misterio cosmográfico" que expuso en su primera obra, Mysterium cosmographicum (El misterio cosmográfico, 1596), de la que envió un ejemplar a Brahe y otro a Galileo, con quien mantuvo una esporádica relación postal y a quien se unió en la defensa de la causa copernicana.

Cuatro años más tarde, la ley del archiduque Fernando contra los maestros protestantes le obligó a abandonar Austria y en 1600 se trasladó a Praga invitado por Tycho Brahe. 
Cuando éste murió repentinamente al año siguiente, Kepler lo sustituyó como matemático imperial de Rodolfo II, con el encargo de acabar las tablas astronómicas iniciadas por Brahe y trabajando frecuentemente como consejero astrológico.

Durante el tiempo que permaneció en Praga, Kepler realizó una notable labor en el campo de la óptica: enunció una primera aproximación satisfactoria de la ley de la refracción, distinguió por primera vez los problemas físicos de la visión y sus aspectos fisiológicos, y analizó el aspecto geométrico de diversos sistemas ópticos. Pero el trabajo más importante de Kepler fue la revisión de los esquemas cosmológicos conocidos a partir del trabajo previo de su antecesor Brahe (en especial, las relativas a Marte), labor que desembocó en la publicación, en 1609, de la Astronomia nova (Nueva astronomía), la obra que contenía las dos primeras leyes de las llamadas leyes de Kepler, relativas a la elipticidad de las órbitas y a la igualdad de las áreas barridas, en tiempos iguales, por los radio vectores que unen los planetas con el Sol.



En 1611 fallecieron su esposa y uno de sus tres hijos; poco tiempo después, tras la muerte del emperador, fue nombrado profesor de matemáticas en Linz. Allí culminó su obra enunciando la tercera de sus leyes, que relaciona numéricamente los períodos de revolución de los planetas con sus distancias medias al Sol; la publicó en 1619 en Harmonices mundi (Sobre la armonía del mundo), como una más de las armonías de la naturaleza, cuyo secreto creyó haber conseguido desvelar gracias a una peculiar síntesis entre la astronomía, la música y la geometría.

Kepler residió en Linz hasta que, en 1626, las dificultades económicas y el clima de inestabilidad originado por la guerra de los Treinta Años lo llevaron al servicio de A. von Wallenstein, en Sagan (Silesia), quien le prometió, en vano, compensarle por la deuda contraída con él por la Corona a lo largo de los años. Un mes antes de morir, víctima de la fiebre, Kepler había abandonado Silesia en busca de un nuevo empleo. Kepler murió en 1630 en Ratisbona, en Baviera, Alemania, a la edad de 59 años.
 

Laura R.


Imágenes obtenidas de: 

Si quieres leer más en profundidad sobre Kepler haz click aquí: http://www-history.mcs.st-and.ac.uk/Biographies/Kepler.html



Investigaciones: ¿Todos los planetas del Sistema Solar giran en el mismo sentido?

Todos los planetas del Sistema Solar recorren sus órbitas alrededor del Sol en sentido contrario al de las agujas del reloj, fenómeno que se conoce como traslación directa. 
Sin embargo, durante los últimos años, los astrónomos han observado que en algunos sistemas solares diferentes al nuestro, la estrella gira en un sentido y los planetas, conocidos como Júpiter Caliente, en otro. Un equipo de investigadores de la Northwestern University ha sido el primero en modelar cómo estos inmensos planetas orbitan tan cerca de su estrella y por qué giran en sentido contrario.

Un Júpiter Caliente es un tipo de planeta cuya masa es muy grande. En concreto, un planeta se considera Júpiter Caliente cuando su masa es superior a la del planeta Júpiter (1.9 × 1027Kg), pero con la diferencia de que donde nuestro planeta Júpiter orbita a una distancia bastante alejada del sol, en el caso de un planeta Júpiter Caliente, éste lo hace unas 100 veces más cerca. Comparándolo con nuestro sistema solar, un Júpiter Caliente está aproximadamente 8 veces más cerca de su estrella, que Mercurio del Sol (Mercurio es el planeta más cercano al Sol en nuestro Sistema Solar).


Desde el año 1995 se han descubierto más de 500 planetas extrasolares (planetas que orbitan otras estrellas). Pero sólo durante los últimos años los astrónomos han podido observar que en algunos de estos sistemas la estrella gira en un sentido y un Júpiter Caliente en el sentido opuesto. Esto desde luego viola todo lo que conocemos sobre la formación de los planetas y las estrellas.

Usando simulaciones a gran escala, este grupo de investigadores ha descubierto que este fenómeno se debe a unas
perturbaciones gravitacionales ocasionadas por un planeta mucho más lejano.
Laura R.
Si quieres leer otra noticia relacionada con los planteas extrasolares haz click aquí: http://www.muyinteresante.es/ciencia/articulo/seis-planetas-que-giran-al-reves

Investigaciones: ¿Cómo se originó el origen de la Luna?

Actualmente hay varias hipótesis acerca de su origen:

Hipótesis de la fisión: supone que originariamente la Tierra y la Luna eran un sólo cuerpo y que parte de la masa de la Tierra fue expulsada, debido a la inestabilidad causada por la fuerte aceleración rotatoria que en aquel momento experimentaba nuestro planeta. La parte desprendida se "quedó" con parte del momento angular del sistema inicial y, por tanto, siguió en rotación, sincronizándose con su periodo de traslación.
Sin embargo, los detractores de esta hipótesis opinan que para poder separarse una porción tan importante de nuestro planeta, éste debería haber tenido una velocidad de rotación (un periodo) de 3h. Esta velocidad parece imposible porque al girar demasiado rápido la Tierra no se hubiese formado al presentar un exceso de momento angular.

Hipótesis de la captura: la Luna era un astro independiente, formado en un momento distinto al nuestro y en un lugar alejado.
La Luna inicialmente tenía una órbita elíptica con un afelio (punto más alejado del Sol) situado a la distancia que le separa ahora del Sol, y con un perihelio (punto más cercano al Sol) cerca del planeta Mercurio. Esta órbita habría sido modificada por los efectos gravitacionales de los planetas gigantes, que alteraron todo el sistema planetario expulsando de sus órbitas a diversos cuerpos, entre ellos, nuestro satélite. La Luna viajó durante mucho tiempo por el espacio hasta aproximarse a la Tierra y fue capturado por la fuerza gravitatoria terrestre.

Sin embargo, es difícil explicar cómo sucedió la importante desaceleración de la Luna, necesaria para que ésta no escapara del campo gravitatorio terrestre.

Hipótesis de la acreción binaria: supone la formación al mismo tiempo tanto de la Tierra como de la Luna, a partir del mismo material y en la misma zona del Sistema solar. A favor de esta teoría se encuentra la datación radioactiva de las rocas lunares traídas a nuestro planeta por las diversas misiones espaciales, las cuales fechan entre 4.500 y 4.600 millones de años la edad lunar, aproximadamente la edad de la Tierra.
Sin embargo, si los dos se crearon en el mismo lugar y con la misma materia: ¿cómo es posible que ambos posean una composición química y una densidad tan diferentes? En la Luna abunda el titanio y los materiales exóticos (olivino, espinela…), elementos no tan abundantes en nuestro planeta.

Hipótesis del impacto: es la preferida en la actualidad. Afirma que la Luna se formó tras la colisión contra la Tierra de un cuerpo de aproximadamente un séptimo del tamaño de nuestro planeta. El impacto hizo que bloques gigantescos de materia saltaran al espacio para posteriormente y, mediante un proceso de acreción (agregación de materia a un cuerpo) similar al que formó los planetas rocosos próximos al Sol, generar la Luna.
Esta teoría también explica la gran inclinación axial del eje de rotación terrestre que habría sido provocada por el impacto.
Tras su formación, la Luna experimentó un periodo cataclísmico en el que sufrió violentos impactos de grandes asteroides. Este período, conocido como bombardeo intenso tardío, formó la mayor parte de los cráteres observados en la Luna. Posteriormente se produjo una época de vulcanismo consistente en la emisión de grandes cantidades de lava, que llenaron las mayores cuencas de impacto formando los mares lunares y que acabó hace 3.000 millones de años.
Lo más dudoso de esta teoría es que tendrían que haberse dado demasiadas coincidencias juntas. La probabilidad de impactar con un astro errante, que la colisión no desintegrase totalmente el planeta y que los fragmentos fuesen lo suficientemente grandes como para poder generar un satélite.


Hipótesis de precipitación: últimamente ha aparecido otra explicación según la cual, la energía liberada durante la formación de nuestro planeta calentó parte del material, formando una atmósfera caliente y densa, sobre todo compuesta por vapores de metal y óxidos. Estos se fueron extendiendo alrededor del planeta y, al enfriarse, precipitaron los granos de polvo que, una vez condensados, dieron origen a la Luna.

Laura R.

Fuentes

Imágenes obtenidas de:



''Investigaciones'', la nueva sección de Física imPRESIONante

!Hola a todos!

Los alumnos de Física del segundo curso de Bachillerato Internacional hemos decidido crear una nueva sección en este blog. Se trata de un apartado llamado ''Investigaciones'', en el que subiremos pequeñas búsquedas acerca de temas y retos propuestos diariamente en clase. Para algunas de estas investigaciones utilizaremos diversas fuentes, mientras que otras se basarán en problemas planteados en clase que resultan curiosos, no son tan ordinarios comos los realizados día a día, y para los que utilizaremos los conceptos estudiados en el aula.

Si queréis acceder a esta nueva sección, solamente tenéis que hacer click en la palabra ''Investigaciones'', que se encuentra el apartado del blog llamado ''Etiquetas''.

Esperemos que disfrutéis y aprendáis con estas investigaciones tanto como nosotros.

¡Saludos!

martes, 23 de septiembre de 2014

Escuchan el sonido de un átomo


Investigadores de la Universidad Tecnológica Chalmers (Suecia) han fabricado un átomo artificial superconductor que emite ondas sonoras. Estas se transmiten por un sólido y se pueden detectar con dispositivos que actúan como micrófonos. De esta forma han comprobado por primera vez que el sonido se puede usar para comunicarse con los átomos, además de demostrar que los fenómenos de física cuántica asociados a los fotones también se pueden analizar con ‘fonones’.

 

Ahora expertos de la Universidad Tecnológica Chalmers (Suecia) han conseguido una interacción similar a los átomos con la luz (en concreto con los fotones), pero con ‘fonones’, es decir, mediante ondas de sonido acopladas a un átomo artificial.

El átomo artificial que han creado es un ejemplo de este tipo de circuitos cuánticos, que se pueden cargar de energía y emitir partículas, pero en lugar de ser en forma de luz como las que emiten los átomos habituales, se hace en forma de sonido. Las vibraciones viajan por la superficie de un sólido y un ‘micrófono’ especial las puede detectar.

La baja velocidad del sonido implica que tiene una longitud de onda corta en comparación con la luz. Un átomo que interactúa con las ondas de luz es siempre mucho más pequeño que la longitud de onda. Sin embargo, en comparación con la longitud de onda del sonido, el átomo puede ser mucho mayor, lo que significa que sus propiedades se pueden controlar mejor. Por ejemplo, se puede diseñar el átomo para acoplar sólo a ciertas frecuencias acústicas o hacer la interacción con un sonido extremadamente fuerte.
Para ver la noticia completa pinche en este enlace: http://www.agenciasinc.es/Noticias/Escuchan-el-sonido-de-un-atomo

lunes, 16 de junio de 2014

Investigadores españoles inventan un simulador cuántico que permite viajes en el tiempo



Expertos en física cuántica en Bilbao han desarrollado un simulador cuántico que permite estudiar viajes en el tiempo, crear partículas más veloces que la luz, abrir la puerta a más dimensiones y, en definitiva, romper las normas más fundamentales de la física. Por inverosímil que parezca, el equipo ha demostrado que la naturaleza puede “imitar” procesos que la propia naturaleza prohíbe. Y por esotérico que esto pueda sonar, este tipo de simulaciones cuánticas abren la puerta a aplicaciones muy reales, como acelerar la creación de ordenadores cuánticos millones de veces más potentes que el mayor de los superordenadores actuales o diseñar moléculas que no existen en la naturaleza y usarlas como nuevos fármacos.
odo comenzó en noviembre de 2009, a última hora de una tarde de viernes, en el grupo de investigación de Enrique Solano. Este físico cuántico, nacido en Perú y con nacionalidad española, y parte de su equipo se hicieron esta pregunta: ¿sería posible que la naturaleza pueda imitar cosas que contradicen sus propias leyes?La respuesta, publicada por primera vez en 2011en Physical Review X, es que sí. “La naturaleza puede imitar cosas imposibles”, asegura ahora Solano, que dirige el grupo de Tecnologías Cuánticas para Ciencia de la Información de la Universidad del País Vasco (UPV/EHU).
“Lo que conseguimos fue el equivalente a meter gol antes de chutar el balón”
Para comprender el alcance de su trabajo hay que hacer un viaje imaginario al mundo cuántico. La puerta de entrada a este mundo es unas cien millones de veces más pequeña que un centímetro y tras ella están las moléculas, los átomos y sus componentes más pequeños como los electrones. A estas escalas reinan las normas de la física cuántica que permiten, por ejemplo, que una partícula esté en dos sitios a la vez, y que, por lo tanto,  pueda teletransportarse. En este mundo cuántico se espera encontrar gran parte de las tecnologías del mañana, nuevos materiales, moléculas, fármacos… El problema es que, en este mundo cuántico, explica Solano, un solo átomo de hidrógeno, el elemento más simple que existe, “tiene un número de variantes infinitas”. Esto hace que sea imposible estudiarlas a la vez ni con todos los superordenadores del mundo juntos.
Ahora, imagine cómo estudiar un nuevo material interesante para la electrónica de consumo, la energía o cualquier otro campo. Imagine que una molécula de ese material está hecha de cien átomos, cada uno con variantes infinitas, y confronte la realidad: es imposible. Ahí es donde entra la simulación cuántica. Esta técnica permite crear sistemas hechos de iones (átomos con carga eléctrica) o fotones que, gracias a las propias leyes de la física cuántica, imitan el comportamiento de esos materiales y moléculas imposibles de estudiar de forma directa.

lunes, 9 de junio de 2014

Plasmones del grafeno, una luz para los dispositivos de nueva generación

Investigadores de CIC nanoGUNE, el ICFO y Graphenea proponen una plataforma tecnológica basada en antenas metálicas que permiten atrapar y controlar la luz en grafeno, un material de un solo átomo de espesor. La luz guiada y confinada en este material, de un solo átomo de espesor, puede ser dirigida y curvada siguiendo la óptica convencional, lo que abre nuevas oportunidades para el desarrollo de dispositivos y circuitos fotónicos más pequeños y rápidos.

 Representación gráfica de la refracción de los plasmones del grafeno –puesta en marcha por una antena de oro minúsculo– al pasar por un prisma de un solo átomo de espesor. / nanoGUNE

Los circuitos y dispositivos ópticos podrían realizar el procesamiento de señales y la computación mucho más rápidamente. "Sin embargo, aunque la luz es muy rápida, necesita demasiado espacio", explica Rainer Hillenbrand, profesor Ikerbasque en nanoGUNE y la Universidad del País Vasco (UPV/EHU). De hecho, la propagación de la luz necesita al menos el espacio de la mitad de su longitud de onda, que es mucho más grande que los componentes electrónicos básicos de última generación en nuestros ordenadores. Por esa razón, surge el desafío de comprimir la luz y controlar su propagación en la nanoescala a través de un material dado.

Una posible solución podría ser el grafeno, material de una sola capa de átomos de carbono con propiedades extraordinarias. La longitud de onda de la luz capturada por una capa de este material puede ser reducida considerablemente, en un factor de 10 a 100, en comparación con la luz que se propaga en el espacio libre. Como consecuencia, esta luz que se propaga a lo largo de la capa de grafenollamada plasmón del grafenorequiere mucho menos espacio. Pero la transformación de manera eficiente de la luz en plasmones del grafeno y su manipulación con un dispositivo compacto es todo un reto tecnológico.

Ahora un equipo de investigadores de nanoGUNE, ICFO y Graphenea demuestra que el concepto de antena comúnmente utilizado para las ondas de radio podría ser una solución. El equipo muestra que una barra de metal de tamaño nanométrico colocada sobre el grafeno puede captar luz infrarroja (actúando como una antena para la luz) y transformarla en plasmones del grafeno, de forma análoga a una antena de radio que convierte las ondas de radio en ondas electromagnéticas en un cable metálico.

Nanoantenas de oro sobre grafeno

El grupo de Nanodispositivos de nanoGUNE fabricó nanoantenas de oro sobre grafeno proporcionado por Graphenea. Posteriormente, el grupo de Nanoóptica utilizó el microscopio de campo cercano NEASPEC para visualizar cómo los plasmones del grafeno se ponen en marcha y se propagan a lo largo de la capa de grafeno. Con el fin de probar si la propagación de luz a lo largo de una capa de carbono de un solo átomo de grosor sigue las leyes de la óptica convencional, los investigadores diseñaron distintos experimentos para enfocar y refractar la luz. Para el experimento de enfoque, curvaron la antena. Las imágenes resultantes mostraron que los plasmones del grafeno se concentran a una cierta distancia de la antena, como cuando un haz de luz se focaliza con una lente o espejo cóncavo.

El grupo también observó que los plasmones del grafeno se refractan (cambian de dirección) cuando pasan a través de una doble capa de grafeno en forma de prisma, de forma análoga a como se flexiona un haz de luz al pasar a través de un prisma de cristal.
En el futuro, tales cambios de conductividad en el grafeno podrían ser establecidos por medios electrónicos simples, lo que permitiría un control altamente eficiente de la refracción, entre otros, para aplicaciones de guiado de luz.

En definitiva, los experimentos muestran que los principios fundamentales y más importantes de la óptica convencional también se aplican a los plasmones del grafeno, es decir, a luz extremadamente comprimida que se propaga a lo largo de una sola capa de átomos de carbono. Los futuros desarrollos basados en estos resultados podrían conducir a circuitos y dispositivos ópticos extremadamente miniaturizados que podrían ser útilizados en aplicaciones de detección y computación.

Fuente: http://www.agenciasinc.es/Noticias/Plasmones-del-grafeno-una-luz-para-los-dispositivos-de-nueva-generacion



lunes, 2 de junio de 2014

La física de un globo en un coche

Si hay un globo de helio en equilibro dentro de un coche cerrado, sujeto por su cuerda, y arrancas para acelerar… ¿Hacia dónde se moverá el globo?


Globo y plomada durante una aceleración



En este link, descubriréis la respuesta que es tan alucinante como sorprendente.



https://www.youtube.com/watch?v=y8mzDvpKzfY



La respuesta es que “arriba” se suele definir como el sentido opuesto al de la caída de la plomada. O dicho en fino, la misma dirección, pero con distinto sentido, que el vector de gravedad local.

Si los globos flotan hacia arriba, y arriba es la dirección opuesta a la que cae la plomada… ¡es normal que el globo y plomada se comporten justo al revés!
Todo este asunto da pie a hablar de un asunto profundísimo (demasiado para tratarlo en el presente artículo): ¿por qué una aceleración parece cambiar la dirección de la gravedad? Muchos de ustedes sabrán que, precisamente, la gravedad es una aceleración. Pero, ¿no es ésto un poco raro?, ¿la aceleración no tenía que ver con movimiento?
Aunque no lo crean, observaciones aparentemente sencillas como éstas encierran el germen de nada más y nada menos que la teoría de la relatividad general… con sus exóticas y fascinantes conclusiones: entre las que se encuentran la indistinguibilidad entre masa inercial y masa pesante, y la indistinguibilidad entre gravedad y aceleración. Piensen en ello la próxima vez que suban a un coche con un globo, o, más probablemente, cuando se peguen al asiento de su coche al pisar el acelerador.

http://naukas.com/2014/05/19/la-fisica-de-un-globo-en-un-coche/

lunes, 26 de mayo de 2014

Un nuevo método de criptografía cuántica bloquea los intentos de espionaje

En 1984 se presentó el primer protocolo de criptografía cuántica, una forma segura de intercambiar información privada explotando las propiedades de la mecánica cuántica, pero requiere seguir el rastro que dejan los espías. Ahora investigadores japoneses se han dado cuenta de que existe una fórmula para evitar los intentos de espionaje en lugar de detectarlos.



La nueva distribución cuántica de claves (QKD) impide a los espías obtener información para decodificar el mensaje. / Nature

La distribución cuántica de claves (QKD, por sus siglas en inglés) que se usa en criptografía cuántica de forma habitual se basa en el principio de incertidumbre de Heisenberg, que señala cómo el solo hecho de medir en un sistema ya lo perturba. Si un espía actúa en estos sistemas puede leer la señal, pero deja una huella que los usuarios legítimos usan para contraatacar y hacer el sistema más seguro.

Investigadores de la Universidad de Tokio (Japón) han desarrollado un protocolo o nueva QKD que funciona con un principio diferente, según publican en la revista Nature. “En lugar de detectar los intentos de espionaje, los evita; de tal forma que el espía no puede leer mucho aunque se lo proponga”, explica a Sinc el investigador principal, Masato Koashi.

El científico pone un ejemplo: “El método convencional es como tener una fábrica poco fiable, donde sus productos deben someterse a pruebas estrictas para pasar el control de calidad. Sin embargo, el nuevo método es como tener una fábrica fiable que asegura hacer buenos productos”.

El nuevo protocolo no requiere monitorizar las perturbaciones en las señales, ni medir su influencia en el sistema. Las ecuaciones y algoritmos que tienen detrás simplemente impiden a los espías obtener información suficiente para decodificar el mensaje, además de simplificar los procedimientos. En situaciones donde aumenta el ruido del canal o se acortan los tiempos de comunicación, también actúa mejor que los protocolos tradicionales.

Según los autores, otro hecho sorprendente es que la nueva idea se puede implementar en un interferómetro convencional con un láser corriente. El esquema de criptografía cuántica propuesto consiste en lanzar impulsos de luz, que se dividen en dos caminos. En uno de ellos se induce un retardo y mediante detectores de fotones se miden los resultados.

El nuevo protocolo de criptografía cuántica se puede experimentar con un interferómetro convencinal y lanzando pulsos láser. / Laboratorio Koashi - Universidad de Tokio


domingo, 18 de mayo de 2014

Las propiedades de los vidrios a bajas temperaturas duran millones de años

En un trabajo publicado en Physical Review Letters, físicos de la Universidad Autónoma de Madrid (UAM) estudiaron muestras de ámbar de más de 110 millones de años de edad: sólidos en estado vítreo que han sufrido un extraordinario proceso de envejecimiento y estabilización termodinámica. Las muestras de ámbar fueron tomadas de El Soplao, una cueva en Cantabria cuya formación se remonta al Cretácico y que hoy alberga en sus 20 kilómetros de longitud gran cantidad de particulares formaciones geológicas.
En el Laboratorio de Bajas Temperaturas de la UAM los investigadores caracterizaron las propiedades termodinámicas de estas muestras y midieron su calor específico a temperaturas hasta por debajo de 0,1 kelvin. Por otra parte, se realizaron medidas complementarias de velocidad del sonido de las mismas muestras en el Instituto de Ciencia de Materiales de Madrid (CSIC) mediante una técnica de espectroscopía llamada Brillouin.
Cueva de El Soplado, Cantabria. / Wikipedia

“La idea era comparar estas y otras propiedades físicas de los vidrios vírgenes de ámbar hiperenvejecido con las de las mismas muestras, a medida que se les iba borrando gradualmente su historia térmica a base de procesos de calentamiento, hasta llegar finalmente a un vidrio completamente rejuvenecido después de haber hecho pasar al ámbar por el estado líquido”, explica Miguel Ángel Ramos, investigador del departamento de Física de la Materia Condensada de la UAM y director del trabajo.
El ámbar podría ayudar a esclarecer muchas incógnitas que todavía hoy tenemos sobre el estado vítreo.
Estos experimentos permitieron a los expertos demostrar que las dos características más importantes y omnipresentes de los sólidos vítreos a bajas temperaturas (la presencia de sistemas de tuneleo de dos niveles y el llamado 'pico bosónico') persisten esencialmente sin cambios en estos vidrios altamente estabilizados, al contrario de lo que generalmente se pensaba durante los últimos cuarenta años.
“El hallazgo más llamativo de nuestro trabajo fue observar que la densidad de sistemas de dos niveles, quizás la más conocida de las anomalías universales de los sólidos amorfos a muy bajas temperaturas, es exactamente la misma en el ámbar virgen superestabilizado termodinámicamente y en las muestras posteriormente rejuvenecidas, que son por tanto vidrios convencionales”, declara Tomás Pérez Castañeda, del departamento de Física de la Materia Condensada de la UAM, y quien realizó la mayor parte de los experimentos como parte de su tesis doctoral.
Según señalan también los autores de la investigación, el ámbar podría servir en un futuro próximo como material modelo de gran utilidad para esclarecer muchos otros rompecabezas que continúan jalonando las investigaciones de la física del estado vítreo, mucho más desconocida y debatida que la correspondiente al estado cristalino.

domingo, 11 de mayo de 2014

Se reescriben las leyes que determinan cómo el polvo modifica la luz que nos llega de las estrellas

El medio interestelar presenta polvo que provoca que los objetos parezcan menos luminosos y más rojos de lo que en realidad son. Ahora investigadores del Instituto de Astrofísica de Andalucíam (CSIC) y otros centros internacionales han dado con la forma de corregir este efecto.


La nebulosa 30 Doradus. Fuente: J. Maíz-Apellániz, N. Walborn y R. Barbá.

Conocer las propiedades de una estrella podría ser tan sencillo como tomar una imagen y medir su brillo (lo que se conoce como fotometría) si el medio que atraviesa nuestra línea de visión fuera transparente. Pero el medio interestelar se halla salpicado de polvo, que absorbe y dispersa la luz y provoca que los objetos parezcan menos luminosos y más rojos -o fríos- de lo que en realidad son. Un efecto que, con un trabajo que acaba de publicarse, por fin puede corregirse de forma eficaz.
"En la longitud de onda de la luz que ven nuestros ojos, el visible, de cada billón de fotones emitidos por una estrella en el centro de la Vía Láctea solo uno consigue alcanzarnos -señala Jesús Maíz Apellániz, investigador del Instituto de Astrofísica de Andalucía (IAA-CSIC) que encabeza la publicación-. Este es un ejemplo extremo de cómo el polvo afecta a la luz de las estrellas, un fenómeno que se produce con menos intensidad pero sin excepción en todos los entornos".
Las limitaciones de las leyes empleadas desde 1989 para corregir este efecto, que inducen a errores en la caracterización de las estrellas, hacían necesario un relevo
Así, en todas las observaciones astronómicas deben corregirse los efectos del polvo antes de intentar extraer las características de un objeto. Y el investigador del IAA, junto con un grupo internacional de colaboradores, comprobó que las leyes empleadas hasta ahora para calcular la extinción de la luz producida por el polvo, que datan de 1989, presentaban importantes limitaciones y, entre otras cosas, aportaban estimaciones de temperatura erróneas para las estrellas. De modo que asumieron la tarea de cambiar esas leyes.
El método ideal para ello residía en disponer de un grupo de objetos cuyas características (brillo, temperatura...) se conocieran de antemano de manera fidedigna mediante espectroscopía y compararlas con las que aporta la fotometría sometida a la corrección con las leyes de extinción tradicionales. Así, cualquier desviación permitiría detectar los errores y corregir las leyes. Los investigadores, que comenzaron este trabajo hace seis años, partieron de una primera muestra de mil estrellas y la redujeron hasta ochenta y tres objetos "idóneos".
Tras someter esta muestra a distintos experimentos, que confirmaron las grandes desviaciones que producen las leyes de extinción de 1989, desarrollaron una versión actualizada que, por ejemplo, reduce a un tercio los errores en la determinación de temperaturas.
De hecho, los resultados de las nuevas leyes se acercan a la precisión de los que se obtienen gracias a la espectroscopía, que se mantiene como el mejor método para estudios detallados. "Sin embargo, gracias a este trabajo podemos obtener estimaciones de temperatura aceptables mediante fotometría, con la ventaja de que esta técnica permite estudiar más objetos por unidad de tiempo", destaca Maíz Apellániz (IAA-CSIC).
La investigación llega en el momento oportuno, ya que unas leyes de extinción limitadas impiden explotar la gran calidad de los datos que obtienen los instrumentos actuales, como el telescopio espacial Hubble. Además, nos hallamos en una época en auge para los sondeos fotométricos masivos, como la misión GAIA, que observará mil millones de estrellas de la Vía Láctea, para los que este trabajo será clave.

lunes, 21 de abril de 2014

Incumplimiento de la segunda ley de la termodinámica

Mirar una película al revés a menudo causa gracia porque sabemos que los procesos en la naturaleza no suelen revertirse. La ley física que explica este comportamiento es la segunda ley de la termodinámica, que postula que la entropía de un sistema, una medida de su desorden, nunca disminuye de forma espontánea. Esto favorece el desorden –alta entropía– frente al orden –baja entropía–.
Sin embargo, cuando nos adentramos en el mundo microscópico de los átomos y las moléculas, esta ley pierde su rigidez absoluta. De hecho, a escalas nano la segunda ley puede ser violada de forma temporal en algunas raras ocasiones, como por ejemplo la transferencia de calor desde un sistema frío a uno caliente.
Ahora un equipo de físicos del Instituto de Ciencias Fotónicas (ICFO) de Barcelona, el Instituto Federal Suizo de Tecnología de Zúrich (Suiza) y  la Universidad de Viena (Austria) han logrado predecir con exactitud la probabilidad de eventos que violan de forma temporal la segunda ley de la termodinámica.
Los bloques que forman las células o los dispositivos nanotecnológicos están expuestos a colisiones, un ambiente fluctuante donde las leyes de la termodinámica se necesitan reescribir
Idearon un teorema de fluctuación matemática y lo pusieron a prueba utilizando una pequeña esfera de cristal, menor a 100 nm en diámetro, y atrapándola y levitándola mediante luz láser.
De esta forma se logró capturar la nanoesfera y mantenerla levitando en su lugar, así como medir su posición en las tres dimensiones del espacio con extrema precisión. Dentro de la trampa, la nanoesfera se mantiene en movimiento debido a colisiones con las moléculas de gas circundantes.
Utilizando una técnica para manipular la trampa de láser, los científicos lograron enfriar la nanoesfera por debajo de la temperatura del gas circundante, conduciéndola a un estado de inestabilidad. Después apagaron la refrigeración y observaron como la partícula lograba relajarse hacia una mayor temperatura a través de la transferencia de energía desde las moléculas de gas a la esfera.
Sin embargo, observaron que la pequeña esfera de cristal en ocasiones excepcionales no se comporta como debería según la segunda ley de la termodinámica: en vez de absorber calor, lo libera al gas de alrededor, que se encuentra más caliente.

El resultado y el teorema planteado confirma la existencia de limitaciones en la segunda ley a escala nanométrico, y sugiere su revisión. En este nanomundo se mueven objetos como los bloques constituyentes de las células vivas o dispositivos nanotecnológicos, que están expuestos continuamente a un zarandeo aleatorio debido al movimiento térmico de las moléculas que están a su alrededor. Según los autores, el marco teórico y experimental, publicado en la revista Nature Nanotechnology, puede tener aplicaciones en esos campos.
A medida que la miniaturización se acerca cada vez más a escalas nanométricas, las nanomáquinas experimentarán condiciones cada vez más aleatorias. Por tanto, los estudios futuros buscarán entender a fondo la física fundamental de los sistemas a nanoescala fuera de equilibrio. La investigación será fundamental para ayudar a comprender cómo las nanomáquinas se comportan en esas condiciones fluctuantes.