Latest Posts:

Mostrando las entradas con la etiqueta nature. Mostrar todas las entradas
Mostrando las entradas con la etiqueta nature. Mostrar todas las entradas

2 de junio de 2023

Siete de los nueve umbrales que permiten la vida humana sobre la Tierra ya han sido sobrepasados

Un informe cuantifica los límites climáticos, naturales y de contaminantes que aseguran el mantenimiento seguro y justo de la civilización.


Un amplio grupo de científicos identificó en 2009 nueve límites que los humanos no deberían sobrepasar si quieren que la Tierra siga siendo acogedora para la civilización. Ahí estaban, entre otros, el agua dulce disponible, el área natural que se conserva, los niveles de contaminación, la capa de ozono y, cómo no, el cambio climático. Ahora, un nuevo informe publicado en Nature cuantifica por primera vez los umbrales para cada uno de estos problemas que no deberían sobrepasarse para que el sistema terrestre sea seguro para los humanos. Siete de ellos ya han sido sobrepasados en todo o en amplias zonas del planeta. La imagen apocalíptica la suaviza el hecho de que de la lista se ha caído el agujero en la capa de ozono troposférico: la humanidad fue capaz de resolver el problema a tiempo.

El informe identificó aquellos límites para que el sistema Tierra, entendido como un ecosistema global, fuera sostenible y seguro. Se escribió entonces que, si se pasaban de forma generalizada, se sucederían una serie de cambios catastróficos. Pero desde entonces, a la seguridad se le ha unido otra idea: el sistema Tierra no será seguro si no es también justo. Es una de las aportaciones de este nuevo informe, la cuantificación de la justicia entre los humanos, el resto de los seres vivos y las futuras generaciones.

“Los seres humanos somos parte del sistema Tierra. Somos gran parte del problema y tenemos que ser gran parte de la solución”, resume Noelia Zafra, coautora del trabajo. “Pero los problemas y las soluciones no afectan a todos por igual y existen algunos seres humanos que asumen las inconveniencias de sostener el sistema Tierra, mientras que otros mayormente se benefician. También ocurre que unos pocos generan problemas para muchos”, añade esta investigadora del BC3, el centro vasco de investigación sobre el cambio climático.

Es el caso, por ejemplo, de las emisiones que están provocando ese cambio climático. Su aumento se remonta al inicio de la Revolución Industrial y sus principales protagonistas, Europa y América del Norte, son sus mayores responsables. Incluso ahora, que los países emergentes como China comienzan a tener gran cuota de responsabilidad, la mitad de las emisiones de gases de efecto invernadero proceden del 10% más rico de la población. “No podremos actuar juntos para afrontar la crisis climática y de biodiversidad si no partimos todos de la misma situación y existe conflicto entre nosotros”, añade Zafra.

El artículo completo en: El País (España)

 

23 de mayo de 2018

El calentamiento global está alterando las corrientes oceánicas y las consecuencias serán aterradoras


Nos adentramos en terreno desconocido con esto, reconocen los científicos, porque se trata de un cambio de tal magnitud que aunque podemos predecir que no será agradable, es difícil saber exactamente lo que va a pasar.

Ese cambio es la alteración de las corrientes oceánicas que mueven el agua y con ello distribuyen por todo nuestro planeta el calor y la humedad que dan forma al clima. Si las corrientes cambian o se detienen... Bueno, desde luego no será un cambio suave y tranquilo, de eso podemos estar seguros.

Científicos de la Universidad de Southhampton llevan una temporada mirando con preocupación a la circulación de retorno meridional atlántica (AMOC), una de las principales implicadas en el movimiento de las aguas oceánicas a nivel global, y lo que han visto, publicado en la revista Nature, es más que preocupante.

El artículo completo en:

Xakata Ciencia

6 de abril de 2016

Evolución: Una única regla ha regulado el desarrollo de los dientes

A lo largo de la evolución el tamaño de los dientes ha ido decreciendo, incluso continúa en los humanos modernos, con dentadura más pequeña que sus antepasados, por ejemplo los australopitecus. Pero, ¿qué es lo que ha regulado y regula la dimensión de los dientes?: una “misma y simple” regla de desarrollo.


Cráneo de Homo ergaster (Kenia) y analizado en este estudio. Imagen: David Hocking facilitada por Nature.


Los investigadores, liderados por Alistair Evans, de la Universidad Monash (Australia), han llamado a esta “elegante” regla “cascada inhibitoria”, según la cual el tamaño de cada diente es regulado por la cantidad de moléculas activadoras e inhibidoras que proceden del diente que se desarrolla con anterioridad a éste.

A mayor cantidad de inhibición por parte de un molar, los que se desarrollen después serán más pequeños, y viceversa.

Las conclusiones de este trabajo se publican esta semana en la revista Nature.

“Uno de los hallazgo más interesantes de este nuevo estudio es que el tamaño de los dientes, incluyendo los molares, en los humanos modernos y los homínidos fósiles se ajusta a las predicciones de una sola regla de desarrollo simple y elegante llamada ‘cascada inhibitoria’”, explica Gary Schwartz, coautor de este trabajo y paleoantropólogo en la Universidad Estatal de Arizona (EEUU).

El tamaño de un molar es el que regula el desarrollo de sus vecinos

En una nota de esa universidad, la investigadora Susanne Daly añade: bajo esta simple regla -anteriormente constatada en ratones- el tamaño de un molar es el que regula el desarrollo de sus vecinos, limitando así el tamaño de los dientes posteriormente en desarrollo.


Los investigadores han llamado a esta ‘elegante’ regla ‘cascada inhibitoria’.

Sin embargo, esto empieza con anterioridad: la regla general es que un molar que se desarrolla antes tiene una influencia sobre un molar que lo hace después. Como los molares de leche crecen antes que los permanentes, esto implica que los dientes de leche también tienen una influencia sobre el tamaño de los dientes permanentes.

Para llegar a estas conclusiones, se examinaron restos fósiles de piezas dentales de homínidos de los últimos 5 millones de años.

Si bien la regla de “cascada inhibitoria” se cumple en los primeros homínidos y en los miembros del género Homo, los científicos sí establecen dos patrones distintos: uno para australopitecus y otro hace 2,8 millones de años, cuando se sitúa al género Homo.

Dos patrones

Así, según este patrón, los primeros homínidos, conocidos colectivamente como astralopitecus -el mejor ejemplo es “Lucy”, un miembro de la especie Australopithecus afarensis-, tenían dientes más grandes en general y el molar de mayor tamaño se situaba más cerca de la parte posterior de la boca (permanentemente el mayor era el segundo o tercer molar, llamada también muela de juicio).
Sin embargo, los restos fósiles de nuestro propio género no solo desvelan que éstos tenían los dientes más pequeños, sino que los molares cambian según el tamaño de la dentadura (los tamaños relativos de las muelas comenzaron a depender del tamaño total de la dentición).

Así, en especies con dientes muy grandes, el molar más grande es el tercero (o muela del juicio), mientras que en especies con dientes muy pequeños el tercer molar es más pequeño que el resto.
Los resultados son relevantes más allá del estudio de los dientes fósiles, ya que estos dientes pueden ser útiles para identificar mecanismos que operan en otros sistemas formados por la repetición de elementos, como vértebras, costillas o dedos, señala Aída Gómez-Robles, de la Universidad George Washington, en un artículo de opinión también publicado en Nature.

Fuente:

EFE Ciencia

25 de diciembre de 2015

El semen del chimpancé es más fuerte que el humano



El cromosoma Y en chimpancés ha evolucionado para priorizar la producción de esperma de calidad.

El primer análisis en detalle del cromosoma masculino Y de los chimpancés acaba de desvelar una evolución vertiginosa que diferencia al hombre de su pariente vivo más cercano, según desvela hoy un estudio en Nature. El trabajo echa por tierra las teorías que asumían que este paquete de ADN sufre una lenta pero constante pérdida de genes que hará que el sexo en humanos se determine de una forma distinta a la actual en unos 14 millones de años, un parpadeo en la evolución. 

"Creemos que esa teoría no se sostiene", explica a Público Jennifer Hughes, investigadora del Instituto Tecnológico de Massachusetts y coautora del estudio. Su equipo acaba de demostrar que el cromosoma Y humano no ha perdido ni un solo gen desde que la especie se separó de los chimpancés en el árbol de la evolución, hace unos seis millones de años. También demuestran que los chimpancés sí han perdido muchos de esos genes hasta quedarse con un cromosoma Y muy diferente al de los hombres. Esto implica un cambio evolutivo en tiempo récord, mucho más rápido que el del resto de los genomas de ambas especies, muy similares.

Cambios evolutivos

La mayor parte de los cambios evolutivos encontrados se encuentran en zonas cuya función es producir esperma. Aunque los autores aún ignoran porqué, aventuran que gran parte podría deberse a los diferentes usos de apareamiento de monos y humanos.

Los chimpancés tienen un sistema de apareamiento en el que muchos machos copulan con la misma hembra receptiva, explica Hughes. "Esto significa que la competición es intensa y sólo el macho que produce más y mejor esperma conseguirá fertilizar el óvulo y pasar su legado a la siguiente generación", detalla. A esto se suma que el cromosoma Y siempre tiene que bailar solo, pues es el único que no intercambia fragmentos de su ADN con otros cromosomas y sólo se renueva remezclando y duplicando fragmentos propios. El resultado, especulan los autores, es que, al priorizar la producción de esperma, los chimpancés han perdido genes que se han conservado en el hombre. A cambio, el cromosoma Y humano "tal vez esté más expuesto a cambios que borran genes de la fertilidad masculina", comenta Hughes. Su equipo analizará el cromosoma Y de otros primates como el macaco en busca de nuevas diferencias.

Un cromosoma que no es tan decadente

Algunos estudios señalan que el cromosoma Y humano sufre una lenta decadencia y pierde más de cuatro genes cada millón de años.

Esto supondría que los humanos desarrollarían un nuevo sistema para determinar su sexo en unos 14 millones de años.

El nuevo estudio lo niega, tras comparar en detalle a humanos y chimpancés.

La investigación demuestra que el hombre no ha perdido ni un solo gen desde hace seis millones de años.

El trabajo añade que el cromosoma Y ha evolucionado mucho más rápido que los demás hasta ser muy diferente en ambas especies

Fuente:

Publico

7 de enero de 2015

Desarrollan antibiótico que destruye bacterias sin generar resistencia


Un grupo de investigadores desarrolló un nuevo antibiótico que destruye las bacterias sin que éstas desarrollen resistencia al mismo, según un artículo que publicó hoy la revista científica británica "Nature". 

El compuesto es efectivo frente a los patógenos que han desarrollado resistencia a otros medicamentos. Además, los científicos no observaron que estas bacterias generaran rechazo alguno. Los investigadores, de diversas instituciones universitarias de Alemania y Estados Unidos, bautizaron el nuevo compuesto como "Teixobactin", un producto al que bacterias como los estafilococos o las de la tuberculosis no generan resistencia. Según los expertos que han participado en la investigación, coordinados por el profesor de la universidad Northeastern de Boston (EEUU) Kim Lewis, las propiedades de este compuesto abren el camino para desarrollar nuevos antibióticos que eviten la resistencia. Lewis explicó que la resistencia desarrollada a los antibióticos "está provocando una crisis en los sistemas sanitarios públicos". 

También, el profesor explicó que han probado el compuesto en varios animales infectados y han obtenido resultados esperanzadores. "Este descubrimiento es una fuente prometedora para desarrollar antibióticos en el futuro y una oportunidad para relanzar la investigación en este campo", subrayó Lewis. Respecto a si es posible que los patógenos muestren oposición al antibiótico en el futuro, los científicos reconocieron en su artículo que es "difícil" de predecir, pero que, en caso de ocurrir, podría tardar varias décadas en aparecer. La motivación del estudio, señalan en el informe, es la rápida resistencia que han desarrollado los patógenos para hacer frente a los fármacos. Esta resistencia es más veloz que la introducción de nuevos antibióticos en el proceso clínico, lo que ha provocado una situación de crisis en los sistemas de salud públicos mundiales, aseguran. 

"Teixobactin" mata a las bacterias al destruir las paredes de sus células, un método similar al que ya utilizaba la vancomicina, descubierta en la década de los 50 y contra la que los patógenos no fueron capaces de desarrollar resistencia hasta después de 30 años. El nuevo antibiótico tiene estos efectos positivos frente a las bacterias debido a que combina varios objetivos, por lo que los científicos consideran que la resistencia de los patógenos podría tardar más en aparecer que en el caso de la vancomicina. 

Fuente:

EMOL

10 de enero de 2014

Calentamiento Global: La temperatura global aumentará unos 4°C para el año 2100

Cielo nuboso en Galicia tras la entrada de un temporal en diciembre.
Cielo nuboso en Galicia tras la entrada de un temporal en diciembre. EFE
Las temperaturas medias globales aumentarán por lo menos 4° C para el año 2100 y, potencialmente, más de 8° C para 2200 si las emisiones de dióxido de carbono no se reducen, según una nueva investigación publicada en la revista Nature. Los científicos hallaron que el climático global es más sensible al dióxido de carbono de lo que se señala en la mayoría de las estimaciones previas.

Esta nueva investigación también parece resolver uno de los grandes temas desconocidos de la sensibilidad climática, el papel de la formación de nubes y si esto va a tener un efecto positivo o negativo sobre el calentamiento global. La clave para esta estimación se puede encontrar en las observaciones en el mundo real de todo el papel del vapor de agua en la formación de nubes.

"Anteriormente, las estimaciones de la sensibilidad de la temperatura global a una duplicación del dióxido de carbono oscilaron entre 1,5° C y 5° C. Esta nueva investigación habla de que las temperaturas medias globales aumentarán entre un 3° C a 5° C, con una duplicación del dióxido de carbono", dijo el autor principal, Steven Sherwood, del Centro de Excelencia para el Clima de la Universidad de Nueva Gales del Sur.

Las observaciones muestran que cuando el vapor de agua es absorbido por la atmósfera a través de la evaporación, las corrientes ascendentes pueden elevarse a 15 kilometros para formar nubes que producen lluvias intensas o se elevan a pocos kilómetros antes de regresar a la superficie sin formar nubes de lluvia.

Fuente:

El Mundo Ciencia

3 de agosto de 2013

Metano del Ártico podría tener fuerte impacto en la economía mundial

Un nuevo estudio revela que la liberación de grandes cantidades de metano del permafrost en el Ártico podría tener repercusiones económicas de gran magnitud.

El costo podría ser de US$60 billones, según investigadores de la Universidad de Cambridge, en Inglaterra, y de la Universidad Erasmus, en Holanda.

El aumento de los gases de efecto invernadero en la atmósfera podría acelerar el derretimiento del hielo en el mar y ocasionaría la subida de la temperatura en el planeta. Esto incrementaría el riesgo de inundaciones, el aumento en el nivel del mar e incluso traería problemas de salud en la población. Los efectos ocasionados por eventos como los descritos con anterioridad fueron los cuantificados por los científicos.

El estudio, publicado en la revista Nature, señala que aproximadamente el 80% del costo sería asumido por los países en vías de desarrollo, ya que sequías, lluvias y fenómenos naturales de gran intensidad, afectarían la economía de esas naciones.

Fuente:

BBC Ciencia

18 de noviembre de 2012

Por qué el cerdo come de todo



Un equipo internacional investigadores ha secuenciado el genoma del cerdo, además del de varios jabalíes y de razas domésticas de China y Europa, un trabajo que tendrá implicaciones en biomedicina y que, entre otras cosas, explica por qué el cerdo "come de todo".

En este trabajo, que constata además que la separación entre el jabalí asiático y el europeo fue hace un millón de años, participan más de 40 instituciones y 150 científicos de 12 países, entre ellos Miguel Pérez Enciso, de la Universidad Autónoma de Barcelona (UAB) y del Centro de Investigación en Agrogenómica GRAG.

Los resultados se publican en Nature y el estudio ha sido liderado por las Universidades de Wageningen (Holanda), Edimburgo (Reino Unido) e Illinois (EEUU).

Para Pérez Enciso, este trabajo, que identifica unos 21.000 genes en línea con resultados en otros mamíferos, ha supuesto "un hito en la genómica animal y sus implicaciones a nivel científico, tecnológico y biomédico pronto se harán notar".

El cerdo es una de las especies ganaderas económicamente más importante, junto con el bovino y el pollo, y era la única de estas tres que aún quedaba por secuenciar, ha informado la UAB en una nota.

En cuanto a las implicaciones en biomedicina, los científicos detallan que el cerdo contiene varias mutaciones cuyo efecto en humanos se ha asociado a aumentos de riesgo de padecer enfermedades tales como alzheimer, diabetes y dislexia.

Asimismo, esta secuenciación también permitirá estudiar con más detalle los riesgos de los xenotransplantes (transplantes con tejidos de especies distintas de la humana).

El cerdo es la especie que presenta un mayor número de genes funcionales relacionados con el olfato, lo que demuestra la importancia de este sentido en la especie, según este trabajo, que demuestra que la evolución de muchos genes relacionados con la percepción del sabor ha sido distinta en el cerdo y otras especies como la humana.

De hecho, el cerdo es capaz de comer alimentos que otras especies no pueden -el cerdo no es sensible al sabor amargo-. "Estos resultados, por tanto, explican por qué el cerdo realmente come de todo", según la UAB.

El interés de secuenciar animales de China y de Europa es que la especie, "Sus scrofa", apareció en el sudeste asiático hace unos 4 millones de años y desde allí se extendió hacia casi toda Eurasia, incluyendo Europa y norte de África.

Los científicos datan que la separación entre el jabalí asiático y el europeo se produjo hace un millón de años, aproximadamente. Posteriormente, hace diez mil años al menos, el hombre domesticó el cerdo a partir del jabalí. Esta domesticación ocurrió de forma independiente en múltiples localidades europeas y chinas.

Con los viajes de los portugueses a Asia y, sobre todo, con los de los ingleses a partir del siglo XVI, se comenzaron a importar cerdos chinos a Europa y se empezaron a cruzar con los cerdos europeos.

Estos cerdos híbridos, a su vez, dieron lugar dos siglos más tarde a las razas porcinas internacionales que hoy conocemos. Los investigadores demuestran algo que era ya sabido, pero lo cuantifican:aproximadamente un 30% del genoma de razas internacionales es de origen chino. En cuanto al cerdo ibérico, lo que se sabe es que no fue cruzado con razas asiáticas.

El trabajo de Nature sugiere que hay genes en esta raza que han estado sujetos a procesos de selección propios, entre ellos genes relacionados con el metabolismo de las grasas

Fuente:

26 de noviembre de 2011

El agua puede permanecer en estado líquido hasta los -48,33 ºC

El agua pura en estado líquido puede empezar a congelarse a temperaturas muy inferiores a 0 ºC, tras un cambio estructural previo en el que algunas moléculas se organizan en tetraedros. Estas estructuras, de localización aleatoria, determinan el ritmo de la formación de hielo a temperaturas de hasta -48,33 ºC, según un estudio que esta semana publica Nature.


La caja está llena de agua líquida (blanco). El líquido súper enfriado empieza a convertirse en ‘hielo intermedio’ (verde), de camino a la congelación (rojo), en una temperatura muy inferior a los 0 ºC. Finalmente se congela a -48,33 ºC. Imagen: Universidad de Utah.


¿Cuál es la menor temperatura a la que puede ‘resistir’ el agua líquida antes de convertirse en sólido? Un grupo de científicas de la Universidad de Utah (EE UU) han analizado con técnicas computacionales los factores que controlan la formación de hielo en agua ‘súper enfriada’ y ha comprobado que aguanta hasta los -48 ºC sin congelarse.

El cambio de estado de agua líquida a sólida, comienza en una región pequeña con un proceso llamado nucleación. En ese punto se crean los primeros cristales, sobre los cuales arranca el fenómeno de solidificación del líquido.

Las impurezas que a menudo lleva el agua actúan como núcleos que inducen su cristalización. Sin embargo en el agua pura, donde no hay partículas ni cristales que actúen como núcleos, es necesario que caigan mucho más las temperaturas para que se produzca una nucleación homogénea de hielo.

“En temperaturas cercanas a los -50 ºC la cristalización ocurre de manera muy rápida. Por encima de esta temperatura, el ritmo de formación de hielo está limitado por la capacidad de crear minúsculas semillas de hielo, a partir de las cuales crece la congelación”, explica a SINC Valeria Molinero, coautora del estudio y química de la Universidad de Utah.

Hasta ahora, se había conseguido observar experimentalmente este estado líquido súper enfriado del agua pura con temperaturas cercanas a la de nucleación, pero el mecanismo de cristalización del hielo no se había descifrado. Se desconocía tanto el tamaño como la estructura del núcleo crítico, donde empieza el proceso.

“La rapidez con la que el agua a muy bajas temperaturas cambia de estado está determinada por la transformación previa de la estructura del agua líquida en una disposición similar al hielo, aunque todavía desordenada”, explica la investigadora. “La formación de hielo está determinada por la movilidad de las partículas”.

Las investigadoras de la Universidad de Ohio han estudiado este proceso mediante simulaciones con ordenador, y han observado que está determinado por un cambio de estructura, en la que predominan las moléculas ligadas en forma de tetraedro, donde cada una está unida debilmente a las otras cuatro.

“El agua es un liquido anómalo. Por ejemplo, decrece su densidad con temperaturas más bajas que -40 ºC, y aumenta su capacidad calorífica”, señala Molinero. “Nosotras hemos mostrado que estas extrañas propiedades vienen del proceso intermedio de cambio de estructura”.

Agua líquida a menos de 0 ºC

El cambio de estado en el agua pura no sucede siempre a 0 ºC, como nos enseñan en el colegio. “0 ºC es la temperatura de fusión. La congelación ocurre en este punto cuando hay algún sustrato que ayude a la formación de los primeros cristales, sobre los que crecerá el hielo”, detalla Molinero. En esa región pequeña pero estable se produce el fenómeno de nucleación, que da comienzo al cambio de fase.

Las impurezas del agua actúan como ‘disparadores’ que inducen la cristalización, pero en sistemas puros la temperatura puede descender muy por debajo de los 0º (hasta los -48,33 ºC, según estos recientes resultados).

Las científicas han observado un cambio de estructura intermedio, entre el agua líquida y sólida, caracterizada por la disposición de las moléculas en tetraedros. “La sustancia cambia físicamente, en una forma en la que cada molécula de agua está ligada de manera flexible a otras cuatro moléculas, parecida a la del hielo, y que determina la temperatura en la que se congela el líquido”, describe Molinero.

El aumento de la proporción de las cuatro partículas coordinadas entre sí en la masa todavía líquida provoca la cristalización. “El cambio de fase no está controlado solo por la temperatura, sino también por la transformación estructural del líquido”, afirma la investigadora.

Computación del líquido

El proceso de cristalización se inicia súbitamente cuando se alcanza la temperatura requerida, con una velocidad tan alta que dificulta su observación. Las investigadoras han utilizado modelos computacionales de agua, bastante sencillos, sobre los que han podido realizar simulaciones del líquido súper enfriado.

“Los ordenadores, a través de la simulación, nos han dado una visión microscópica que los experimentos por ahora no pueden alcanzar”, asegura Molinero.

Estos resultados hacen posible prever la rapidez de la cristalización del agua, lo que puede ser útil para desarrollar modelos predictivos de ritmos y temperaturas de congelación del agua en materiales complejos o en condiciones particulares.

Fuente:

Agencia SINC

4 de octubre de 2011

El Polo Norte también tiene su agujero de ozono

Niveles de ozono sobre el Polo Norte, en marzo de 2011. | Nature

Niveles de ozono sobre el Polo Norte, en marzo de 2011. | Nature

  • Algunas zonas perdieron hasta el 80% de ozono en la primavera de 2011
  • Una presencia inusualmente larga de aire frío en altura acelera el fenómeno
  • También hubo más niveles de gases dañinos para el ozono que en otros años
  • Los gases clorados que dañan el ozono fueron prohibidos a finales de los 80
  • La atmósfera todavía sufre el efeto de los químicos liberados hace décadas

La pérdida de ozono sobre el océano Ártico este año ha sido tan severa que por primera vez se le puede llamar "agujero de ozono", afirma un grupo de científicos que acaba de publicar sus conclusiones en la revista 'Nature'. Aseguran también que la pérdida de ozono en el norte este año es equiparable a la que ocurre desde hace tiempo sobre la Antártida. Hay que tener en cuenta que hasta ahora, cuando se hablaba de pérdida de ozono era en el hemisferio sur, pero este fenómeno no había sido noticia en el extremo norte del planeta.

A una altura de 20 kilómetros sobre el Polo Norte, el 80% del ozono se ha perdido, afirman los científicos. La causa ha sido una presencia inusualmente larga de aire frío a gran altura además de una mayor cantidad de gases destructores del ozono sobre la zona. Los compuestos clorados producidos por el hombre que destruyen el ozono son mucho más activos en ambientes fríos. Las causas de la pérdida de ozono han sido por tanto relativamente circustanciales, por lo que es imposible saber si el fenómeno observado este año se repetirá en próximas ocasiones.

La destrucción del ozono atmosférico por la presencia de compuestos clorados ocurre en primavera sobre las dos regiones polares. Sin embargo, puesto que esa estación es relativamente más templada en el Polo Norte que en el sur, los daños no son tan graves en aquel como en éste y la mayoría de los años la disminución de la capa de ozono es mucho menor en el Ártico que en la Antártida.

Sin embargo, el trabajo aparecido en 'Nature' revela que este año, en determinadas altitudes, el periodo de bajas temperaturas en el Ártico duró 30 días más que cualquier otro invierno ártico, dando lugar a una destrucción de ozono sin precedentes. Para determinar los factores que motivaron que este periodo de bajas temperaturas fuera tan persistente serán necesarios otros estudios.

'Durante el invierno 2010-11, las temperaturas diarias no alcanzaron valores más bajos que en anteriores inviernos árticos', ha afirmado Gloria Manney, autora principal del estudio, que pertenece al Jet Propulsion Laboratory de la NASA de Pasadena (California), y al New Mexico Institure of Mining and Technology, de Socorro (Nuevo México). "La diferencia con respecto a anteriores inviernos es que las temperaturas extremadamente bajas persistieron durante un periodo mayor. Esto implica que si en el futuro las temperaturas estratosféricas disminuyeran ligeramente, como resultado del cambio climático, por ejemplo, la pérdida de ozono del Ártico podría ocurrir con mayor frecuencia.»

Gloria Manney, del California Institute of Technology, es la autora líder del artículo aparecido en 'Nature'. Los autores han analizado los datos de ozono sobre el Polo Norte a finales de 2010 y comienzos de 2011 y aseguran que la pérdida de este gas supera cualquier observación científica anterior.

En la investigación han participado científicos de 19 instituciones de nueve países (Estados Unidos, Alemania, Países Bajos, Canadá, Rusia, Finlandia, Dinamarca, Japón y España) que han analizado datos procedentes de un amplio conjunto de medidas. Se han empleado observaciones diarias de gases y nubes facilitadas por los satélites de la NASA Aura y CALIPSO, datos de ozono medidos por globos instrumentados, datos meteorológicos y modelos atmosféricos.

La aportación española corrió a cargo del Instituto Nacional de Técnica Aeroespacial (INTA), que desde 1991, en colaboración con el Instituto Meteorológico Islandés, participa en proyectos europeos para la medida de destrucción de ozono en la región Sub-Ártica, realizando sondeos de ozono desde la base de Keflavik (Islandia).

Salvados gracias al acuerdo de Montreal

El ozono es una forma de oxígeno que se acumula de forma natural en la la parte alta de la atmósfera - desde los 15 a los 35 kilómetros por encima de la superficie de la Tierra - y protege la vida en la Tierra de los rayos ultravioleta solares.

Ciertos gases clorados producidos industrialmente por el hombre - CFCs - tienen la capacidad de destruir este ozono. El Protocolo de Montreal, que entró en vigor en 1989, fue un acuerdo internacional para dejar de usar y producir estos gases, que se empleaban como refrigerantes para frigoríficos o como propelentes para sprays, y sustituirlos por otros que no dañaran el ozono. El Protocolo de Montreal fue un éxito, pues se consiguió retirar del mercado mundial esos dañinos productos y frenar el problema.

Si dos décadas después el ozono sigue desapareciendo es porque los gases clorados o CFCs tienen una larga vida en la atmósfera. Los daños que se observan hoy se deben a los gases que se emitiron antes de la prohibición y que aún perduran. Los científicos, de hecho, aseguran que el agujero de ozono seguirá haciéndose mayor en las próximas décadas, y que no será hasta 2050 cuando empiece a remitir. Será para entonces cuando hayan desaparecido los CFCs emitidos en el pasado por el hombre. De no haberse prohibido su uso en 1989, el problema se habría acelerado y durado para siempre.

De hecho, la autora líder del estudio en 'Nature', Gloria Manney ha manifestado que sin el Protocolo de Montreal, los niveles de cloro serían ya tan altos que en el Ártico se formaría también cada primavera un agujero de ozono.

La persistencia en la atmósfera de las sustancias químicas que destruyen la capa de ozono implica que los agujeros de ozono de la Antártida, y la posibilidad de una futura pérdida severa de ozono en el Ártico, puedan seguir ocurriendo durante décadas, asegura el INTA en comunicado de prensa.

Fuente:

El Mundo Ciencia

30 de septiembre de 2011

La noticia de los neutrinos superlumínicos de OPERA en Nature y en Science

Adrian Cho nos cuenta que la mayoría de los físicos ha mirado con incredulidad el resultado obtenido por los físicos de la colaboración OPERA (Oscillation Project with Emulsion-tRacking Apparatus). Las apuestas apuntan a un “error sistemático” no identificado aún. Pero no todos opinan lo mismo, algunos ven en dicho resultado una oportunidad única para proponer nuevas extensiones del modelo estándar. V. Alan Kostelecky, físico teórico de la Universidad de Indiana, Bloomington, EE.UU., inventó hace 15 años el Modelo Estándar Extendido (SME) que viola la teoría de la relatividad introduciendo un “campo de fondo” que actúa de “sistema de referencia preferido.” Si dicho campo de fondo solo actúa sobre los neutrinos, Kostelecky afirma que su teoría explica el resultado observado por OPERA. Su teoría no permite el envío de información hacia al pasado, evitando los problemas de causalidad que implica la existencia de neutrinos superlumínicos. Según Cho, el resultado de OPERA podrá repetido en menos de un año en MINOS (Main Injector Neutrino Oscillation Search), en la mina de Soudan (Minnesota), que recibe neutrinos del Fermilab (Fermi National Accelerator Laboratory), en Batavia, Illinois (yo creo que Cho peca aquí de optimista). También podrá ser repetido por el experimento japonés T2K (Tokai to Super-Kamiokande), en el que se estudian neutrinos producidos por el JPARC (Japan Proton Accelerator Research Complex) en Tokai, dirigidos hacia los detectores localizados ne la mina de Kamioka. Nos lo ha contado en Adrian Cho, “Special Relativity: From Geneva to Italy Faster Than a Speeding Photon?,” News & Analysis, Science 333: 1809, 30 September 2011.

El rumor surgió en un blog el 15 de septiembre, el artículo fue liberado el 22 y la rueda de prensa en el CERN fue el 23, aunque el resultado se descubrió en marzo de 2011. “Han pasado los últimos 6 meses tratando de buscar un error en su análisis, pero no lo han encontrado, por lo que han liberado sus resultados para recabar la ayuda de toda la comunidad,” afirma Dario Autiero, del Instituto de Física Nuclear en Lion (IPNL), Francia, coordinador de OPERA. Algunos físicos senior de la colaboración, como Caren Hagner de DESY, han preferido no firmar el artículo de OPERA; según Hagner era necesario haber seguido chequeando el resultado durante más tiempo antes de hacerlo público. OPERA está en boca de todo el mundo, ya el anuncio sobre los neutrinos superlumínicos ha generado una expectación mediática sin precedentes. Sin embargo, “la mayoría de los físicos sospechan que hay errores sistemáticos sutiles, aún por descubrir, pues el experimento es muy complicado,” como recuerda Rob Plunkett del experimento MINOS (Main Injector Neutrino Oscillation Search) en el Fermilab, cerca de Chicago. La mayoría de las dudas apuntan a dos elementos, la sincronización mediante GPS y las diferencias entre la forma de la señal en el CERN (el tren de protones) y en Gran Sasso (el tren de neutrinos). Nos lo ha contado Eugenie Samuel Reich, “Speedy neutrinos challenge physicists. Experiment under scrutiny as teams prepare to test claim that particles can beat light speed,” News, Nature 477: 520, 29 September 2011.

En mi opinión personal, la fuente del error puede estar en el ajuste del frente de los trenes de protones y de neutrinos. En óptica no lineal, cuando se observa la propagación superlumínica de señales siempre es debido a este problema, definir correctamente cuando ha llegado el tren de fotones (paquete de ondas) debido a que su forma no coincide con el tren emitido y utilizar el mismo criterio en ambos no está justificado. Para los aficionados al deporte quizás ayude saber que este problema es el mismo que el de la foto finish. Se supone que el instante de llegada del corredor es cuando su pecho supera la línea de meta, pero que pasa si el atleta torsiona su cintura al llegar y lo que se observa en la foto finish es la llegada del hombro; o si estira el brazo y lo que llega primero a meta es la parte del pecho cercana al cuello; o que si pasa si hay atletas más altos y más bajos; cuándo llegó el centro del pecho a cruzar la línea es un problema que requiere el criterio de los jueces de la competición y este criterio puede variar de un juez a otro. La forma del frente del tren de protones (donde se inicia la cuenta de tiempos en el CERN) se utiliza como referencia (línea roja) y se ajusta a la forma del frente del tren de neutrinos (donde finaliza la cuenta de tiempos en Gran Sasso). Obviamente, los científicos de OPERA han considerado esta posibilidad en detalle, pero en este tipo de experimentos la duda siempre surge. Abajo os muestro la figura original de los frentes y la misma figura con la línea roja en blanco, ¿por dónde dirías que debería pasar la línea roja? Por cierto, la incertidumbre horizontal de los puntos de unos 50 ns y se ha medido una diferencia de tiempos de solo 60 ns. No quiero decir nada más. Entre los que opinan como yo recomiendo leer a Jon Butterworth, “Those faster-than-light neutrinos. Four things to think about,” Life and Physics, 24 sep. 2011.



Fuente:

Francis Science News

31 de agosto de 2011

Las primeras imágenes de la órbita de un electrón

Hace 2 años escasos desde que IBM nos mostró por primera vez la imagen tridimensional de una molécula con sus enlaces y todo.

Hoy podemos ver la órbita que traza un electrón en torno al núcleo. Se acabaron las hipótesis y los modelos de representación, esto, señoras y señores, es la fotografía atómica. Y aún hay más.

Empecemos aclarando que las imágenes son en blanco y negro, además de por otras cuestiones técnicas, porque en esencia las moléculas no tienen color.

El microscopio atómico que ha recogido estas imágenes ha podido captar esas bandas grisáceas ocasionadas por el rastro del electrón al girar alrededor del núcleo de su molécula. Estos avances en la técnica de captación de imágenes subatómicas permite aventurar importantes progresos en campos como la química y la biología molecular al poder “ver” y ni simplemente “imaginar” la propia estructura molecular y los enlaces que se producen entre sus componentes. ─[Nature]

Tomado de:

Gizmodo

18 de mayo de 2011

Investigadores de la UPC obtienen hidrógeno a partir de etanol y luz solar

Los resultados de este proyecto se publican esta semana en la revista científica 'Nature Chemistry'


Investigadores de las universidades Politécnica de Catalunya (UPC), de Aberdeen (Escocia) y de Auckland (Nueva Zelanda) han conseguido producir hidrógeno como fuente de energía a partir de etanol y luz solar.

Los resultados de este proyecto se publican esta semana en la revista científica Nature Chemistry, ha informado este lunes en una nota la Universidad Politécnica de Catalunya. Jordi Llorca, director del Instituto de Técnicas Energéticas e investigador del Centro de Investigación en NanoIngeniería de la UPC, es uno de los autores del trabajo.

En la investigación se ha desarrollado un fotocatalizador en polvo que facilita y abarata el proceso de producción de hidrógeno, ya que se hace a temperatura y presión ambientales.

Este fotocatalizador sólido se inserta en un recipiente con etanol y se expone a luz ultravioleta con agitación, simulando la parte más energética del espectro solar. Este dispositivo contiene un semiconductor de dióxido de titanio que, en contacto con la luz del sol, genera electrones que son capturados por nanopartículas metálicas de oro, que reaccionan con las moléculas de alcohol para producir el hidrógeno.

Hasta ahora, la obtención de hidrógeno a partir de la luz solar se había basado, en la mayoría de los casos, en la utilización de agua, si bien los rendimientos generados con esta técnica son muy bajos y el precio de los materiales necesarios en el proceso de producción, elevado, se indica en el comunicado.

La cantidad de hidrógeno que se puede producir con el nuevo proceso y la energía que se puede generar depende de la cantidad de catalizador que se utilice y del área expuesta a la radicación solar.

Los investigadores han obtenido hasta 5 litros de hidrógeno por kilo de catalizador en un minuto, aunque precisan que si se ponen 9 kilos de este nuevo catalizador en un depósito de etanol y se expone a la luz solar, se obtiene hidrógeno para conseguir una potencia eléctrica de 3 kilowatios, similar a la que requiere una vivienda.

Llorca prevé comenzar pronto a diseñar reactores optimizados para aplicaciones reales, como proveer de electricidad una vivienda, y considera que esta investigación supone "un paso importante para introducir el hidrógeno como vector energético y liberarnos progresivamente de la dependencia de los combustibles fósiles". La ventaja del hidrógeno sobre la electricidad es que se puede almacenar.

Fuente:

La Vanguardia

15 de abril de 2011

La vida emergió del mar 500 millones de años antes de lo pensado


Los organismos eucariontes que se desarrollaron en el suelo terrestre pudieron emerger del mar antes de lo pensado, según un estudio del Colegio de Boston en Weston (Estados Unidos) que se publica en la revista 'Nature'.

Los investigadores, dirigidos por Paul Strother, describen en su trabajo microfósiles descubiertos en rocas de mil millones de años de antigüedad en el noroeste de Escocia, 500 millones de años antes de lo estimado. Estos microfósiles son estructuras multicelulares diversas con paredes orgánicas y que miden hasta un milímetro de longitud.

Los autores también proporcionan evidencias de que estos eucariotas simples vivieron en hábitats de agua dulce y que estuvieron expuestos al aire en hábitats fuera del agua.

La vida se originó en el mar hace más de 3.000 millones de años, sin embargo, los primeros signos de vida en tierra firme no se han definido con claridad. La identificación de eucariontes en las localizaciones no marinas descritas en el trabajo actual indica que la evolución de los eucariontes en el suelo pudo haber comenzado mucho antes de lo pensado.

Fuente:

Europa Press

25 de febrero de 2011

Genoma Humano, una década después

Nature ha analizado la revolución que ha supuesto el estudio del genoma humano, donde describe la evolución de la investigación en este campo en la última década.




En el año 2000 se conocían menos de cien genes implicados en patologías, actualmente la lista se ha ampliado a más de 2800 genes responsables de patologías, lo que ayuda al diagnóstico precoz de estas enfermedades. Entre la información que ha podido descifrarse del proyecto "genoma humano" cabría destacar que, aunque se calculaba un cifra alrededor de los 100000, el número de genes que contiene nustro ADN es de 21000.

Además, el descubrimiento de los microRNAs, que son pequeños fragmentos genéticos con un papel clave en el desarrollo de algunos tumores y otras enfermedades, así como el estudio de los polimorfismos de un único nucleótido (SNP, Single Nucleotide Polymorphism), han sido fundamentales para avanzar en el conocimiento de múltiples fenómenos de origen genético.

En la actualidad, diversos proyectos tienen como objetivo el catalogar todas las secuencias génicas analizadas, teniendo en cuenta el tipo celular, las interacciones génicas, mutaciones... entre ellos, cabría destacar The Encyclopedia of DNA Elements (ENCODE).

Si quieres ampliar esta noticia, puedes dirigirte a Nature o elmundo.es

Tomado de:

Últimas Noticias

23 de febrero de 2011

El cactus que caminaba

Investigadores chinos hallan una forma de vida desconocida que puede ser el antepasado de los artrópodos modernos.



Medía unos seis centímetros de largo, tenía el cuerpo blando como un gusano, diez pares de espinas robustas y probablemente apéndices articulados. Esa extraña criatura que se parecía más a una planta que a un animal pudo ser hace 500 millones de años el antepasado de los artrópodos modernos -animales con patas articuladas, como las arañas y los crustáceos-, el grupo biológico que ha tenido más éxito en el mundo animal. Los científicos han bautizado a esta forma de vida desconocida hasta ahora como el «cactus caminante», por su apariencia vegetal y los fuertes miembros sobre los que conseguía desplazarse. Su descripción aparece detallada por primera vez en la revista «Nature».

Su origen es todavía un misterio. Un equipo internacional de investigadores, en su mayoría expertos de universidades chinas, encontraron los fósiles de tres especímenes completos y otros treinta parciales de esta criatura, de nombre científico Diania cactiformis, en el sudoeste de China. Nunca habían visto nada semejante. Los investigadores sugieren que puede ser el pariente más cercano de los artrópodos, una gran familia a la que hoy pertenecen más de un millón de especies, en su mayoría insectos.


Portada de la revista Nature

Este «cactus rampante» compartía muchas de sus características con los lobopodios, un grupo de organismos parecidos a gusanos con patas que florecieron en el Cámbrico, la época de la Tierra en la que se produjo la gran explosión de la vida y, repentinamente, se distinguieron organismos pluricelulares complejos. Sin embargo, esta especie poseía algo distinto a sus congéneres que la convierten en algo único: sólidos apéndices con elementos articulados. Estos apéndices la hacían más parecida a los artrópodos modernos que cualquier otro ser de la época registrado hasta ahora. En su descripción, los científicos citan un cuerpo blando de seis centímetros compuesto por nueve fragmentos, ausencia de boca, diez pares de espinas robustas y lo más llamativo, unas patas rígidas que parecen articuladas.

Los investigadores creen que es probable que las extremidades de esta criatura se endurecieran antes que el cuerpo, una forma de evolución que, de momento, no se puede extrapolar a todos los artrópodos.

Fuente:

ABC

22 de febrero de 2011

El plancton fue clave para hacer respirable la atmósfera en la Tierra


Investigadores que estudian el origen de la primera atmósfera respirable de la Tierra se han concentrado en el importante papel desempeñado por criaturas tan diminutas como el plancton. En un artículo que aparece en la edición digital de Proceedings, el investigador de la Universidad Estatal de Ohio Matthew Saltzman y sus colegas muestran cómo el plancton proporciona un enlace crítico entre la atmósfera y los isótopos químicos atrapados en las rocas hace 500 millones de años.

Este trabajo se basa en un descubrimiento previo del equipo respecto a que cambios en la corteza terrestre iniciaron una especie de efecto invernadero inverso hace 500 millones años que enfrió los océanos del mundo, dio lugar a una gigante eclosión de plancton, y envió una ráfaga de oxígeno en la atmósfera.

El nuevo estudio ha revelado detalles sobre cómo el oxígeno llegó a desaparecer de la antigua atmósfera de la Tierra durante el Periodo Cámbrico, sólo para volver a niveles más altos que nunca. También alude a cómo, después de extinciones masivas, el oxígeno en grandes cantidades permitió a la vida volver a florecer.

Saltzman y su equipo fueron capaces de cuantificar la cantidad de oxígeno que se liberaba en aquella atmósfera, y vincular directamente la cantidad de azufre en los océanos antiguos con el oxígeno atmosférico y el dióxido de carbono. El resultado es una imagen más clara de la vida en la Tierra en un momento de crisis extrema.

"Sabemos que los niveles de oxígeno en el océano se redujeron drásticamente [una condición llamada anoxia] durante el Cámbrico, y que coincide con un momento de extinción global", dijo Saltzman, profesor asociado de Ciencias de la Tierra.

En un artículo en la revista Nature el mes pasado, los mismos investigadores presentaron la primera evidencia geoquímica de que la anoxia se extendió incluso a las aguas poco profundas. "Todavía no sé por qué la anoxia se extendió por todo el mundo. Puede que nunca lo sepamos", dijo Saltzman. "Pero ha habido muchos eventos de extinción en la historia de la Tierra, con la excepción de los causados por impactos de meteoritos, que cambian el equilibrio de oxígeno y dióxido de carbono en la atmósfera y los océanos"

"Al conseguir una manija en lo que estaba sucediendo en aquel entonces, podemos mejorar nuestra comprensión de lo que está pasando ahora a la atmósfera."

Algo de oxígeno pudo volver a entrar en los océanos y la atmósfera hace 500 millones de años, y el estudio sugiere que pequeñas plantas y formas de vida animal conocidas como plancton fueron la clave.

El plancton puede estar en la parte inferior de nuestra cadena de alimentos de hoy, pero en aquel entonces, gobernaba el planeta. Aparte de la abundancia de los trilobites, la vida en los océanos no era muy diversa.

No fue diversa hasta que un evento geológico que provocó el entierro de grandes cantidades de materia orgánica en los sedimentos oceánicos y que retiró dióxido de carbono de la atmósfera y liberó oxígeno.

Cuanto más oxígeno llegaba a las células del plancton, más selectivamente convertían el isótopo ligero del carbono en dióxido de carbono, y lo incorporaban dentro de sus cuerpos.

Mediante el estudio de isótopos en el plancton fósil en las rocas que se encuentran en el centro de Estados Unidos, el interior de Australia y China, los investigadores determinaron que este evento ocurrió casi al mismo tiempo que una explosión de la diversidad del plancton conocida como la "revolución de plancton". "La cantidad de oxígeno se recuperó, al igual que la diversidad de la vida", explicó Saltzman.

Otros investigadores han tratado de medir la cantidad de oxígeno que había en el aire durante el Cámbrico, pero sus estimaciones han variado ampliamente, desde un pequeño tanto por ciento hasta un 15-20 por ciento. Si las estimaciones más altas fueran correcta, entonces el evento habría aumentado el contenido de oxígeno a más del 30 por ciento o casi un 50 por ciento más rico que el estándar actual del 21 por ciento.

Este estudio ha proporcionado una nueva perspectiva sobre el asunto. "Hemos sido capaces de reunir líneas independientes de evidencias que muestran que si el contenido total de oxígeno fue de alrededor de un 5-10 por ciento antes del evento, y a continuación, se elevó a justo por encima de los niveles actuales por primera vez después del evento", dijo Saltzman.

El estudio tiene relevancia para la geoingeniería moderna. Los científicos han comenzado a investigar lo que podemos hacer para prevenir el cambio climático, y alterando la química de los océanos podría ayudar a eliminar el dióxido de carbono y restaurar el equilibrio de la atmósfera. El plancton sería una parte necesaria de la ecuación, añadió.

Fuente:

Europa Press

2 de febrero de 2011

Ya casi revelan el secreto de la eterna juventud

Este post no vende cremas antiarrugas ni pociones mágicas o milagrosas, aunque según su título así pudiera parecer. Sí se refiere, sin embargo, a la posibilidad de ser eternamente jóvenes, pero va contado desde un punto de vista científico, mas no estético, así que nada de bótox ni cirugías plásticas involucradas.

Resulta que un estudio publicado en la Revista Nature, realizado por un equipo de científicos del Instituto de Cáncer Dana-Faber, en Estados Unidos, detalla cómo habían revertido el proceso de envejecimiento en ratones. Ojo: Revertido, es decir, que no se trataba de “detener” el proceso de vejez, sino de prácticamente, retroceder el tiempo.

Explica la BBC que para lograrlo los investigadores se enfocaron en los cromosomas dentro del núcleo de las células, específicamente en los telómeros, ubicados en los extremos de los cromosomas, y cuya función es proteger a los cromosomas de los daños y coordinar la multiplicación o división celular.

Con el paso del tiempo, los telómeros se van reduciendo hasta que las células ya no son capaces de replicarse y por ende van envejeciendo sin tener sustitutas. En el experimento, los investigadores manipularon la enzima que regula a los telómeros, llamada telomerasa, logrando obtener resultados “sorprendentes”, según explicaron:

Lo que esperábamos era un retraso o estabilización del proceso de envejecimiento (…) Pero en vez de eso observamos una reversión drástica en los signos y síntomas del envejecimiento: Vimos que el cerebro de estos animales aumentó de tamaño y mejoraron sus capacidades cognitivas. Su pelaje recuperó su apariencia brillante y sana y su fertilidad también resultó restaurada”.

Claro está, tampoco la idea es que nos hagamos ilusiones tan apresuradas, ya que recordemos que se trató de un estudio con ratones, por lo que aplicar el procedimiento en seres humanos es aún un desafío por realizar… Y es que el gran problema es que mientras unos científicos aún trabajan en descifrar cómo se produce el proceso de envejecimiento, pues todavía no se sabe con absoluta, otros dedican sus esfuerzos en probar tratamientos para revertir la vejez.

Este experimento puede ofrecer datos interesantes no solo para revertir el proceso de envejecimiento, sino en todo lo referente a la investigación sobre el cáncer y su tratamiento, así que sin lugar a dudas esperaremos conocer pronto nuevos avances en la materia, aunque mientras sigamos envejeciendo… Ahora bien, suponiendo que esta u otra investigación similar lleguen a feliz término: ¿Cómo crees que nos impactará saber que podemos ser “eternamente” jóvenes?

Con infrmación de:

Fayer Wayer

23 de septiembre de 2010

Las células se comunican a distancia a través de nanotubos

El descubrimiento ayudará a comprender la coordinación celular en la formación embrional o la complejidad del cerebro

Un equipo de científicos de Noruega ha descubierto que diversos tipos de células pueden comunicarse a distancia, gracias al intercambio de señales eléctricas a través de nanotubos o cables de tamaño nanométrico. Este descubrimiento revela un nivel más de comunicación intercelular, que podría explicar el funcionamiento coordinado de las células en el desarrollo de los embriones e, incluso, la gran complejidad de la actividad neuronal del cerebro.



Células comunicándose unas con otras a distancia a través de un nanotubo. Foto: Xiang Wang y Hans-Hermann Gerdes.

Científicos noruegos han descubierto que las células pueden comunicarse a distancia intercambiando señales eléctricas a través de nanotubos, que son estructuras tubulares de un diámetro extremadamente pequeño (un nanómetro equivale a la milmillonésima parte de un metro).

Dichos nanotubos contendrían proteínas de la familia de la actina, que son unas proteínas que se encargan de formar microfilamentos, además de favorecer otras funciones celulares esenciales, como la movilidad y la contracción de la célula durante la división celular.

Según publica la revista Nature, la comunicación intercelular a través de estos nanotubos implicaría asimismo la formación de “uniones gap”, que son los nexos que permiten la conexión eléctrica entre células.

Mayor conexión celular

El presente descubrimiento podría ayudar a comprender mejor una serie de eventos celulares complejos, como el desarrollo de los embriones o la actividad neuronal, explican los investigadores.

Hasta ahora, se creía que el intercambio celular de señales eléctricas era un sistema de comunicación rápido pero limitado, que se daba sólo en células del corazón y del cerebro.

Sin embargo, dado que se ha descubierto que muchos tipos de células forman estos nanotubos y uniones gap con ellos, parece que la comunicación celular eléctrica podría ser algo generalizado.

Según Hans-Hermann Gerdes, biólogo de la Universidad noruega de Bergen y uno de los autores de la investigación, muchos tipos de células tendrían una especie de “cables telefónicos” que les permitirían “hablar” unas con otras a distancia.

El presente estudio sugiere así que las células emplean la comunicación eléctrica a están más conectadas a través de largas distancias de lo que se creía.

Lea el artículo completo en:

Tendencias 21

12 de septiembre de 2010

Nature alerta contra el desprecio a la ciencia


Nature se atreve a hablar en su último editorial sobre el creciente desprecio por la ciencia en el movimiento conservador norteamericano. Este es de hecho un buen resumen de la "Doctrina Limbaugh":

Las cuatro esquinas del engaño: gobierno, universidad, ciencia y medios de comunicación. Estas instituciones ahora están corrompidas y existen en virtud del engaño. Así es cómo se promulgan a sí mismas; así es cómo prosperan.

Rush Limbaugh es una especie de radiopredicador político de la derecha más populista en los EE.UU. Entre otras hazañas dialécticas de la guerra contra el "progresismo", es el inventor del término "feminazi" juntó con el economista Tom Hazlett. Los tópicos ideológicos de la doctrina son fácilmente reconocibles y varios afectan a áreas consolidadas del conocimiento científico: creacionismo (aqui ya tratamos sobre la asociación entre creacionismo y teorías de la conspiración), negacionismo climático o investigación con células madre embrionarias.

Ligeramente adaptados al folklore local, no es difícil reconocer todos estos signos de identidad en los comentaristas, "pundits" y políticos conservadores españoles de la última década, por lo que el tirón de orejas de Nature ni mucho menos nos es ajeno.

El editorial es optimista al final, pero también expresa una advertencia para que los científicos tomen la iniciativa. Empleando por cierto un estilo abierta y gratamente racionalista:

En la envenenada atmósfera política de hoy, los defensores de la ciencia tienen pocos remedios fáciles. Para nuestra tranquilidad, las encuestas siguen mostrando que la mayoría del público estadounidense ve a la ciencia como una fuerza para el bien, y el griterío anti-ciencia bien pudiera ser efímero. Como educadores, los científicos deben redoblar sus esfuerzos para promover el racionalismo, la investigación y el pensamiento crítico entre los jóvenes, así como comprometerse tanto con los medios como con los políticos para ayudar a iluminar los asuntos basados en la ciencia que están bajo presión en nuestra época.


Fuente:

La Revolución Naturalista
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0