CONUCO 2.1
Conuco Ver 2.1
Índice de Puerto Rico
 

Nuestro Boletín

Ébola y otros virus emergentes 5:01 PM, 3 de septiembre de 2014
En la infección es determinante la desigualdad que causa la pobreza.

En las últimas semanas en los medios de comunicación de todo el mundo han cobrado protagonismo las infecciones comunicadas por virus del ébola adquiridas en zonas del África Centroccidental. Desde hace cuatro décadas se han venido detectando casos aislados y brotes en diversos países que revelan la actividad de este agente. A pesar de que este fenómeno pueda parecer un hecho novedoso, un breve análisis induce a situarlo como una enfermedad vírica con similitudes y diferencias a otras catalogadas como emergentes.

Desde el punto de vista conceptual, en diversas contribuciones de nuestro grupo, hemos podido establecer que los mecanismos que facilitan la aparición de las infecciones víricas emergentes globalmente consideradas son tres. En primer término, la aparición de un virus desconocido por la evolución de una nueva variante. En segundo lugar, el traspaso de la barrera de especie, lo que condiciona la introducción en un hospedador de un virus existente en otra especie diferente a la que se detecta. En tercera instancia, la diseminación de un virus determinado a partir de una pequeña muestra poblacional (humana o animal) que actúa como nicho ecológico en la que aquel surgió o fue originariamente introducida. A esta última modalidad parece corresponder el actual brote por el virus del ébola.

Conviene recordar que desde el último tercio del siglo XX se han descrito un número importante de nuevos virus cuya consideración como causantes de enfermedades emergentes han exigido esfuerzos multidisciplinares por parte de diferentes instituciones profesionales, académicas y gubernamentales de todo el mundo. La situación de la zona a la que afectan y en la que se difunden condiciona de modo determinante su abordaje, la provisión de cuidados y la adopción de medidas preventivas.

La diversidad de patógenos emergentes se relaciona con una gran variabilidad de ciclos biológicos, vías de transmisión, mecanismos de patogenicidad y epidemiología. Se ha determinado que la capacidad de emerger se relaciona en algunos agentes más que en otros, con ciertas vías de transmisión y con un amplio espectro de hospedadores. La mayoría de los virus emergentes son zoonóticos y son los que infectan animales domésticos y silvestres los que requieren mayor atención. Entre los animales afectados se incluyen principalmente los vertebrados, como roedores, primates y murciélagos, así como las aves. A ellos se añaden una amplia gama de vectores, entre los que destacan los insectos y los artrópodos.
No existe una explicación sencilla al fenómeno de la aparición de nuevos virus o al resurgimiento de los ya conocidos.

La mayoría de los grupos de investigación coincide en señalar que se trata de una interacción de factores que abarcan tres aspectos fundamentales: la población vulnerable, el propio virus y el entorno de ambos. Las variables que influyen en la difusión de las infecciones víricas radican en una parte importante en el comportamiento humano. Este abarca desde cambios demográficos, viajes, fenómenos migratorios, desplazamientos motivados por las guerras hasta las actitudes y pautas sociales o individuales en el ámbito de las relaciones humanas en su sentido más amplio. Las agresiones ecológicas, el cambio climático, la deforestación, la invasión de espacios naturales son otros factores que impactan en la dinámica de la transmisión de virus. Pero quizás el determinante y no siempre reconocido es el medio donde se desarrolla la propia existencia, las desigualdades que imprimen la pobreza y la precariedad son las que marcan la capacidad para afrontar este fenómeno.

Algunas cuestiones en las que existen interrogantes sobre el virus del ébola son su reservorio natural, algunos mecanismos de transmisión, su espectro patogénico, su tratamiento antiviral eficiente y la variabilidad que exhiben las distintas cepas en la letalidad que provocan. Además de ello, la disponibilidad de métodos de diagnóstico virológico específico y el diseño de una estrategia vacunal serán en un futuro próximo objetivos a conseguir.

Autor: José María Eiros Bouza (Microbiólogo español)
Fuente: El País Digital: 03/09/2014
Hacia un mundo sin abejas 4:30 PM, 29 de junio de 2014
Han pasado 20 años desde que un grupo de agricultores franceses llamó la atención por primera vez sobre un fenómeno insólito: el despoblamiento de las colmenas a causa de la desaparición de las abejas, de cuya polinización depende gran parte de la producción mundial de alimentos. Pronto se comprobó que el fenómeno era global, al menos en los países con una agricultura muy desarrollada, y un aluvión de investigaciones ha intentado desde entonces determinar las causas, con resultados a menudo dispares o contradictorios. ¿Se debe la muerte de las abejas a los monocultivos o al calentamiento global? ¿Virus, bacterias, hongos, parásitos como el Nosema ceranae? ¿Pesticidas como los neocotinoides, que empezaron a usarse justo hace dos décadas? Aunque parece haber tantas opiniones como expertos en el campo, es posible que todos tengan parte de razón.

Entretanto, el fenómeno no ha hecho más que agravarse —los apicultores denuncian pérdidas más graves un año tras otro—, y la única buena noticia en este terreno se ha producido solo en tiempos muy recientes. Con característica lentitud pero loable preocupación, las Administraciones, incluidas las de Bruselas —que el pasado año prohibió varios pesticidas— y Washington —que ha aprobado un presupuesto extraordinario para investigar el fenómeno—, han tomado conciencia del problema y se han puesto manos a la obra.

La gravedad de la situación y la dilación e ineficacia de las medidas paliativas plantean una pregunta que ya no puede considerarse descabellada: ¿cómo sería un mundo sin abejas? “Si tuviéramos que depender de una agricultura sin polinizadores, estaríamos listos”, expone el subdirector general de Sanidad e Higiene Animal del Ministerio de Agricultura, Lucio Carbajo. No todos los cultivos desaparecerían, porque los hay que se pueden gestionar de otras formas (autopolinización y polinización por pájaros, entre ellas), pero todas las fuentes coinciden en que la pérdida de diversidad y de calidad alimentaria sería tremenda.

Además, los mismos factores que atacan a las colmenas dañan también a los polinizadores silvestres como el abejón, el abejorro y las avispas, de modo que las pérdidas no solo afectarían a la producción agrícola, sino también —y quizá más crucialmente aún— a los ecosistemas naturales y al medio ambiente en general. Las abejas, las flores y los frutos evolucionaron juntos hace decenas de millones de años, y no se puede destruir uno sin destrozar a los demás.

El Laboratorio de Referencia de la UE para la Salud de las Abejas (EURL, en sus siglas inglesas), con sede en Anses, Francia, publicó en abril los resultados del primer programa de vigilancia sobre el despoblamiento de las colmenas en 17 países europeos. Los datos, que se tomaron en más de 30.000 colmenas durante 2012 y 2013 y examinaron las prácticas agrícolas y los agentes patógenos más dañinos, muestran unos índices de mortalidad invernal muy variables entre países (la horquilla cubre del 3,5% al 33,6%). En general, la situación es más leve en España y otros países mediterráneos (por debajo del 10%) que en el norte del continente (por encima del 20%). Las cifras contradicen a las del sector apícola español, que denuncia mortandades entre el 20% y el 40%, en un ejemplo más de lo dificultoso que resulta acordar los criterios y las metodologías en este campo.

Leer artículo completo

Fuente: elpais.com
¿Qué hace que la Tierra sea un planeta habitable? 9:58 AM, 30 de marzo de 2014
Vivimos en un planeta que es un regalo: temperaturas suaves, grandes océanos y ríos de agua líquida, un ciclo hidrológico que permite que el agua caiga y se evapore... Nada que ver con los otros mundos que conocemos en el Sistema Solar.


¿Qué hace que el nuestro sea tan especial? En una nueva investigación publicada en la revista Nature, científicos de la Universidad del Sur de California, USC, y la Universidad de Nanjing, en China, explican las causas y apuntan que, en buena parte, la Tierra no se ha convertido en la sofocante Venus o en el árido Marte gracias a un dispositivo de regulación del dióxido de carbono atmosférico, el ciclo geológico que revuelve la superficie rocosa terrestre.

Los científicos saben desde hace mucho tiempo que la roca recién empujada a la superficie a través de la formación de montañas actúa efectivamente como una especie de esponja, absorbiendo el gas de efecto invernadero CO2. Sin embargo, si no se controlara, el proceso reduciría los niveles de CO2 en la atmósfera a un punto que sumiría a la Tierra en un invierno eterno en unos pocos millones de años, durante la formación de grandes cadenas montañosas como el Himalaya, algo que evidentemente no ha sucedido.

Los volcanes son una fuente de dióxido de carbono, pero ellos solos no pueden equilibrar el exceso de absorción de dióxido de carbono realizado por las grandes cadenas montañosas. En cambio, resulta que la roca recién expuesta por el levantamiento también emite carbono a través de un proceso de meteorización química -la desintegración y descomposición de una roca en la superficie como consecuencia de su exposición a agentes atmosféricos, físicos y químicos-, lo que repone el gas en la atmósfera a una velocidad comparable.

"Nuestra presencia en la Tierra depende de este ciclo del carbono. Esta es la razón por la que la vida es capaz de perdurar", afirma Mark Torres, autor principal de la investigación. Mientras que el aumento de dióxido de carbono en la atmósfera provocado por el hombre está actualmente impulsando cambios significativos en el clima de la Tierra, el sistema geológico ha mantenido las cosas en equilibrio durante millones de años. "La Tierra es algo así como una gran reciclador natural", dice Joshua West, coautor del estudio.

EL ORO DE LOS TONTOS

Los investigadores estudiaron rocas recogidas en la cordillera de los Andes en Perú y descubrieron que los procesos de meteorización que las afectan liberaban mucho más carbono de lo estimado previamente. Se percataron de que la rápida erosión en los Andes desentierra abundante pirita, el mineral brillante conocido como 'el oro de los tontos' por su apariencia engañosa, y su descomposición química produce ácidos que liberan CO2 de otros minerales.

Al igual que muchas otras grandes cadenas montañosas, como la del Himalaya, la de los Andes comenzó a formarse durante el periodo Cenozoico, que comenzó hace unos 60 millones de años y coincidió con una perturbación importante en el ciclo del dióxido de carbono atmosférico. Utilizando registros marinos del ciclo del carbono a largo plazo, los investigadores reconstruyeron el equilibrio entre la liberación del CO2 y la absorción causada por el levantamiento de grandes cadenas montañosas y encontraron que la liberación de ese gas por la erosión de las rocas puede haber jugado un papel importante, hasta ahora no reconocido, en la regulación de la concentración de dióxido de carbono en la atmósfera.

Fuente: ABC Electrónico / 20/03/2014
Surge la Posibilidad de Comunicaciones Cuánticas Multipartitas 5:23 AM, 26 de marzo de 2014
Por primera vez, científicos de la Universidad de Waterloo (Canadá) han conseguido mostrar un entrelazamiento cuántico a tres bandas, lo que abre la posibilidad de comunicaciones cuánticas multipartitas.

Las tres partículas entrelazadas estaban separadas por varios cientos de metros de distancia, pero a la vez estaban directamente influenciadas unas por otras. En el mundo de la ciencia cuántica, Alice y Bob (nombres usados para identificar más fácilmente a dos partículas A y B) han estado hablando el uno con el otro durante años. Charlie (C) se unió a la conversación hace unos años, pero hasta ahora los científicos no habían comprobado que la comunicación entre los tres, en separaciones de tipo espacial, tiene lugar más rápido que la velocidad de la luz.

Por primera vez, físicos del Instituto de Computación Cuántica (IQC) de la Universidad de Waterloo (Canadá) han mostrado una distribución de tres fotones entrelazados en tres lugares diferentes (Alice, Bob y Charlie) a varios cientos de metros de distancia, lo que demuestra la no localidad cuántica para más de dos fotones entrelazados. Los resultados del experimento se han publicado en Nature Photonics. Descrito una vez por Einstein como 'acción fantasmal a distancia', este entrelazamiento de tres fotones conduce a interesantes posibilidades para la comunicación cuántica a varias bandas.

La no localidad describe la capacidad de las partículas para saber instantáneamente el estado de la(s) otra(s), incluso cuando están separadas por grandes distancias. En el mundo cuántico, esto significa que sería posible transferir información de forma instantánea -más rápido que la velocidad de la luz. Esto contraviene lo que Einstein llamó el 'principio de acción local', la regla que dice que objetos distantes no pueden tener una influencia directa unos sobre otros, y que un objeto está directamente influenciado sólo por su entorno inmediato. Para probar realmente que las variables locales ocultas no son responsables de la correlación entre los tres fotones, los científicos necesitaban que el experimento cerrara lo que se conoce como la laguna de localidad (problemas en el diseño del experimento que afectaran a los resultados). La separación de los fotones entrelazados la consiguieron de manera que no era posible que una señal coordinara el comportamiento de los fotones.

"Las correlaciones medidas en los sistemas cuánticos pueden decirnos mucho sobre la naturaleza en su nivel más fundamental", explica en la nota de prensa de la universidad el profesor Kevin Resch, co-autor del artículo. "El entrelazamiento de tres partículas es más complejo que el de pares. Podemos aprovechar el comportamiento complejo para descartar ciertas descripciones de la naturaleza, o como una fuente de nuevas tecnologías cuánticas".

EL EXPERIMENTO

El equipo del proyecto estudió las correlaciones de tres fotones en un estado Greenberger - Horne - Zeilinger, un tipo de estado cuántico entrelazado en el que participan al menos tres partículas. En primer lugar, los tríos de fotones se generaron en el laboratorio de Resch, la Alicia del experimento. Luego, el primer fotón fue retrasado en una fibra óptica de 580 metros en el laboratorio, mientras que los otros dos fotones viajaron a lo largo de 85 metros de fibra óptica a la azotea, donde fueron enviados a través de dos telescopios. Ambos fueron enviados a dos remolques, Bob y Charlie, a unos 700 metros de distancia de la fuente y el uno del otro. Para mantener la separación de tipo espacial en el experimento, una cuarta parte, Randy, que se encontraba en un tercer remolque, seleccionó al azar las mediciones que Alice iba a llevar a cabo en sus fotones en el laboratorio.

Cada remolque contenía detectores, dispositivos de marcación de tiempo, y generadores de números aleatorios cuánticos. Para garantizar que la laguna de localidad estuviera cerrada, los generadores de números aleatorios determinaron cómo iba a ser medido el fotón de cada remolque de forma independiente. Los dispositivos de marcado de tiempo también aseguraron que las mediciones tuvieran lugar en una ventana de tiempo muy pequeña (tres nanosegundos), lo que significa que no pudo transmitirse información de un lugar a otro durante el período de medición, una condición fundamental para demostrar la no-localidad del entrelazamiento.

"La idea de entrelazar tres fotones ha existido durante mucho tiempo", explica el profesor Thomas Jennewein, co-autor del artículo. "Hizo falta que las personas adecuadas con los conocimientos adecuados se reunieran para hacer el experimento en el poco tiempo en que se hizo. Teníamos la combinación correcta en el momento adecuado".

POSIBLES APLICACIONES

El experimento mostró una distribución de tres partículas entrelazadas, lo que en un momento dado se puede utilizar para comunicaciones más complejas que las hasta ahora existentes, a dos bandas. Se abre la posibilidad de protocolos de comunicación cuántica multipartitos, incluyendo distribución cuántica de claves (QKD/DCC), criptografía de tercer hombre y compartición de secretos cuántica.

"El resultado interesante es que ahora tenemos la capacidad de hacer algo más que comunicaciónes cuántica en pares", explica el autor principal del estudio Chris Erven, un ex-estudiante de doctorado en Waterloo que ahora es asistente de investigación en la Universidad de Bristol (Reino Unido).

Fuente: Tendencias21
25/03/2014
Crearon el diccionario Dirae 3:45 PM, 6 de marzo de 2014
Dirae es un diccionario inverso basado en el Diccionario de la lengua española de la Real Academia Española. Es un diccionario inverso porque, en lugar de hallar la definición de una palabra, como en un diccionario ordinario, halla palabras buscando en su definición. Escogiendo bien los términos de búsqueda, Dirae puede servir también como tesauro asociativo, buscador etimológico, buscador de sinónimos, buscador de categorías gramaticales y otras funciones lexicológicas. Se puede echar un vistazo a los ejemplos de uso para empezar a probar su funcionamiento.
Es una herramienta puede resultar de gran utilidad para escritores, poetas, periodistas y, en general, para gente con inquietudes lingüísticas.

Fuente : Boletín del Centro de Estudios de Bibliotecología, SAI
La promesa del Li-Fi: ¿mejor que el Wi-Fi? 7:48 PM, 5 de marzo de 2014
Es posible que muy pronto baste con encender la luz para poder conectarnos a internet, ya que los primeros prototipos de este tipo de conexión conocida como Li-Fi ya empezaron a comercializarse.

Estos sistemas usan una luz normal acoplada a una conexión a internet que permite enviar datos a un receptor instalado en una computadora, lo que según sus desarrolladores resultaría en una conexión mucho más rápida que la que actualmente nos proporciona el Wi-Fi.

Aunque por el momento los prototipos a la venta son demasiado aparatosos, se prevé que pronto reduzcan su tamaño y se conviertan en un serio competidor del Wi-Fi en el mundo de la internet inalámbrica.

Guiños de luz

La tecnología también es conocida como Comunicaciones de Luz Visible (VLC en sus siglas en inglés) y científicos británicos comprobaron que el sistema es capaz de alcanzar una velocidad de transmisión de datos de 10 Gbites/seg.

Sólo para que se hagan una idea, con una velocidad de esa envergadura podríamos descargar una película entera en tan sólo 30 segundos.

Para lograr esto, el dispositivo Li-Fi hace circular los datos a través de unas luces intermitentes que emiten guiños de luz a una gran velocidad, imperceptible para el ojo humano.

Pero esto no significa que usando este tipo de conexión no podamos, si nos apetece, navegar a oscuras, ya que las bombillas Li-Fi pueden transmitir datos incluso a una frecuencia de luz invisible para los humanos.

Más capacidad

Uno de los problemas del Wi-Fi es que a medida que aumentan este número de conexiones, la frecuencia de onda que usan se ve cada vez más saturada, pero el Li-Fi resolvería este inconveniente.

"El Wi-Fi ha sido tan exitoso que hemos instalado muchos e interfieren los unos con los otros reduciendo la velocidad de transmisión de datos y con esto tenemos una oportunidad de obtener una capacidad adicional", explicó a la BBC el profesor Harald Haas, Jefe de Comunicaciones de la Universidad de Edimburgo y uno de los principales padres de esta tecnología.

Haas destacó que el hecho de que las ondas de luz no puedan atravesar paredes, tal y como pasa con el Wi-Fi, hace también que la conexión sea mucho más segura y difícil de piratear.

Además, el internet Li-Fi no causa interferencias electromagnéticas, por lo que supone una forma segura de navegar en internet en lugares como el interior de un avión.

Comercialización

Sin embargo tiene sus desventajas. Sus costos de instalación son todavía elevados y su alcance es limitado. Pero se estima que una vez en marcha su comercialización el costo de conectarse a una red Li-Fi podría ser considerablemente inferior al Wi-Fi.

Los británicos no son los únicos desarrollando esta tecnología. En 2013 científicos chinos presentaron su propio prototipo en la Feria Industrial de Shanghai.

Por el momento, Haas ya está comercializando el suyo a través de la empresa PureLiFi y piensa exponerlo en el Mobile World Congress de Barcelona que arranca la próxima semana.

Fuente : BBC Mundo
El riesgo de pérdida de biodiversidad isleña por las tierras que quedarán sumergidas al subir el nivel del mar 4:30 AM, 10 de diciembre de 2013
Los países que se verán más afectados por la elevación del nivel del mar causado por el calentamiento global son los estados insulares, para los que este efecto será sumamente destructivo en cuanto a los daños que causará en sus hábitats, que comprenden aproximadamente un 20 por ciento de la biodiversidad total en el mundo.

Las islas con muy poca elevación sobre el nivel actual del mar afrontan el mayor peligro. Bastantes de ellas perderán una porción considerable de terreno y otras incluso desaparecerán por completo. Una nueva investigación, realizada por Celine Bellard, Camille Leclerc y Franck Courchamp, de la Universidad de París Sur, examina este problema, y contempla tres posibles escenarios, desde uno optimista hasta uno muy pesimista. Con este estudio se ha pretendido ayudar a concienciar al mundo sobre los peligros que acechan a algunos de los lugares más ricos en cuanto a biodiversidad a escala planetaria.

A pesar de que el tema del cambio climático ha recibido una considerable atención en años recientes, no se dispone de estudios con enfoque global sobre las consecuencias que la elevación del mar tendrá para los ecosistemas isleños. Y ello pese a que esos ecosistemas están entre los más vulnerables ante un aumento del nivel del mar, que en estos casos causaría una reducción directa y apreciable de su hábitat.

Varios estudios recientes sostienen de manera contundente que el nivel del mar subirá sustancialmente, alcanzando a finales de siglo un aumento total que se estima en valores que oscilan mayormente entre medio metro y 2,3 metros. En los peores escenarios posibles, que incluyen una fusión considerable de las capas de hielo, el aumento del nivel del mar podría ser de entre 4 y 6 metros.

Un aumento notable del nivel del mar acarreará la inmersión de extensas zonas de muchas islas con baja elevación. En bastantes casos, el mar podría cubrir por completo a estas islas, borrándolas del mapa, eliminando sus ecosistemas, y desalojando a sus habitantes, o condenando a muchos de ellos a morir ahogados en caso de animales y otras formas de vida no humanas.

El nuevo estudio abarcó 1.269 islas de diferentes áreas tradicionalmente con presencia francesa. De entre todas ellas, se encontró que Nueva Caledonia y la Polinesia Francesa resultan ser las más vulnerables a un aumento del nivel del mar. El conjunto de islas de la esfera francesa aparece en las listas internacionales como el segundo conjunto insular más importante en el mundo, y en su totalidad estas islas hospedan una considerable porción de la biodiversidad del planeta. La nueva investigación revela que un 5 por ciento del total de estas islas podría inundarse de manera permanente a causa de un aumento del nivel del mar de solo 1 metro. Este porcentaje aumenta al 8 por ciento y al 11 por ciento en escenarios más pesimistas, que corresponden a incrementos de respectivamente 2 y 3 metros en el nivel del mar.

Asumiendo que las islas de la esfera francesa son una muestra estadísticamente representativa de todas las islas del mundo, podría deducirse que unas 10.800 islas desaparecerán por completo con el escenario más optimista de entre los examinados en el estudio, el que contempla un aumento de solo 1 metro en el nivel del mar.

Para el caso de Nueva Caledonia, y en el peor escenario, hasta un 6,8 por ciento de las islas de este archipiélago podrían quedar sumergidas hasta la mitad de su superficie actual. En términos de biodiversidad, esto sería un terrible golpe para muchas especies endémicas de la flora de esas islas. Dado que bastantes de ellas ya están ahora en riesgo de extinción por otras causas, el aumento del nivel del mar podría ser el tiro de gracia para extinguirlas.

La destrucción de los hábitats isleños será por ende un aspecto bastante preocupante en el futuro, ya que conducirá a un enorme empobrecimiento de la biodiversidad insular. A juzgar por los resultados de este nuevo estudio, las autoridades tendrán que establecer las prioridades de conservación necesarias para la naturaleza insular a fin de poder afrontar las consecuencias del aumento del nivel del mar provocado por el avance del calentamiento global, tal como razona Bellard.

FUENTE | Noticias de la Ciencia 09/12/2013

¿El tiempo es una ilusión? 4:24 PM, 30 de octubre de 2013
Un modelo de universo 'de juguete' sugiere que el tiempo 'es una ilusión' o que la existencia del tiempo depende sólo de la existencia de los relojes.

La física moderna intenta fusionar las leyes de dos 'universos': el macrocoscópico, y el de las partículas atómicas y subatómicas. Actualmente, describe así la realidad a través de dos vías: la mecánica cuántica‎, que explica lo que sucede a escala microscópica; y la relatividad general‎, que da cuenta de lo que sucede en el resto del cosmos: a los planetas, a los agujeros negros, etc. Pero ambas descripciones no terminan de combinar bien. Desde que las ideas de la mecánica cuántica se expandieron, a partir de la primera mitad del siglo XX, parece que son incompatibles.

LA CUESTIÓN DEL TIEMPO

A mediados de la década de los años 60 del siglo pasado, los físicos John Wheeler y Bryce DeWitt parecieron encontrar una solución a este dilema: la llamada ecuación de Wheeler-DeWitt.

Con ella se eludían los problemáticos infinitos que surgían de otras combinaciones de ambas teorías. Pero, aunque la ecuación de Wheeler DeWitt resolvió uno de los problemas fundamentales de la combinatoria entre las dos interpretaciones de la realidad antes mencionadas, hizo emerger un segundo y muy serio problema: expresaba un universo estático, 'sin tiempo', algo que a todas luces no existe.

En 1983, los teóricos Don Page y William Wootters propusieron una solución a este segundo problema basada en el llamado 'entrelazamiento cuántico', esa propiedad subatómica que tan bien describieron en su libro El cántico de la cuántica Ortoli y Pharabod: si tienes dos peces (o partículas) en un mismo charco y éstos se unen tan íntimamente que alcanzan un estado 'entrelazado', cuando pases uno de ellos a otra charca, ambos seguirán reaccionando de la misma manera, aunque ya no estén juntos. Así, si el primero es pescado, el segundo saltará igualmente fuera de su charca.

Este extraño comportamiento de las partículas subatómicas entrelazadas -al que Einstein denominó "acción fantasmal a distancia"- provoca que éstas no puedan definirse a partir del entrelazamiento como partículas individuales con estados definidos, sino como un sistema. El entrelazamiento cuántico hace que las partículas pasen a tener una 'misma existencia' a pesar de encontrarse espacialmente separadas.

EL ENTRELAZAMIENTO COMO MEDIDA TEMPORAL

Page y Wootters demostraron matemáticamente entonces cómo el entrelazamiento cuántico podía usarse para medir el tiempo. Su idea era que la manera en que un par de partículas entrelazadas evoluciona es un 'reloj', una medida del cambio o la evolución de éstas.

La medición a través del entrelazamiento podría hacerse de dos maneras, propusieron. Una: comparando los cambios en dos partículas entrelazadas con un reloj externo, independiente del universo donde esas partículas habitasen (algo así como un 'obesrvador-dios' o un 'superobservador'). En este caso, las partículas aparecerían completamente inalterables (como si el tiempo, en este escenario, no existiera).

Dos: medir el cambio o la evolución 'desde dentro'. Un observador situado dentro del universo de las partículas entrelazadas compararía su evolución con el resto del cosmos. Esa evolución constituiría una importante medida del tiempo.

LA COMPROBACIÓN EXPERIMENTAL

Por primera vez, un equipo de científicos ha conseguido poner a prueba las teorías matemáticas sobre la medida del tiempo de Page y Wootters en un sistema físico 'de juguete', es decir, compuesto sólo por dos fotones (que son las partículas elementales de la luz), informa Newscientist.

Se hizo de la siguiente forma. Por un lado, los científicos, del Instituto Nacional de Investigación Meteorológica (INRiM) de Turín, en Italia, midieron el sistema de ambos fotones entrelazados desde 'fuera' del universo de éstos, como haría un observador externo (el superobservador). Por otro, usaron uno de los dos fotones entrelazados a modo de 'observador' del otro fotón o como 'reloj'. Con éste midieron el estado (la polarización u orientación vertical u horizontal) del segundo fotón, mientras ambas partículas atravesaban dos vías independientes y de grosores variables, con los que se afectó a la polarización de los fotones y, por tanto, a su evolución. La medición fue posible porque el estado del primer fotón reflejaba el del segundo, merced al entrelazamiento cuántico.

El resultado fue el siguiente: en el primer caso (medición externa), el sistema observado resultó estacionario. En el segundo caso, en cambio, se registró un comportamiento oscilatorio (del segundo fotón), esto es, una evolución del segundo fotón que resultó una medida del tiempo.

Estas constataciones, aunque evidentemente no dan una respuesta definitiva, nos trasladan una vez más a cuestiones que llevan siglos en la mente de filósofos y de científicos: ¿qué es el tiempo? ¿Existe el tiempo sin un reloj que lo mida? La reflexión humana sobre el tiempo se remonta a Platón y, evidentemente, aún no ha concluido.

Autor: Yaiza Martínez

FUENTE | Tendencias21 30/10/2013
La contaminación causa cáncer 10:46 PM, 21 de octubre de 2013
La contaminación causa cáncer de pulmón. Esta afirmación, contenida de una u otra forma en multitud de estudios científicos en los últimos años, tomó un nuevo cariz porque quien la pronunció fue la Organización Mundial de la Salud (OMS).


En concreto, la Agencia Internacional para la Investigación del Cáncer (IARC, en sus siglas en inglés), la división de la OMS encargada de revisar qué sustancias ocasionan esta enfermedad y con qué seguridad se cree que lo hacen. La IARC anunció que ha clasificado la contaminación ambiental en el nivel 1, el más alto en la escala, el de las sustancias sobre las que no cabe duda científica.

El estudio monográfico elaborado por la agencia, cuyo resumen se publicará en la revista The Lancet Oncology, señala que en 2010 se produjeron 223.000 muertes por cáncer de pulmón en todo el mundo atribuibles a la contaminación. Las fuentes principales de este aire sucio son el transporte, la producción de energía, las emisiones industriales y agrícolas y la calefacción residencial. Es la primera vez que la IARC, que elabora lo que se conoce como la "enciclopedia de los carcinógenos", estudia y clasifica la contaminación en general. Antes lo había hecho con sustancias individuales que forman parte de ese aire sucio que se respira sobre todo en las grandes ciudades, como el humo de los motores diesel o los metales.

"Aunque la composición de la contaminación y los niveles de exposición varían radicalmente entre unas zonas y otras, las conclusiones son válidas para todas las regiones del mundo", afirmó la IARC en una nota de prensa. "Los estudios muestran que, a mayor exposición, el riesgo de cáncer va aumentando. Es una relación bastante lineal", explica Esteve Fernández, epidemiólogo del Instituto y especialista en tabaco que ha participado en la elaboración de otras monografías de la agencia. "Probablemente los riesgos no son tan elevados como en el caso del tabaco -un fumador tiene 20 veces más probabilidades de desarrollar cáncer que un no fumador-, pero a la contaminación hay mucha población expuesta", añade.

"Estos trabajos son largos, de hasta un año, e intervienen científicos de todo el mundo que revisan de manera independiente todos los trabajos publicados sobre cada materia", explica. En este caso, la IARC asegura haber revisado más de 1.000 papers (estudios publicados en revistas científicas). Las investigaciones analizan distintos elementos presentes en la contaminación ambiental, especialmente las partículas.

"La OMS ya califico el hollín del diesel como cancerígeno en junio de 2012. Si tenemos en cuenta que en nuestras ciudades la mayor causa de la contaminación del aire urbano es el tráfico rodado, la actuación de la OMS es muy coherente. De hecho algunos componentes como los hidrocarburos aromáticos policíclicos (emitidos por la quema de combustibles fósiles y biomasa), el arsénico, el cadmio y el níquel están regulados en aire ambiente por una directiva europea traspuesta en España por el hecho de ser cancerígenos", recuerda Xavier Querol, investigador del CSIC experto en contaminación.

"Ahora sabemos que la contaminación no solo es un riesgo importante para la salud en general, sino también una causa ambiental de muerte por cáncer", afirmó Kurt Straif, responsable de la clasificación de agentes cancerígenos en la IARC. "Nuestra tarea fue evaluar el aire que respira todo el mundo, en lugar de centrarnos en los contaminantes específicos", añadió Dana Loomis, directora adjunta de esta sección.

"Los efectos de la contaminación en la salud son múltiples. Los contaminantes más dañinos son las partículas en suspensión y el ozono, aunque hay otros componentes que también influyen. El efecto cancerígeno es uno de estos efectos pero hay otros: respiratorios, cardiovasculares y cerebrovasculares", explica Querol. La IARC indica en su estudio que hay 'pruebas suficientes' de que la exposición a la contaminación causa cáncer de pulmón y también recoge una 'asociación positiva' con el mayor riesgo de padecer cáncer de vejiga. Pedro Pérez Segura, de la Sociedad Española de Oncología Médica (SEOM), explica el mecanismo: "La inhalación continuada de estas partículas va dañando las células que recubren nuestro sistema respiratorio y llega un punto en el que se acumulan deficiencias genéticas lo que hace que las células proliferen de manera descontrolada y, al final, puede aparecer el tumor".

"En mi opinión la OMS ha actuado para alertar a los políticos de que el tema es serio y que deben actuar para mejorar la calidad del aire", concluye Querol.

Autor: Elena G. Sevillano

FUENTE: El País Digital, 18/10/2013
CAMBIO CLIMATICO: EL PUNTO DE NO RETORNO 6:17 AM, 1 de octubre de 2013
Los científicos tienen cada vez más claro -al 95%- que el hombre es el principal actor del cambio climático y advierten de que los daños causados hasta ahora por las emisiones -subida del nivel del mar, acidificación de los mares o el derretimiento de los glaciares- se mantendrán durante siglos si los Gobiernos no se conciencian de que el calentamiento es real y muy grave, aunque se haya suavizado en los últimos años, y toman ya medidas drásticas para combatirlo.
Aunque lo enfrentaran con firmeza, ya hay efectos con los que conviviremos al menos 1.000 años. Dependiendo del escenario, entre el 15% y el 40% del CO2 emitido puede quedarse ya en la atmósfera. Según sus previsiones, el nivel del mar podría subir entre 26 y 82 centímetros y la temperatura aumentar hasta 4,8 grados a finales de siglo.

El Grupo Intergubernamental del Cambio Climático (IPCC), creado por Naciones Unidas, ha avanzado en Estocolmo (Suecia) las principales conclusiones de su último informe, que representa una llamada de atención a los líderes políticos en un momento de crisis en el que la lucha contra el calentamiento ha dejado de ser prioridad.

El documento será estudiado por los gobernantes del mundo antes de llegar a un acuerdo multilateral vinculante para reducir la emisión de gases de efecto invernadero en 2015, que deberá comenzar a aplicarse en 2020. "Todavía podemos prevenir los peores efectos del cambio climático y dejar a nuestros hijos y sus hijos un planeta decente. Pero necesitamos Gobiernos que actúen como bomberos y no como pirómanos", ha recogido Europa Press citando un cuadro del informe de consejos para políticos que no ha sido difundido este viernes.

Para lograrlo, los autores recomiendan comenzar "lo más rápido posible" una senda hacia la energía renovable, proteger los bosques, los océanos y los recursos hídricos de los que depende la economía.

El informe AR5, principalmente pensado para los representantes políticos, reúne las evidencias científicas de los últimos seis años. En esta edición, en la que han participado 831 expertos de 85 países, se ha podido comprender con mayor exactitud la forma en la que está subiendo el nivel del mar, algo que ha aumentado la confianza de sus previsiones, que dibujan en varios escenarios posibles.

El anterior trabajo, difundido en 2007, mostró evidencias suficientes de que el cambio climático es inequívoco y estableció como causa probable las actividades humanas. Fue atacado en su momento por varios expertos por incluir errores. Entre otros, sobre la velocidad con la que podrían desaparecer los glaciares del Himalaya. Otro grupo lo revisó después y concluyó que las principales conclusiones seguían siendo válidas.

Estas son algunas de las conclusiones de esta entrega:

- Nivel del mar. La confianza en las previsiones del crecimiento del nivel del mar ha crecido con respecto al anterior informe, el AR4, gracias a la mejora de la comprensión de los componentes de nivel del mar, un mayor acuerdo de los modelos basados en procesos con observaciones y la inclusión del hielo en los cambios dinámicos. "Como el océano se calienta, los glaciares y las capas de hielo se reducen, el nivel del mar seguirá aumentando a nivel mundial, pero a un ritmo más rápido que hemos experimentado en los últimos 40 años" dijo Qin Dahe, vicepresidente del grupo de trabajo número 1 del IPCC. Las previsiones apuntan a una subida para 2100 que va de los 26 a los 82 centímetros. La horquilla es mayor de la que se estimaba en 2007 (18 y 59 centímetros).

- Papel del hombre. El trabajo dice que es muy factible, con una probabilidad de al menos el 95%, que las actividades humanas sean la causa predominante del calentamiento global en el siglo XX. Este aspecto ha aumentado con respecto al último estudio, de 2007, en que la probabilidad la situaban en el 90%. En el de 2001, estaba en un 66%.

- Cambios en el clima. El calentamiento es inequívoco, y desde 1950 muchos de los cambios observados no tienen precedentes en décadas o milenios. La atmósfera y los océanos se han calentado, las cantidades de nieve y hielo han disminuido, los niveles del mar han crecido, y las concentraciones de gases de efecto invernadero han crecido. Cada una de las últimas tres décadas ha sido sucesivamente más cálida -y las olas de calor serán más frecuentes y duraderas con una probabilidad del 90%-, la superficie de la tierra ha estado mucho más caliente que cualquier década precedente a 1850. Entre 1880 y 2012, el aumento estimado de la temperatura ha sido de 0,85 grados. Los científicos creen 'probable' que suba a finales de siglo al menos 1,5 grados con respecto a la era preindustrial, aunque los escenarios más pesimistas elevan el aumento a 4,8 grados.

- Océanos. Es 'virtualmente cierto' (al 99%) que se ha calentado la parte superior de los océanos, desde la superficie a los 700 metros de profundidad, desde 1971 hasta 2010. El informe considera, con alto nivel de confianza, que el calentamiento oceánico es el principal actor del aumento de la temperatura, ya que representa más del 90% de la energía acumulada entre 1971 y 2010.

- Hielos. En las últimas décadas, los bloques de Groenlandia y del Antártico han ido perdiendo masa, mientras que los glaciares continúan menguando.

- Carbono. Las concentraciones en la atmósfera de dióxido de carbono, metano y óxido nítrico han crecido hasta niveles sin precedentes al menos en los últimos 800.000 años. Esas agrupaciones de C02 han crecido un 40% desde los tiempos preindustriales, principalmente por las emisiones de combustibles fósiles. Los océanos han absorbido el 30% de dióxido de carbono produciendo la acidificación de los mares.

- Irreversibilidad. Muchos aspectos del cambio climático persistirán durante siglos aunque las emisiones de CO2 se detengan. Las temperaturas permanecerán a niveles elevados durante siglos.

Autor: Juana Viúdez
FUENTE | El País Digital 30/09/2013
  © 2012 Copyright CONUCO 2.1
Powered by Octafish Media
Octafish Media