miércoles, 23 de mayo de 2012

Escáner cerebral para el Alzheimer

A partir del próximo mes, los médicos podran usar un escáner cerebral para diagnosticar mejor la enfermedad de Alzheimer. La Administración de Drogas y Alimentos de los EE.UU. aprobó recientemente un tinte fluorescente que se une a las placas amiloideas (una característica física de la enfermedad) esta nueva herramienta de diagnóstico ayudara a detectar de manera mas eficiente el Alzheimer y descartar otras enfermedades.

Actualmente, los médicos no pueden tener la certeza de si el cerebro de un paciente está plagado de placas amiloideas hasta después de la muerte del paciente. Pero ahora, los médicos pueden usar un colorante débilmente radiactivo para buscar la presencia de placas en un paciente vivo. El colorante se une al almidón amiloideo que se acumula en los cerebros de los pacientes de Alzheimer y pueden ser visualizadas en una PET (Tomografía por emisión de positrones). La FDA aprobó el examen como un método para estimar el contenido de placas en los cerebros de las personas que presentan deterioro cognitivo. La presencia o ausencia de placas en un paciente con falta de memoria, confusión, u otros signos de problemas neurológicos podrían ayudar a los médicos con sus diagnósticos.

Aunque los científicos no saben si las placas son la causa de la enfermedad de Alzheimer, las placas están fuertemente correlacionadas con los síntomas de la demencia. Las personas con mayor cantidad de placas tienen un deterioro mental más rápido que los que no tienen las placas. Y aunque los médicos no pueden curar esta enfermedad, las herramientas de diagnóstico de Alzheimer, como los colorantes que marcan las placas, les ayudará a identificar a los pacientes con la enfermedad, así como aquellos que no la tienen, pero muestran signos de deterioro mental debido a otros problemas.

"Un análisis positivo sería añadir más peso a nuestro diagnóstico de cabecera” dice Liana Apostolova, especialista en Alzheimer de la Universidad de California en Los Ángeles. Ella dice que la técnica podría ser útil en el diagnóstico de pacientes con formas inusuales de la enfermedad y los pacientes cuyos síntomas pueden ser causados por otras condiciones, como los efectos secundarios de los medicamentos o la depresión. "Si el deterioro cognitivo del paciente se debe únicamente a la depresión, a continuación, un análisis amiloide negativo ayudaría a determinar eso”.


En un estudio de PET  (Tomografía por emisión de positrones), con el medio de contraste se muestra la acumulación de placas amiloideas en un paciente de Alzheimer (panel inferior) en comparación con un paciente cognitivamente normal (panel superior). El extremo rojo de la escala de colores muestra la unión de colorante máxima y el extremo negro / azul muestra la unión mínima.


El nuevo tinte y otros colorantes que marcan las placas se han utilizado en la investigación clínica desde hace años, pero Eli Lily, quien produce el agente de diagnóstico, es el primero en llevar la técnica a la oficina de los médicos. Algunos expertos siguen preocupados de que el uso clínico del tinte puede ser un poco prematuro, ya que la presencia de las placas no es suficiente para confirmar el diagnóstico de Alzheimer. De hecho, los depósitos amiloideos se encuentran a menudo en personas mayores con capacidad mental normal y podría estar asociados con otros trastornos neurológicos. Por ahora, el tinte Avid sólo está aprobado para ser utilizado para descartar la enfermedad de Alzheimer (si no se detectan las placas, el médico puede estar seguro de que el paciente no tiene la enfermedad).

Ronald Petersen, director de de la Clínica Mayo y el Centro de Investigación de Enfermedades. Si el análisis es negativo, entonces el médico puede decirle a un paciente que las placas no están contribuyendo a su enfermedad, pero si una exploración es positiva, ¿qué debe hacer un médico? "Ni la FDA ni la empresa dice nada acerca del significado de un análisis positivo”, "Los datos no está ahí fuera."

Petersen y otros están de acuerdo, sin embargo, la placa de detección de diagnóstico son críticos para la investigación de Alzheimer. Con los tintes los investigadores pueden determinar que participantes tienen placas y por lo tanto mejorar el diseño de los ensayos para atacar a la enfermedad. Dentro de los ensayos, los trazadores de placas se pueden utilizar para controlar la cantidad de placas en el cerebro de un participante durante el curso del tratamiento.

Los marcadores también pueden ayudar a aclarar el campo de las causas y los mecanismos de la enfermedad de Alzheimer, que son clave para el tratamiento o la prevención de la enfermedad. Los investigadores pueden estudiar a las personas que tienen placas amiloideas y dar seguimiento a sus capacidades cognitivas a través del tiempo. Desde un grupo de ancianos cognitivamente normales con un examen positivo, a sabiendas de que "se desarrolla la enfermedad de Alzheimer, lo que no nos ayudará a explorar la susceptibilidad a enfermedades y la resistencia, para de esta manera identificar todos los factores de riesgo genéticos y los cambios metabólicos tempranos, por lo que puede apuntar a procesos específicos con las drogas ", dice Apostolova. "Los diagnósticos pueden ser útiles, pero queremos tener una terapia adecuada para la enfermedad".

Más de cinco millones de personas en los Estados Unidos tienen la enfermedad de Alzheimer, y ese número se duplicará en los próximos años, de acuerdo con el Departamento de Salud y Servicios Humanos. Por más de 70 años, hasta el 30 por ciento de las personas tienen las placas amiloideas en el cerebro, dice Michael Weiner, investigador principal de la Iniciativa de neuroimagen de la Enfermedad de Alzheimer, que pone a prueba las técnicas de imagen, así como biomarcadores para la enfermedad de Alzheimer que se pueden encontrar en la sangre o el líquido cefalorraquídeo.

Con las nuevas exploraciones con tinte "se va a crear una mayor conciencia pública de la enfermedad, y tendrá un gran impacto", dice Weiner.

Transformada de Fourier ahora mas rapida

En enero, cuatro investigadores del MIT mostraron un reemplazo para uno de los algoritmos más importantes de la informática. Dina Katabi, Hassanieh Haitham, Piotr Indyk, y Eric Price han creado una manera más rápida para realizar la transformada de Fourier, una técnica matemática para el procesamiento de flujos de datos que sustenta el funcionamiento de cosas tales como la imagen médica digital, los routers Wi-Fi y las redes celulares 4G.

Piotr Indyk, Katabi Dina, Eric Price, y Haitham Hassanieh (de izquierda a derecha)


El principio de la transformada de Fourier, que data del siglo 19, es que cualquier señal, tal como una grabación de sonido, La transformada de Fourier es básicamente el espectro de frecuencias de una función. Este conjunto de ondas entonces puede ser manipulado con facilidad relativa, lo que permite una grabación para ser comprimido y el ruido sea suprimido. A mediados de 1960, un algoritmo de computadora llamado la transformada rápida de Fourier (FFT) se desarrollo. Cualquiera que se haya maravillado con el diminuto tamaño de un archivo MP3 en comparación con la misma grabación en un formato “normal” ha visto el poder de trabajo de la FFT.

Con el nuevo algoritmo, denominado dispersa transformada de Fourier (en ingles: Sparse Fourier Transform SFT), los flujos de datos se pueden procesar de 10 a 100 veces más rápido de lo que era posible con la FFT. El aumento de velocidad se puede producir porque la información que más nos importan tiene una gran estructura: la música no es ruido aleatorio. Estas señales significativas tienen típicamente sólo una fracción de los valores posibles que una señal podría tomar; el término técnico para esto es que la información se "dispersa". Dado que el algoritmo SFT no tiene la intención de trabajar con todas las corrientes posibles de datos, puede tomar ciertos atajos que de otro modo no están disponibles. En teoría, el algoritmo que puede gestionar las señales dispersas lo cual la hace ser es mucho más limitada que la FFT. Sin embargo, "dispersidad está en todas partes",  el co-inventor Katabi, profesor de ingeniería eléctrica y ciencias de la computación. "Está en la naturaleza, está en las señales de vídeo, está en las señales de audio."

Una rápida transformación significa que se necesita menos energía en una computadora para procesar una determinada cantidad de información lo cual es de gran ayuda con los dispositivos móviles multimedia, como los teléfonos inteligentes. Con la misma cantidad de energía, los ingenieros pueden hacer las mismas cosas que contemplan las demandas de computación originales de FFT. Por ejemplo, las redes troncales de Internet y los routers de hoy puede leer o procesar solamente un chorrito pequeño del río de bits que pasan entre ellos. El SFT podría permitir a los investigadores a estudiar el flujo de este tráfico con mucho mayor detalle en forma de bits disparados  miles de millones de veces por segundo.

jueves, 17 de mayo de 2012

Eclipse anular de Sol el domingo 20 de mayo al atardecer

Un Eclipse Anular ocurre cuando la Luna se encuentra cerca del apogeo (punto de la órbita lunar mas distante a la tierra) y su diámetro angular es menor que el solar, de manera que en la fase máxima permanece visible un anillo del disco del Sol. Esto ocurre en la banda de anularidad; fuera de ella el eclipse es parcial.


El domingo 20 de mayo al atardecer GMT 23:53:52 (hay que estar atentos desde las 5 pm hora México) en el Continente Americano acontece un eclipse de Sol anular. Magnitud 0.944. La Luna es incapaz de cubrir completamente el Sol y se obstruye el 94% del disco solar, por el centro. La parcialidad es visible en Asia, el Pacífico y norte del Continente Americano. La centralidad es visible en China, Japón, el Pacífico y occidente de los Estados Unidos.

El eclipse en América del norte (Canada, Estados Unidos y Mexico) y como se puede ver en la imagen.


Para la observación 

Los negativos y las radiografías no valen, serra advierte de los peligros de observar al Sol directamente para seguir el eclipse. No hacerlo con los filtros adecuados puede causar daños permanentes en la retina, LOS FILTROS ADECUADOS SON DE NIVEL 14 O MAYOR.

Métodos de observación indirecta

"Nunca hay que mirar directamente con un telescopio a un eclipse sin el filtro adecuado", advierte Serra. Y es que el telescopio es como una lupa, por lo que puede causar daños irreversibles si no tenemos un filtro solar adecuado.

Con un pequeño telescopio podemos usar un método de proyección que consiste en dirigir el telescopio al eclipse y dejar que la imagen se proyecte sobre una hoja de papel o superficie blanca situada en la sombra. Este mismo método se puede llevar a cabo con unos prismáticos cualquiera.



El método de la cartulina perforada, cogemos una cartulina y le hacemos un pequeñísimo agujero en el centro con la ayuda de unas tijeras o incluso de una aguja. Orientamos la cartulina hacia el sol de tal manera que su luz se cuele por el pequeño agujerito que hemos hecho. Al proyectar esa luz sobre un papel blanco o sobre una pared lisa podremos ver una sombra del eclipse.



Una forma de observación indirecta es el uso de una cámara oscura, que se puede elaborar de manera muy sencilla. Basta con tener una caja totalmente opaca en la que en el lado que se pone de cara al Sol se hace un pequeño agujero, que hará que entre la luz y se refleje en el interior de la caja el sol eclipsado.


Método de tubo estenopeico para observar el Sol


El material es muy sencillo. Un tubo de cartón de 1-1.5m, un trozo de papel de aluminio, una liga, agujas de distintos calibres y una tapa del tubo que se puede sustituir por una cartulina. También hace falta unas tijeras


Se tapa un extremo con el papel de aluminio y se sujeta con una liga


Se realizan uno o más agujeros. Se pueden realizar de varios tamaños.


En la parte inferior se puede hacer una "ventana" para ver la imagen del Sol y mantener bastante oscuridad. También se puede poner una cartulina a pocos centímetros o en una pared lisa.

Espero que lo disfruten! y les deseo buenas condiciones climáticas ese día!


Con información de http://www.astronomos.org

miércoles, 16 de mayo de 2012

La muerte de una estrella es el “flash” para tomar una fotografía de los inicios del universo

Inimaginablemente lejano y potentes, los breves destellos de radiación de alta energía conocidos como estallidos de rayos γ (GRBs) fueron alguna vez uno de los más profundos misterios de la astronomía. Ahora se están convirtiendo en una nueva herramienta de penetración. Con observatorios en órbita, como Fermi de la NASA y la nave espacial Swift que rutinariamente detecta los estallidos, los astrónomos están haciendo planes para utilizarlas como bombillas de flash para examinar los detalles oscuros de los primeros años del Universo.

Visto casi a diario, desde todas las direcciones en el espacio, los GRBs se piensa que son la señal del colapso del núcleo de una estrella masiva en un agujero negro, un evento que desencadena una explosión cataclísmica. Su intensa luz puede brillar todo el camino a través de todo el Universo visible para así ver los primeros capítulos de su historia más o menos hace 13 mil millones de años. Los teóricos de la comprensión de los flashes esta en continua evolución, pero en el 2012 los astrónomos discutieron cómo podrían utilizar los GRBs para trazar la evolución química del cosmos, pues la luz de las explosiones se filtra a través de gas en las galaxias en las que residen.

Volker Bromm, un astrónomo de la Universidad de Texas en Austin, dice que los GRBs son "piedras Roseta cósmicas" que podría incluso llevar a la información sobre la composición de las primeras estrellas del universo, unos pocos cientos de millones de años después del Big Bang. "Queremos ir a la hora de la primera luz.”

Junto con galaxias y cuásares los núcleos luminosos de las galaxias jóvenes tienen agujeros negros supermasivos en el centro que emiten los GRBs. Nial Tanvir, astrónomo de la Universidad de Leicester, Reino Unido. Ellos son mucho más brillantes que las galaxias distantes, lo que significa que un espectrógrafo tiene más información para trabajar cuando se divide un resplandor GRBs en sus longitudes de onda para revelar los constituyentes químicos en las líneas de absorción. Y aunque los cuásares brillan, su luz puede ser más errática que la de los GRBs y sus espectros más complicados, lo que hace más difícil extraer información sobre el material atraves del cual han brillado.


El desafío es que los GRBs son impredecibles y duran solo breves segundos. Sus destellos efímeros son seguidos por la persistencia de resplandores que pueden ser medidos en longitudes de onda, pero los observatorios terrestres deben reaccionar con rapidez si van a recoger los resplandores tan pronto como una nave espacial detecta una explosión. Sin embargo, se puede hacer, una explosión, que se detectó por Swift en septiembre de 2005, era tan brillante que el telescopio de 8 metros Subaru en Hawai detectó el resplandor y obtuvo un espectro tres días más tarde. Con un desplazamiento al rojo de 6,3, la explosión se estima que se han producido cuando el Universo tenía menos del 7% de su edad actual. El espectro, rico en detalles, reveló que la re-ionización del gas de hidrógeno en su punto inflexión es clave de la historia del universo.


La semana pasada, los astrónomos en una conferencia en Munich, Alemania, presentó una nueva imagen de la mecánica interna de los estallidos de rayos γ (GRBs), los conos luminosos fugaces, pero con carácter excepcional de la luz en chorro hacia afuera a lo largo de los ejes de rotación de las estrellas, ya que colapsan en agujeros negros y explotan como supernovas.


Pero los astrónomos quieren ir aún más atrás. Los GRBs han ido fuera, desde la formación de las primeras estrellas del Universo, que probablemente eran masivas, brillantes y de corta duración. La luz de las estrellas de este tipo cuando mueren violentamente ofreciendo GRBs  y mostrando una huella química codiciada del gas que lo rodea  la materia primordial del Universo muy temprano.

Mediante el análisis de GRBs en las galaxias de diferentes épocas, los astrónomos podrían ser capaces de rastrear cómo la composición de los inicios del universo a evolucionado, ya que las primeras generaciones de estrellas quemaron hidrógeno y helio, su conversión en elementos más pesados​​ y metales denominados colectivamente. "¿Cuándo estas grandes estrellas empezaron a hacer todos estos metales? ¿Cuándo se enciende? ", Pregunta Neil Gehrels, astrónomo del Centro de Vuelo Espacial Goddard en Greenbelt, Maryland, e investigador principal de Swift.

Para ayudar a conseguir un salto en las primeras observaciones de GRBs, Jochen Greiner, un astrónomo en el Instituto Max Planck para Física Extraterrestre en Garching, Alemania, y su equipo construyeron el Gamma-Ray Burst Optical/Near-infrared Detector (GROND), y añadieron un telescopio de 2,2 metros operado por el Observatorio Europeo Austral (ESO) en La Silla en Chile. GROND responde a las alertas de Swift, y toma el control del telescopio de ESO. El sistema automatizado puede hacer una estimación rápida de la distancia de una explosión, y si el candidato es remoto, Greiner y sus colegas llaman a los astrónomos del Very Large Telescope, que cuenta con instrumentos que pueden hacer excelentes mediciones espectroscópicas. Sin embargo, Greiner a veces es incapaz de convencerlos de interrumpir su trabajo. "No se dan cuenta que tienen que reaccionar en cuestión de minutos", indico.

Greiner también se preocupa por el hecho de que Swift, aunque sigue realizando un buen trabajo, fue diseñado para durar sólo dos años. Gehrels, sin embargo, es optimista de que con más espectrógrafos en los telescopios terrestres, los astrónomos serán capaces de sacar el máximo provecho. Él cree que es sólo cuestión de tiempo antes de que una explosión se detecte y nos lleva aún más cerca del Big Bang. "Todo lo que se va a tomar es una explosión… Simplemente no hemos tenido suerte todavía."

Brazo robot controlado por la mente

Una paciente paralizada equipado con un chip implantado el cerebro ha sido capaz de usar un brazo robótico para alcanzar y recoger una botella de café, ponerlo lo suficientemente cerca de su rostro para que pudiera beber de una pajita, y luego colocar la botella en la mesa.

La paciente tetrapléjica fue equipada con un implante electrónico en el cerebro que puede manejar un brazo robótico para alcanzar y agarrar objetos. Un estudio publicado hoy en la revista Nature muestra que las personas con los chips en el cerebro pueden utilizar los dispositivos para realizar complejas tareas que podrían ser útiles en la vida cotidiana. Por otra parte, los electrodos implantados pueden grabar señales neuronales hasta durante cinco años lo cual es mas de lo que se había sospechado. En estudios anteriores, los pacientes con implantes en el cerebro han sido capaces de mover un cursor en una pantalla, pero no realizar movimientos complejos con los objetos del mundo real.


Los resultados son las últimas novedades de un equipo dirigido por John Donoghue, un neurocientífico de la Universidad de Brown. Donoghue y sus colaboradores había informado en 2006 que los pacientes paralizados por lesiones en la médula espinal podrían utilizar interfaces cerebro-máquina para impulsar el movimiento de los cursores en una pantalla y hacer sencillos movimientos de abrir y cerrar con una mano robótica. Ahora los investigadores han demostrado que una interfaz cerebro-máquina puede dirigir las tareas más complicadas. "No sólo las personas pueden controlar un cursor de ordenador, ahora puede controlar dispositivos muy complejos, como un brazo robótico que puede llevar a cabo las funciones que nuestro propio brazo puede hacer", dijo Donoghue.

El implante en el cerebro es  pequeño, de unos cuatro milímetros en cada lado, cuenta con 96 electrodos similares a cabellos que se extienden desde los lados. El dispositivo se encuentra en la superficie del cerebro, y los electrodos penetran en la corteza motora de la región del brazo a una profundidad de un milímetro. El implante registra los impulsos de docenas de neuronas. La intención de un paciente de moverse genera estos impulsos, que se transmiten a un ordenador que traduce los patrones de actividad eléctrica en los comandos que pueden controlar un brazo robótico.

"Lo que me llama la atención acerca de este estudio es que se aplica por primera vez en pacientes humanos, que puede utilizar estas señales para controlar un robot de gran importancia para las actividades de la vida diaria de un paciente", dice Andrew Jackson, un neurocientífico la Universidad de Newcastle. Los investigadores dicen que las mejoras algorítmicas que recogen los patrones de actividad en el cerebro y la interpretación de los patrones fueron la clave para el avance.

El objetivo del ensayo clínico piloto es desarrollar tecnologías que pueden restaurar la capacidad de comunicarse y moverse para dar autonomía a las personas con enfermedades neurológicas o lesiones. Hasta el momento, siete pacientes se han inscrito en el ensayo. Los dos participantes en este último trabajo, sufrieron derrames cerebrales, que los dejaron sin poder hablar ni mover sus extremidades. En el momento del estudio, un paciente tuvo el implante durante cinco meses, y el otro por más de cinco años.

La longevidad de los implantes demuestra que el dispositivo puede captar señales utilizables por el cerebro durante años, un punto de preocupación en el campo. "Cuando pones algo en el cerebro, hay una reacción a la presencia de ese dispositivo", afirma Donoghue. Las células se dañan o se desplaza por los electrodos, y el cerebro puede formar tejido cicatrizal alrededor de ellos. Sin embargo, "no parece que la reacción del cerebro es una barrera para la grabación", afirma Donoghue.

Aún así, la señal se deteriora con el tiempo. "A pesar de que son señales de grabación de cinco años las señales no son tan estables hoy en día", dice Jackson. Se señala que el tejido gelatinoso del cerebro se mueve dentro de nuestro cráneo, y un implante rígido, fijo puede forzar al cerebro para deformarse a su alrededor. "¿Si las señales están cambiando día a día, se puede volver a calibrar sistema?".




Por ahora, el implante debe ser conectado a una instalación externa, pero los investigadores de Brown y los investigadores en Blackrock Microsystems en Utah (quienes fabrica los implantes) están trabajando en versiones inalámbricas que se están probando en animales. Donoghue espera que los implantes con el tiempo puedan conducir a la estimulación eléctrica de los músculos del propio paciente, evitando la necesidad de brazos robóticos. Estos experimentos han demostrado ser prometedores en primates.

La puesta a punto de la Nanotecnología contra el Cáncer

Los resultados de los ensayos en humanos son sorprendentes. Incluso en una dosis más baja de lo habitual, múltiples metástasis pulmonares se redujeron o incluso desaparecieron después de que un paciente recibió sólo dos horas de infusiones intravenosas de una droga experimental contra el cáncer. Otro paciente vio su tumor de cuello uterino reducirse en casi un 60% después de seis meses de tratamiento. Aunque el ensayo de la droga por BIND Biosciences, en Cambridge, Massachusetts, de un estudio experimental basado en la nanotecnología por medio de una técnica que fue diseñada sólo para demostrar si la tecnología es segura, los resultados alentadores reviven las esperanzas de que la nanomedicina pueda alcanzar grandes metas.

Durante más de una década, los investigadores han estado tratando de desarrollar nanopartículas que se suministran de manera más eficaz y segura que los fármacos tradicionales. La idea es que una nanopartícula que contiene un compuesto podría atacar selectivamente las células tumorales o células enfermas y evitar las sanas. Los anticuerpos u otras moléculas se pueden unir a la nanopartícula y se utiliza para identificar con precisión las células diana. "Una de las mayores ventajas de la nanotecnología es que usted puede diseñar cosas en forma de partículas de manera que la quimioterapia se pueden dirigir a las células tumorales, para lograr la protección de las células sanas del cuerpo y evitar en los pacientes los efectos secundarios", dice Sara Hook, director de proyectos de desarrollo de la nanotecnología del Instituto Nacional del Cáncer.

Sin embargo, la ejecución de esta visión no ha sido fácil. Uno de los desafíos: es que el comportamiento de un fármaco en el cuerpo puede cambiar radicalmente cuando se combina con las nanopartículas. Una nanopartícula puede cambiar la solubilidad de un fármaco, la toxicidad, la velocidad de acción, ya veces que tan efectivo es. El problema principal de una droga es que puede llegar a ser tóxica para los órganos fuera de objetivo, a continuación, la nanotecnología puede asegurar que éste se entregue el fármaco a las células enfermas en lugar de las células sanas. Pero si un medicamento depende de que se absorbido rápidamente por las células enfermas para ser eficaz, una nanopartícula puede retrasar el proceso y convertir una terapéutica óptima en una no tan efectiva.

Bind, que inició en 2007, ha tratado de superar este problema mediante la construcción de nanopartículas de una manera que permita a la empresa variar de forma sistemática sus estructuras y la composición. Típicamente las nanopartículas se produce en dos pasos: primero, un fármaco que se encuentra encapsulado en una nanopartículas, y en segundo lugar, la superficie externa de la partícula está enlazado con la focalización de moléculas que se dirigen el transbordador terapéutico en las células enfermas. La generación de nanopartículas de estas 2 formas puede ser difícil de controlar y reproducir, lo que limita la capacidad del investigador para ajustar las propiedades de la superficie de la nanopartícula. Para evitar este escollo, Bind sintetiza sus portadores de drogas utilizando nanopartículas de auto-ensamblaje.

Bajo las condiciones adecuadas, las subunidades de nanopartículas de las cuales algunas ya contienen moléculas dirigidas a reunirse por su cuenta. No se observaron reacciones químicas complejas y variables que son necesarias para producir las nanopartículas, y estas propiedades de cada subunidad puedan ser ajustadas. Esto también permite a los investigadores de la compañía poner a prueba una variedad de combinaciones de fármacos en nanopartículas e identificar los mejores candidatos para una determinada tarea. "Hacemos cientos de combinaciones con el fin de optimizar el rendimiento de cada medicamento", dice Jeff Hrkach, vicepresidente de investigación y desarrollo tecnológico.



Omid Farokhzad cofundador de Bind y profesor asociado del Hospital Brigham Women's Hospital y la Escuela de Médica de Harvard, es quien inicio con el nuevo método de construcción de nanopartículas, mientras que él era un investigador postdoctoral en el laboratorio  del profesor Robert Langer, del MIT. El grupo de Langer ya había desarrollado nanopartículas capaces de liberar fármacos de forma controlada, pero las partículas aún no buscaban células cancerosas específicamente. El primer desafío Farokhzad era crear nanopartículas cuyas instrucciones moleculares les llevaría a las células cancerosas, pero que permanecieron en el anonimato dentro del torrente sanguíneo para que el sistema inmunológico no los destruiría. El segundo iba a venir con un proceso de fabricación robusto y reproducible.

Farokhzad y Langer idearon un método por el cual los bloques de construcción de las nanopartícula y la drogas se auto-ensamblan en un producto final. Hay dos tipos de polímeros que se combinan para formar la malla enredada de drogas cargada por nanopartículas esféricas de BIND. Uno de estos polímeros tiene químicamente y estructuralmente 2 distintas regiones, o "bloques": un bloque insoluble en agua que forma parte de la malla que encapsula la droga, y un bloque soluble en agua que da el producto final sigiloso para evadir el sistema inmune. El otro tipo de polímero tiene tres bloques: los mismos dos que el primero, así como una tercera región que contiene una molécula objetivo la se asegurará de que las partículas finales lleguen a las células deseadas. Las nanopartículas conductoras de drogas se forman simplemente mezclando estos polímeros junto con el fármaco en las condiciones apropiadas.

Los polímeros de auto-montaje pueden ser producido de una forma repetible y escalable. Pero el método tiene una ventaja adicional, que puede ser la verdadera clave del éxito de BIND. El método por el que las nanopartículas se construyen a partir de preparaciones individuales de de dos y tres bloques de polímeros y los investigadores pueden utilizan enfoques de alto rendimiento de cribado. Cada bloque puede ser ajustado ampliando un bloque o cambiando la carga en otro y las cantidades relativas de cada polímero también se pueden variar. Con tantos parámetros para retoques, los científicos de BIND, pueden generar muchas combinaciones.

Su primer medicamento en los ensayos clínicos, Bind-014, lleva un chemotherapeutic ampliamente utilizado llamado docetaxel a través del torrente sanguíneo a las células cancerosas. La droga es empacada dentro de una nanoestructura similar a una bola hecha de polímeros biodegradables que protegen a la droga del sistema inmunológico del cuerpo. La superficie externa de cada una de las nanopartículas está salpicada de moléculas que se dirigen a las células cancerosas. Una vez que la nanopartícula ha llegado a su destino, se pega a la parte exterior de la célula, lo cual la desencadena la partícula para envolver la célula. El fármaco se difunde fuera de la partícula a una velocidad controlada y se libera en la célula trastornada.

Mark Davis, profesor de ingeniería química en Caltech, es la esperanza de que los pocos ensayos en curso de la terapéutica de nanopartículas específicas, pues desarrollada en su laboratorio, la nanoestructura Bind-014, con el fin de demostrar el potencial de la tecnología. "La comunidad médica no se va a emocionar hasta que [un juicio humano avanzado] podamos mostrar lo que estas nanopartículas dirigidas realmente hacen para los pacientes de una manera estadísticamente significativa." Por ahora, los resultados de los 17 pacientes reclutados en el ensayo de fase I de Bind-014 parece prometedor, pero una verdadera prueba de la eficacia tendrá que esperar hasta los ensayos de fase II, que se espera comience a finales de este año.

El diseño "programable" que usa BIND puede ser clave para atraer más específicas nanopartículas de medicamentos para el ensayo. Los métodos de la compañía se podría aplicar a alguna droga o compuestos existente, incluidas las que puedan haber sido dejados de lado por las compañías farmacéuticas, ya que demostraron ser demasiado tóxica para el cuerpo entero. "Creemos que podemos tener una plataforma muy amplia de drogas que podemos desarrollar", indico Hrkach

lunes, 14 de mayo de 2012

El chimpancé lanza piedras está de vuelta… y esta vez es personal

Hace tres años, un chimpancé lanza piedras llamado Santino sacudió a la comunidad de investigación, proporcionando algunas de las evidencias más fuertes que estos animales podría planificar a futuro. Santino, un residente del zoológico de Furuvik, en Gävle, Suecia, con calma juntaban piedras en las mañanas y las ponia en pilas ordenadas, al parecer, guardándolas para lanzar a los visitantes cuando el zoológico abría sus puertas como parte de una furiosa y agresiva "manifestación de dominancia".

Sin embargo, algunos investigadores se mostraron escépticos de que Santino en realidad estaba planeando un arrebato emocional en el futuro. Tal vez sólo estaba repitiendo las respuestas previamente aprendidas a los visitantes del zoológico, a través de un proceso cognitivo más simple llamado aprendizaje asociativo. Y es el comportamiento normal de los chimpancés machos dominantes tirar cosas a los visitantes, tales como palos, ramas, piedras, e incluso heces. Ahora Santino está de vuelta en la literatura científica, pues el ha comenzado a ocultar las piedras para que pueda conseguir un objetivo más de cercano, esto evidencia que él está pensando a futuro.

El debate sobre Santino es parte de una controversia más amplia sobre si algunos comportamientos de los animales son parecidos a los humanos o podrían tener explicaciones más simples. Por ejemplo, para Sara Shettleworth, una psicóloga de la Universidad de Toronto en Canadá, sostuvo en un articulo muy citado en 2010 "animales inteligentes y explicaciones aguafiestas en la psicología comparada" los cuidadores del zoológico y los investigadores que observaron Santino lanzando piedras a lo largo de una década, no lo había visto recoger las piedras, y por lo tanto no podía saber por qué originalmente hacia esto. Shettleworth y algunos otros argumentaron, podría haber tenido otras razones para el almacenamiento de las piedras, y el lanzamiento de ellas podría haber sido una idea de último momento.


Santino y algunas de las piedras que el escondio

En el nuevo estudio, publicado en línea hoy en PLoS ONE, el primatólo Mathias Osvath de la Universidad de Lund en Suecia, autor del reporta nuevas observaciones de la conducta de Santino durante el año 2010. Los primeros intentos de Santino de lanzar piedras durante el año 2010 se produjeron durante la pretemporada de mayo. Cuando una guía zoológico llevó a los visitantes hacia la isla de Santino, el chimpancé empezó a hacer una escena típica de dominación: chillando, de pie, y llevando una piedra en la mano. La guía y los visitantes se retiraron antes de que Santino comenzara a lanzar las piedras, y luego avanzó de nuevo, para un total de tres enfoques. Cuando el grupo regresó  unas 3 horas más tarde, Santino avanzaba hacia ellos, lanzando dos piedras, pero no actuaba de forma agresiva, incluso recogió una manzana del agua que rodea la isla y se la comió tranquilamente. Sin embargo, cuando se acercaban a corta distancia Santino, de repente lanzó una de las piedras. (No le pego a nadie.)

Al día siguiente, Santino volvió a amenazar a los visitantes con piedras, pero el grupo de nuevo se apartó para evitar ser golpeado. Santino observó y a continuación, tirando un montón de heno desde el interior de su recinto y lo coloco en la isla cerca de donde los visitantes se acercaron. Puso varias piedras en el heno y esperó a que el grupo regresara una hora más tarde. Entonces, sin llevar a cabo una exhibición de dominio, Santino tiro una piedra de debajo de la paja y la tiró. Más tarde, sacó una piedra que había escondido detrás de un registro y trató de golpear a los visitantes con ella, también.

En el transcurso del verano, Osvath y Karvonen observaron episodios repetidos de este comportamiento, y también recuperaron algunas piedras que Santino había escondido debajo del heno o los registros, acumulando 114 días de observación. Se recuperaron un total de 35 proyectiles que había ocultado Santino: 15 en montones de heno, 18 detrás de los troncos, y dos detrás de una estructura de roca en la isla. Los investigadores concluyen que Santino había provocado deliberadamente el encubrimiento engañoso de las piedras, y que esto era un comportamiento nuevo, e innovador por su parte: Antes de 2010, Santino nunca había puesto las piedras bajo los montones de heno o detrás de los troncos.

Las flechas muestran los lugares donde el chimpancé Santino escondió las piedras que luego lanzó contra los visitantes del zoo

Esta innovación, argumenta el equipo, es una prueba más de que Santino planea con anticipación cómo va a reaccionar a los planteamientos de los visitantes a su complejo, y que esto es incompatible con las interpretaciones de que almacenan las piedras por algún cache o alguna otra razón y que acaba de pasar a tenerlas en la mano cuando él se enojaba a ocultar las piedras y luego tratar de engañar a los visitantes del zoológico con el pensamiento de que sus intenciones eran pacíficas, Osvath y Karvonen argumentan que Santino en realidad tiene previsión y planificación de una situación futura en lugar de simplemente responder repetidamente a una anterior.

Y debido a que el equipo fue capaz de observar este comportamiento nuevo desde su comienzo, Osvath y Karvonen argumentan que el nuevo estudio supera algunas de las objeciones al informe anterior. "No importa qué mecanismos están detrás de la conducta", dice Osvath, Santino está participando en la planificación para el futuro, y "que no es trivial."

Sin embargo, los "aguafiestas" todavía no están del todo convencidos. Shettleworth llama al estudio "provocador", pero insiste en que otros experimentos con más animales son necesarios antes de que la conducta de Santino se pueda interpretar como la planificación anticipada. Shettleworth. Dice que los autores deberían haber tratado de realizar pruebas adicionales, tales como poner un montón de heno en lugares desfavorables para el lanzamiento

Montón de heno que utiliza Santino para ocultar sus piedras.

Thomas Suddendorf, un psicólogo cognitivo de la Universidad de Queensland en Brisbane, Australia, agrega que si bien las observaciones indican "capacidades extraordinarias", como "la planificación y el premeditado engaño" lo que él llama "ricas" interpretaciones de la conducta de Santino "no se pueden descartar estas interpretaciones sin estudio experimental."

Las abejas domésticas siguen desapareciendo

Las abejas tienen los titulares en estos días, y no de una manera positiva. El desorden de colapso de colonia ha hecho merma a través de las poblaciones de abejas, con algunos apicultores se han registrando pérdidas de hasta un 90 por ciento de sus colonias en los últimos años. Las poblaciones de abejas europeas también están en declive, y también algunas especies de América del Norte. Estos datos a menudo se interpretan en el sentido de que todas las especies de abejas del mundo (20,000) están en peligro, y que podemos estar en medio de una "crisis global de polinizadores". Pero hay pocos datos para respaldar esas afirmaciones, dicen los científicos.
  
"Cuando nos fijamos en lo que hay en la prensa pública, la implicación es que estos polinizadores se encuentran bajo amenaza, de que hay algún tipo de disminución misteriosa en todos los ámbitos", dice Sam Droege, un biólogo (USGS) Vida Silvestre Servicio Geológico de EE.UU. Patuxent Centro de Investigación. "El problema es que en realidad no hay datos que muestren esto de cualquier manera." 

Un nuevo informe, publicado en la Revista de la Sociedad Entomológica de Kansas, ofrece un rayo de esperanza para las especies de abejas nativas. En esta investigación, Droege y sus colegas han compilado una lista de 770 especies que son históricamente nativas del este de los EE.UU. Ellos enviaron la lista a una red de expertos de abejas, pidiéndoles tener en cuenta que las especies que habían encontrado en los últimos 20 años. La encuesta reveló que 95% de las especies de abejas que vivieron hace 150 años no se han extinguido. Treinta y siete especies no fueron a ningún lado, pero los investigadores señalaron que las abejas eran raras, para empezar, y a menudo eran objeto de confusión taxonómica. 

Es importante entender la salud de nuestros polinizadores nativos, ya que "en ausencia de polinización, comunidades enteras podrían colapsar", dice el ecologista USGS Ralph Grundel. "Si las plantas no pueden reproducirse, se pierden los productores primarios y, a continuación las especies que dependen de ellos." También se estima que las abejas polinizan cerca de un tercio de los alimentos que comemos, por un valor de alrededor de 15 mil millones de dolares por año. 

Grundel, quien no estuvo involucrado en la investigación, dijo que el documento es un buen punto de partida. "Es útil porque se ha reunido esta información sobre lo que estaba por ahí, históricamente, y lo que todavía está ahí fuera. Sin embargo, el hecho es que no estamos encontrando extinciones en masa, aunque no podemos saber si las especies están en declive o en peligro."



Droege, también dijo que las conclusiones son más débiles de lo que a él le gustaría. "Nos encantaría hacer declaraciones más detalladas que," Sí, hemos encontrado el la respuesta! Pero si no hacemos este trabajo,  básicamente no se sabe nada de nada”.

John Ascher, un zoólogo de invertebrados en el Museo Americano de Historia Natural (AMNH), estuvo de acuerdo. Él escribió en un e-mail diciendo "ni siquiera saben que abejas nativas existen, ya que muchas permanecen sin ser descritas ni puedan ser identificadas. Tampoco sabemos dónde viven, ya que incluso las listas de los estados siguen estando muy incompletas a pesar de nuestros mejores esfuerzos ... En cuanto a lo que las abejas están haciendo, sabemos aún menos." 

Con el fin de entender realmente la salud de las abejas nativas, los científicos necesitan documentar la distribución de las especies y la abundancia de ellas, así como supervisar cómo cambian sus números con el tiempo. Es por eso que sus colegas Droege y varios están trabajando con el Servicio Forestal de los EE.UU. para establecer una red nacional de seguimiento de abejas seguimiento. Él reclutó a 11 estaciones forestales experimentales de lugares tan lejanos como Maine, Colorado y Puerto Rico, y ha creado una estrategia estandarizada, un conjunto casi infalible.
  
"Es fantástico que alguien está haciendo esto", dice el entomólogo de la Universidad Rutgers Rachael Winfree. "No hay programas de monitoreo de abejas a largo plazo en América del Norte. Esto no es una idea nueva, es sólo que nadie lo estaba haciendo." 

Parte de la razón por la que no ha habido un estudio largo plazo, un programa a gran escala de monitoreo de las abejas, esto es porque no había un modo eficiente para recolectar las abejas. El uso de redes toma tiempo, y los resultados varían dependiendo de quién los tomo. Copas de agua y jabón alcanzan efectivamente las abejas, pero el agua se evapora rápidamente y los científicos tienen que revisar las trampas con frecuencia. "Averiguar como y cuándo se tomo la muestra es complicado", con este método, dice Droege. Una tercera opción utiliza trampas, que son como una gran tienda de campaña, como las redes que envían los insectos en frascos de alcohol o propilenglicol, pero estas trampas pueden costar hasta $ 250 dolares cada una.
  
Droege y sus colegas pasaron años preparando una solución. Ellos desarrollaron una trampa hecha de vasos de plástico de cerveza, jabón y de glicol. Los colores de la pintura atrae a las abejas, el jabón que las mata y el glicol de las preserva. (Glicol de propileno es "generalmente reconocida como segura" por los EE.UU. Food and Drug Administration). Los silvicultores en cada sitio establece las trampas, recogen las abejas capturadas cada dos semanas y las envían por correo a Droege para su identificación.



El programa está en su tercer año de recopilación de datos, pero todavía no tienen un nombre ni financiación. Y hasta ahora no lo han necesitado, la mayoría de los sitios participantes informan de que el mantenimiento de las trampas requiere muy poco dinero o esfuerzo. Henry McNab, de investigación forestal en el Bosque de Bent Creek Experimental en Carolina del Norte, estima que en promedio las colecciones de abejas requiere 15 minutos por semana y alrededor de 30 dólares por año. 

Algunos sitios han recogido más de 1,400 abejas en un verano. Se han encontrado varias abejas raras, y han descubrió especies en lugares en los que normalmente se considerarían fuera de su rango normal o hábitat, por ejemplo, los científicos en el lugar de Maine, han recogido una abeja squash (Peponapis pruinosa), una especie que es más común en la sudoeste de los EE.UU., y rara vez se encuentra al norte de Nueva Inglaterra.
  
El análisis de dos años también se alude a descubrir las tendencias de la población, aunque los datos de varios años más se necesitan para determinar si estos factores son importantes. "El objetivo principal es observar el cambio en el tiempo", dice Droege. "Si podemos prever descensos, podremos intervenir antes de que sea demasiado tarde." 

Al hacer el proyecto de monitoreo simple y barato, Droege ha hecho fácil para que los sitios experimentales el seguir participando por un tiempo muy largo. Michael Ryan, un ecologista de la investigación en el Bosque Experimental de Manitou en Colorado, dijo en un correo electrónico que "Mientras el Servicio Forestal puede darse el lujo de mantener un jefe de proyectos de Manitou, vamos a seguir. Y aunque el administrador del sitio se va [debido a los recortes presupuestarios] ", agregó," voy a trabajar de alguna manera para lograr que se haga".



La simplicidad del programa podría tener un costo pequeño. Por ahora, los técnicos forestales que participan en el programa de vigilancia han establecido las trampas en una zona de su propia elección, por lo general en un área que les resulta más conveniente. Pero las abejas responden muy bien a cambios en el hábitat local. Se sugirió que mediante la estandarización y el control de los ambientes en torno a las trampas, será más fácil de detectar cambios a gran escala en las poblaciones de abejas, en vez de los efectos de cambios locales.
  
A medida que el proyecto está todavía en su infancia, Droege continúa resolviendo errores. Después de que él demostro que el diseño experimental funciona, va a pedir fondos federales con la esperanza de ampliar el proyecto y aumentar la resolución de los datos. De momento Droege esta en la tarea de identificar a las miles de abejas recogidas, por lo que sólo tiene tiempo para clasificar hasta el nivel de género. "Hasta cierto punto, las preguntas realmente interesantes e importantes son a nivel de especie", dice Winfree. "El problema de tener el género como dato es que, por ejemplo una de las especies va en aumento y una se extingue, y ni siquiera lo detectaríamos," debido a que el número total de abejas seguiría siendo el misma. 

AMNH´s Ascher también señaló que este proyecto de vigilancia por sí sola no va a decirnos todo lo que necesitas saber sobre el estado de las abejas. Debe ser emparejado con diversos tipos de muestreo que son más capaces de detectar las abejas raras, y las abejas que ocupan hábitats específicos.

Sin embargo, es un comienzo. Y si el proyecto recibe financiación, los entomólogos dicen que el proyecto estará proporcionando datos importantes sobre las abejas nativas de EEUU. "Esto demuestra la cantidad de investigación que se puede hacer con un presupuesto reducido".




Restauración de la vista con implantes inalámbricos

El desarrollo de los implantes de retina se ha visto afectada por diferentes problemas desde el primer el primer implante para restaurar la visión que se desarrolló en 1968. Unir un lío de hilos, cables y bobinas de inducción, en el sistema visual humano siempre es un negocio difícil.

James Loudin y sus colegas en la Universidad de Stanford en California, han desarrollado una solución que supera muchos de estos problemas por medio del uso de gafas especiales que disparan señales infrarrojas en un arreglo de fotodiodos de silicio implantados en el ojo. El sistema simplifica lo que se necesita ser implantado y ambos transmite datos visuales, de esta manera la energía va directamente a los implantes, eliminando la necesidad de cualquier fuente de alimentación externa voluminosa. Su trabajo se publica hoy en Nature Photonics.




Con el fin de explicar cómo funciona este gran invento, Loudin utiliza regularmente el personaje de Star Trek Geordi LaForge como una analogía. "No estoy muy versado en Viaje a las estrellas no creo que Geordi tuviera implantes… Sin embargo, de la misma manera, nuestros pacientes no pueden ver sin las gafas."



Loudin y sus colegas demostraron la veracidad de su sistema mediante el uso de luz infrarroja para estimular la retina de una rata en la que los photodioides habían sido implantados. Un ordenador de bolsillo procesa las imágenes capturadas por una cámara en miniatura colocada en unas gafas similares a las gafas de vídeo existentes, y un sistema de proyección cercano a los ojos pone estas imágenes en el ojo y en la matriz de fotodiodos utilizando pulsos cercanos al infrarrojo. La matriz a su vez estimula las neuronas de la retina.

Recientes ensayos clínicos con implantes de matriz-multielectrodo con interfaces que conectan las neuronas en circuitos electrónicos, han restaurado un poco de claridad de la visión. Sin embargo, la cirugía es compleja y la implantación produce una gama de efectos secundarios no deseados, incluyendo inflamación, pérdida de neuronas, y una acumulación de astrocitos y microglia, que forman una envoltura alrededor de la matriz. Esto aumenta el espacio entre las sondas de electrodos y también aísla los electrodos, lo que reduce la funcionalidad.

La transferencia de datos es también difícil de escalar, un gran número de paquetes densos de microelectrodos son desventaja importante en la restauración de una experiencia normal de visión, tales sistemas son dependientes de una cámara externa para la estimulación de la retina, de modo que los pacientes no pueden utilizar los movimientos naturales del ojo.

El sistema de Loudin reduce estos problemas ya que los implantes fotovoltaicos son mucho más delgados, y son inalámbricos. Los impulsos que entregan la información visual al conjunto fotovoltaico permite reducir el número de componentes que se necesitan ser implantados. "Los cirujanos deben estar mucho más feliz con nosotros. Pues solo se hace un implante pequeño", dice Loudin. "Otros enfoques requieren piezas muy grandes de hardware para ser pegadas en el cuerpo, de un tamaño de 1-2 centímetros"

El sistema fotovoltaico también permite a los pacientes analizar la escena visual con sus propios ojos, en el mismo campo visual de las gafas.




Eberhart Zrenner la Universidad de Tübingen en Alemania, un líder en el campo y co-inventor del chip electrónico subretiniano, se quita el sombrero ante esta solución. "Es un enfoque elegante", dice. "También permite una alta densidad de píxeles, lo que significa una mejor resolución con muchos cientos de pixeles. La matriz es flexible, lo que permite que grandes matrices sean implantadas. "

Y añade que, si bien la manifestación actual es una convincente prueba de conceptos, se requiere más trabajo en cuestiones de biocompatibilidad, estabilidad del material y el desarrollo de procedimientos quirúrgicos mucho mas seguros.

Sin embargo, 66 pacientes en Europa y Estados Unidos han recibido implantes de estos sistemas en sus retinas. Zrenner reconoce que los implantes Loudin estarás disponible en el mercado en uno o dos años. "No habrá problemas de reglamentación, por supuesto, aun es muy pronto pensar en eso".

miércoles, 9 de mayo de 2012

LHC se prepara para recibir montones de datos

El más grande acelerador de partículas del mundo trabajando a un ritmo sin precedentes, la entrega de torrentes de datos. Sin embargo, los cientos de millones de colisiones que ocurren dentro de la máquina cada segundo están creciendo en una espesa niebla que, paradójicamente, amenaza con oscurecer una mina legendaria: el bosón de Higgs.

El problema se conoce como amontonamiento, y promete ser uno de los mayores desafíos de este año para los científicos que trabajan en el Gran Colisionador de Hadrones (LHC) del CERN, en Europa el principal laboratorio de alta energía cerca de Ginebra, Suiza.

Una enorme cantidad de potencia de cálculo, software astuto y trucos técnicos están ayudando a los científicos para mantenerse por delante del problema. Pero los investigadores aún necesitan reducir las colisiones para encontrar el bosón de Higgs que ha sido buscado por mucho tiempo, el cual es la manifestación de un campo que se cree que confiere masa a otras partículas.

Si existe, el bosón de Higgs aparece fugazmente en el interior de la máquina antes de desintegrarse en partículas más ligeras. El año pasado, los dos mayores detectores del LHC lograron ver indicios del bosón de Higgs con una masa de alrededor de 125 gigaelectronvoltios (la energía y la masa son intercambiables en la física de partículas). Este año, los investigadores quieren recoger más datos para ver si la señal se convierte en una certeza, o se marchita de nuevo a nada.

Desde que inició su última descubrimiento el mes pasado, el LHC ha estado reduciendo los miles de millones de protones en manojos cada vez más pequeños, y rompiendolos decenas de millones de veces por segundo. Los datos resultantes se miden en femtobarns inversas (FB-1), una unidad equivale aproximadamente a 100 billones de colisiones. En el último mes, el LHC registra un fb-1. A finales del año que tiene como objetivo haber capturado al menos 15 fb-1.

Para reunir estos datos los investigadores están impulsando el colisionador de dos maneras: por medio de la aceleración cada vez mayor de las partículas y el aumento del número de choques. Energías más altas permiten a las partículas más pesadas estallar y generar nuevas partículas, pero es el número de colisiones lo que se necesita para generar suficientes datos para que así los físicos puedan declarar un descubrimiento. En las próximas semanas, los científicos llenaran de más protones el interior de la máquina, tratando de centrar las partículas tan firmemente como sea posible sobre los puntos de colisión en el centro de los dos mayores detectores del LHC.



Cada vez que dos racimos apretados de protones cruzan, generan un promedio de 27 colisiones. Pero pocas semanas, ese número se espera que aumente a 30 colisiones y a mediados de año alcanzar un máximo de alrededor de 40 colisiones por cruce. Los dos detectores principales del LHC se diseñó para manejar sólo alrededor de dos docenas de colisiones a la vez. Pero se las han arreglado para hacer frente a este gran reto hasta ahora.

Cada detector está compuesto de capas de pequeños detectores que graban las pistas de los escombros procedentes del centro de la colisión. Cuando se produce una colisión, las computadoras por encima de la máquina pueden decidir si los datos son de interes y, de ser así, se hace una reconstrucción de la colisión con las pistas que deja. Sin embargo, cuando decenas de colisiones se producen a la vez, los equipos deben desenredarlas.

El año pasado, los investigadores que trabajaron con el detector ATLAS formaron un grupo de trabajo para abordar el problema de amontonamiento, reescribiendo el código informático de forma que el detector pueda hacer frente a las colisiones adicionales. El miembro del equipo de Salzburgo Andreas dice que el grupo ha estado trabajando duro para eliminar a los "fantasma" de las partículas que aparecen cuando las trayectorias de varias partículas se alinean, creando la ilusión de una partícula que no está realmente allí. La eliminación de estos fantasmas tan pronto como sea posible reduce la cantidad de potencia informática necesaria para trabajar los datos útiles.



En el Compact Muon Solenoid (CMS), rival del detector ATLAS, los físicos han generado ques sus algoritmos apliquen triage a los datos sobre la marcha para conseguir un buen análisis del rastros de partículas. "¿Alguna vez has jugado pick-up sticks?, Usted toma las más fáciles en primer lugar, y poco a poco se hace más simple permitiendo hacer frente a los demás".

Tales trucos es probable que sean menos eficaces con el aumento en el número de colisiones. En los bordes exteriores de la máquina los segmentos de detectores son más grandes y tienen menor resolución, por lo que no podría ser posible separar algunas de las pistas. Esto podría reducir la capacidad de un detector para recoger una firma de Higgs: un decaimiento a un par de bosones W, lo que provoca una cascada de partículas que necesitan ser capturadas por estos segmentos exteriores.

Por ahora, las montañas de datos adicionales deben compensar lo que se pierde al acumularse. Los investigadores esperan que se pierda más del 15% de los eventos lo cual provocara una probable una decadencia de Higgs, que produce dos rayos gamma. Y si ATLAS y CMS no puede manejar las partículas adicionales que surgen a través de la máquina, dice Lamont, los físicos del acelerador están listos para hacer el trabajo de nuevo.

viernes, 4 de mayo de 2012

Santiago Ramón y Cajal

El 1 de mayo de 1852 en Petilla de Aragón, Navarra, nacía quien se iba a convertir un gran científico Santiago Ramón y Cajal. Su padre era Medico y por cuestiones de su trabajo se tuvo que mudar más de una vez y claro muchos cambios de escuela paso Santiago, tal vez ese montón de cambios en su juventud hizo que en ese momento Santiago fuera un mal estudiante.

Además de que era un mal estudiante era un joven muy rebelde con un carácter fuerte pero leal a sus convicciones, aunque el siempre estaba en peleas con otros niños de su edad así que muy seguido el estaba bajo castigos y latigazos… pero gracias a su carácter y fortaleza siempre sin importar la situación el salía reforzado, como una mejor persona.

El como muchos grandes genios odiaba aprender las cosas de memoria, siempre se esforzó en analizar y comprender el mundo a su alrededor, esto le trajo problemas en sus escuelas como era de esperarse, mas aun por que el casi siempre estuvo en escuelas de curas, donde continuamente era reprendido, aunque era mal estudiante en muchas asignaturas llego a sobresalir en el dibujo.

Santiago pasaba una parte de su infancia concentrado en el dibujo y la pintura, esto no tenía muy contento a su padre (que era un hombre pragmatico), pues en esos tiempos como hoy se consideraba al arte como una pérdida de tiempo, como algo inferior, por ello intento disuadirle de esta actividad.

Una vez estando en el colegio fue castigado siendo encerrado en una especie de calabozo al que todos sus compañeros le tenían mucho miedo, pero el al contrario lo tomo como un lugar de descanso, meditación y claro un lugar donde podría maquilar nuevas fechorías y hazañas. Conforme fue creciendo fue transformando esta rebeldía en persistencia y tenacidad.

Cuando tenía 21 años era un chico que presumía su fuerza física pues era atlético y muy fuerte, algo que hacia comúnmente era jugar a las vencidas (pulsos) con sus amigos, donde siempre ganaba, aunque una vez perdió, esta derrota le hizo prometerse que nunca perdería de nuevo así que se inscribió a un gimnasio en Zaragosa donde comenzó a practicar el culturismo al que le dedico un gran esfuerzo y llego a ser uno de los mejores culturistas de Aragón, el le daba clases de anatomía al dueño del gimnasio como pago.



El entro a la universidad Zaragosa estudiando Medicina igual que su padre, Cajal se centró en sus estudios universitarios con éxito y, se licencio en medicina en junio de 1873 con muy buenas calificaciones. Trasterminar su carrera fue llamado a filas en los cuarteles de Lérida para ir al frente con la misión de defender Llanos de Urgel de los ataques de los carlistas.


Durante esa época, Cuba, aún provincia española, libraba una guerra por su independencia, conocida como Guerra de los Diez Años. En 1874 Santiago es elegido por sorteo para un puesto en la sanidad del ejército, español marcha a Cuba con grado de capitán. Su padre movió algunos contactos y logro conseguirle un muy buen destino en Cuba, pero la tozudez de Santiago sale a flote y el rechaza este favor, esto indigna a quienes habían abogado por el para al final mandarlo al peor destino, la enfermería de Vistahermosa en el centro de la provincia de Camagüey. Esta labor, en medio de la manigua pantanosa, con soldados enfermos a rebosar de paludismo y disentería, llevó a Cajal al agotamiento físico y a padecer las mismas enfermedades que sus soldados. Cajal sintió la enfermedad en carne propia y, tras una primera convalecencia en Puerto Príncipe, acabó recalando en la enfermería de San Isidro, aún más insalubre que la de Vistahermosa. Fue trasladado de un lugar a otro, hasta que finalmente en 1875 es declarado inútil en campaña y se le diagnostica paludismo grave, el sistema militar estaba lleno de corrupción por lo que se ve obligado a sobornar a un funcionario para poder recibir la mitad de sus sueldos atrasados y poder regresar con algo de dinero.



 El regreso a España y los cuidados que le propinaron su madre y sus hermanas devolvieron a Cajal progresivamente la salud. El año 1875 marcó también el inicio del doctorado de Cajal y de su vocación científica. Se doctoró en junio de 1877, a la edad de 25 años. Él mismo se costeó su primer microscopio con sus ahorros, y así empieza a investigar, en 1876, una plaza de ayudante de guardias; llevaba también los enfermos privados de cirugía de su padre, en el Hospital Nuestra Señora de Gracia de Zaragoza. Allí comenzó para Cajal una época de altibajos, con un 1878 terrible, marcado por la enfermedad de la tuberculosis, y un 1879 exitoso, con la obtención de la plaza de Director de Museos Anatómicos de Zaragoza y su boda con Silveria Fañanás García el 19 de julio, con quien tendría siete hijos.

Ganó la cátedra de anatomía descriptiva de la Facultad de Medicina de Valencia en 1883, donde pudo estudiar la epidemia de cólera que azotó la ciudad el año 1885. En 1887 se trasladó a Barcelona para ocupar la cátedra de histología creada en la Facultad de Medicina de la Universidad de Barcelona. Fue en 1888, definido por el propio Cajal como su "año cumbre", cuando descubrió los mecanismos que gobiernan la morfología y los procesos conectivos de las células nerviosas de la materia gris del sistema nervioso cerebroespinal, un hallazgo que literalmente cambio el mundo y que aun hoy es valido.

Su teoría fue aceptada en 1889 en el Congreso de la Sociedad Anatómica Alemana, celebrado en Berlín. Su esquema estructural del sistema nervioso como un aglomerado de unidades independientes y definidas pasó a conocerse con el nombre de “Doctrina de la neurona”, y en ella destaca la ley de la polarización dinámica, modelo capaz de explicar la transmisión unidireccional del impulso nervioso.



En 1892 ocupó la cátedra de Histología e Histoquímica Normal y Anatomía Patológica de la Universidad Central de Madrid. Logró que el gobierno creara en 1902 un moderno Laboratorio de Investigaciones Biológicas, en el que trabajó hasta 1922 cuando tenía 70 años, momento en el que pasa a prolongar su labor en el Instituto Cajal donde se convierte en profesor, en donde mantendría su labor científica hasta su muerte con 82 años.

Tras su regreso, le siguieron otros tantos triunfos e invitaciones, desde la Medalla Helmholtz (1905) hasta el Premio Nacional de Moscú (1900), pasando por los nombramientos de doctor honoris causa de las universidades de Clark, Boston, la Sorbona y Cambridge en 1899, el mismo año en el que publicó el tercer fascículo de su Textura del sistema nervioso del hombre y los vertebrados, que se completaría en 1900 y 1901. A partir de esta fecha, el gobierno español crearía también para él el Laboratorio de Investigaciones Biológicas, Finalmente, en 1906, con la concesión del Premio Nobel en Fisiología o Medicina.



Antes de morir el pidió que todos sus alumnos estuvieran presentes durante su entierro, pues tenía un gran cariño hacia sus alumnos a quienes siempre vio como el futuro.